Новички и SEO-специалисты из 90-х считают, что количество ключей на странице напрямую влияет на позиции. Чем больше SEO-элементов, тем лучше. Поэтому в интернете до сих пор можно встретить сайты с контентом, который буквально состоит из ключей. Раньше данная практика действительно приносила пользу. Сейчас же она скорее приводит к негативным последствиям.
В этой статье мы рассмотрели, что такое переоптимизация, почему она возникает и как ее избежать.
Что такое переоптимизация?
Переоптимизация — одно из первых понятий, с которым должны быть знакомы SEO-специалисты, копирайтеры, вебмастеры, а также заказчики, самостоятельно составляющие ТЗ для исполнителей.
Определение переоптимизации
Чтобы понять, что такое переоптимизация, стоит отталкиваться от более знакомого термина. Оптимизация сайта — комплекс мер, направленных на повышение позиций страниц в поисковой выдаче по запросам пользователей. Переоптимизация — это тот же комплекс, но с излишним количеством стараний. SEO-специалист настолько старается насытить страницы ключами и в результате только вредит ранжированию.
Переоптимизация ведет к тому, что сайт или отдельные страницы попадают под фильтры поисковых систем. Как итог, трафик на ресурс снижается, поскольку он хуже ранжируется в выдаче.
Признаки переоптимизации
Переоптимизация заключается в спаме ключами в мета-тегах и теле страницы. Подготавливая их, SEO-специалист или копирайтер добавляет огромное количество ключей.
На примере ниже показаны Н1 и лид-абзац на первой странице онлайн-магазина диванов. Слова «диваны», «купить», «дешевые» встречается буквально в каждом предложении.
Поисковые системы, как и пользователи, не любят такое, потому что текст становится искусственным и нечитабельным. Его написали не для человека, а для поисковых роботов. С учетом того что разработчик систем Google и Яндекс стремятся сделать выдачу максимально качественной, такой сайт может запросто попасть под фильтры и лишиться органического трафика.
Когда впервые заговорили о переоптимизации?
Разработчики поисковых систем заговорили о том, что интернет заполняется «мусором» еще в нулевые. В 2011 году Google выпустил обновление Panda, направленное на борьбу с некачественным контентом. Тогда же стало понятно, что SEO, основанное на обмане и манипулировании техническими параметрами не имеет долгосрочных перспектив.
Уже в 2013 году появился еще один алгоритм — Hummingbird. Он позволяет поисковику понять интент пользователя. Ему не нужно вводить конкретный запрос, чтобы получить определенные ответы.
Яндекс также работал над повышением качества выдачи. Он создал несколько алгоритмов, например, «Баден-Баден», для оценки качества контента и применения адекватных штрафных санкций к сайтам. Если SEO-специалист будет нарушать рекомендации поисковых систем, то страницы потеряют первые позиции в выдаче или вообще вылетят из нее.
Причины переоптимизации сайтов
Чаще всего проблемы с оптимизацией страниц возникают по 3 причинам. Кратко разберем каждую из них.
Агрессивное использование ключевых слов
Под «агрессивным» имеется в виду избыточное. Чтобы текст выглядел естественно и не потерял читабельность, ключи должны быть равномерно распределены по всему тексту, а количество однотипных фраз — соответствовать здравому смыслу. Считается, что текст до 3000 символов может содержать до 2 вхождений основного ключа, до 7000 — 1-3, а от 7000 — до 5.
Также стоит учитывать длину фразы. Ключ, состоящий из 7+ слов, не стоит повторять. Даже один повтор будет смотреться неестественно.
Чрезмерная внутренняя перелинковка
Перелинковка страниц сайта — это одна из основ SEO-оптимизация. Качественные ссылки позволяют повысить позиции отдельных страниц. Как и с ключами, ссылок не должно быть слишком много.
Если с одной страницы идут 100+ ссылок на другие, то можно столкнуться пессимизацией сайта. Однако не все так просто. Например, Википедия — пример крайне плотной перелинковки. При этом ее страницы стабильно занимают первое место в выдаче. Поэтому допустимое количество ссылок во многом зависит от траста ресурса.
Неправильная оптимизация мета-тегов и заголовков
Ключи в мета-тегах имеют большой вес, поэтому оптимизаторы нередко насыщают их поисковыми фразами так, чтобы страница хорошо ранжировалась по разным запросам. В результате тайтл и дескрипшн превращаются в нарезку ключей. Такие мета-теги отталкивают пользователей из-за искусственности и непрезентабельности.
Влияние переоптимизации на SEO и ранжирование
Переоптимизация — частая проблема SEO-специалистов. Если плотность ключей превысит допустимые значения, то страница получит различные штрафы.
Штрафы и санкции от поисковых систем
Разработчики поисковых систем придумали несколько фильтров для борьбы с переоптимизированными страницами. Яндекс использует следующие алгоритмы:
- «Переоптимизация». Обычно под него попадают информационные страницы. Поисковик применяет фильтр, когда прямые ключи встречают в тексте, тегах, альтах изображений.
- «Новый». Он объединяет в себе фильтры «Переоптимизация» и «Переспам».
В Google также создали несколько алгоритмов для очистки выдачи от переоптимизированного контента. Среди них стоит выделить:
- «Панду». Алгоритм обращает внимание на пользовательский спам, ключи и плагиат. Он приводит не только к пессимизации отдельных страниц, но и может выкинуть сайт из индекса.
- «Фреда». Его создали для борьбы с переоптимизированными короткими текстами и страницами, созданными для роботов, а не для людей. Стоит отметить, что после появления «Фреда» некачественные сайт потеряли до 90% трафика.
Снижение доверия поисковиков и пользователей
TrustRank — доверие поисковых систем к сайту. Данный показатель влияет на позиции в поисковой выдаче. Высокий траст поможет «обогнать» конкурентов при прочих равных.
Если сайт оптимизируется нерекомендованными методами, в том числе спамом ключами, то он получит штраф от поисковика и вместе с тем потеряет доверие. Траст снизится, из-за чего продвижение страниц станет сложнее и медленнее.
Как распознать переоптимизацию на сайте?
Чаще всего переоптимизация на сайте проявляется тем, что:
- Страницы теряют позиции сразу по всем запросам.
- Сдвиг в выдаче составляет 5-25 позиций.
- Органический трафик быстро снижается.
- Отдельные страницы продвигаются по новым запросам.
Удобный способ проверить наличие ограничений из-за переоптимизации — «Инструменты Арсенкина». С его помощью можно понять, какие страницы попали под фильтр. Пошаговая инструкция:
- Откройте официальный сайт сервиса.
- Укажите поисковую фразу, сайт и регион.
- Получите результат.
В результате вы узнаете актуальную позицию страницы по конкретному запросу, а также вероятность наличия ограничений.
Как избежать переоптимизации?
Главное правило — сохранение читабельности. Текст должен быть естественным и написанным именно для человека. Поэтому не стоит публиковать «простынки» с ключами в каждом предложении.
Чтобы избежать санкций за переоптимизацию, рекомендуется проанализировать конкурентов в топ-10 и зафиксировать, как часто они используют ключи. Если вам нужно применить фразу больше раз, то стоит использовать не только точные вхождения (например, «купить зимний пуховик в Новосибирске»), но и:
- Неточные — «купив зимний пуховик в Новосибирске».
- Разбавленные — «купить зимний недорогой пуховик в Новосибирске».
Практика показывает, что основная ключевая фраза часто звучит неестественно, поэтому некоторые SEO-специалисты чаще работают с неточными ключами и LSI. Благодаря тому что поисковики способны определять интент пользователя и разбавленные ключи, больше нет необходимости «пихать» именно точные фразы.
Также стоит избегать избыточной перелинковки. Если страница попала под фильтр, стоит:
- Проверить, есть ли дубли. При неправильной организации страницы может произойти следующее — на странице есть сразу 2-3 ссылки на одну и ту же страницу. Одинаковые ссылки не идут на пользу сайту.
- Сократить количество пунктов в меню.
- Не размещать бесполезные ссылки, которые никак не помогают посетителю.
Мифы о переоптимизации
В SEO сложилось множество мифов. Если говорить конкретно о переоптимизации, то нельзя не отметить 3 распространенных заблуждения.
«Чем больше ключей, тем лучше»: почему это не так
Данный тезис стал мифом сравнительно недавно. В 90-х большое количество ключей действительно работало. Поисковые системы не анализировали качество контента, а обращали внимание исключительно на запросы.
Сейчас несклоняемые запросы в каждом абзаце и по несколько раз — это сомнительная практика, особенно когда их выделяют жирным. Огромное количество ключей приводит не только к падению позиций сайта, но и размытию семантического ядра, если вы используете разнообразные запросы.
«SEO работает только через интенсивную оптимизацию»
Интенсивная оптимизация находится в паре шагов от спама. Работая со страницами в таком режиме, SEO-специалисты добиваются разных результатов. У одних получается быстро продвинуть страницу в высококонкурентных нишах, а другие получают штрафы от поисковых систем и тратят время на исправление ситуации, чтобы сайт не вылетел из выдачи.
Нужно понимать, что интенсивная оптимизация — это крайняя мера. Чтобы продвинуть сайт в выдаче, необязательно насильно и быстро накачивать страницы ключами, внутренними и внешними ссылками.
Есть риск, что интенсивная оптимизация станет причиной попадания под фильтр, поскольку она предполагает очень быструю работу. В таком режиме, во-первых, легко допустить ошибку, а во-вторых, испортить ссылочный профиль из-за слишком быстрого изменения ссылочного веса отдельных страниц.
Миф о скрытом контенте и его влиянии на ранжирование
Скрытый контент — одна из недобросовестных SEO-практик. Раньше можно было часто встретить на страницах:
- Текст такого же цвета, как и фон.
- Абзацы, состоящие из ключевых слов, микроскопического размера.
- Скрытый текст в коде страниц.
Нужно понимать, что такой контент обрабатывается краулерами так же, как и обычный. Они учтут его при оценке качества оптимизации. В результате страница попадет под фильтры.
Реальность последствий переоптимизации
Переоптимизация ведет к ощутимым проблемам. Если вы нарушите рекомендации поисковиков, то сайт будет хуже ранжироваться и потеряет существенную долю органического трафика.
Падение позиций в поисковой выдаче
Фильтры за переоптимизацию страниц обычно ведут к снижению позиций сайт на 10-25 позиций. Кроме того, сайт может перестать ранжироваться по определенным запросам.
Потеря органического трафика
Приведем наглядный пример влияния переоптимизации на объем поискового трафика.
Красной линией показан момент, когда сайт попал под фильтр «Баден-Баден». Органический трафик начал резко падать, хотя в Google просмотры на момент проверки остался стабильным. Это указывает на наличие алгоритмического снижения трафика.
Стоит отметить, что штрафы применяются только в контексте поисковой выдачи. Если вы привлекаете трафик из других источников (реклама, соцсети), то можно публиковать любые тексты. Однако стоит помнить, что пользователи заходят на сайт не ради SEO-мусора, а за контентом, отвечающим на поставленный вопрос.
Заключение
Переоптимизация страниц ведет к тому, что текст становится нечитабельным и «мусорным». Людям некомфортно изучать контент, который забит ключевыми запросами. Чтобы копирайтеры и SEO-специалисты создавали качественные и полезные материалы, разработчики поисковых систем придумали алгоритмы, позволяющие бороться с переспамом.
Стоит еще раз отметить, что строгих рекомендаций по количеству ключей, внутренних ссылок нет. Все зависит от ниши, в которой находится сайт. Мы рекомендуем проанализировать конкурентов, чтобы определить допустимые лимиты по количеству ключей, ссылок, которое не приводит к попаданию под фильтры.