Кто может сделать SEO лучше,
чем тот кто сам в ТОП3? Звоните!
Кто может сделать SEO лучше,
чем тот кто сам в ТОП3? Звоните!
8 800 350 99 87 пн – пт 10:00 – 19:00 (Мск)

История алгоритмов ранжирования Яндекса

Популярные статьи

Первая версия Яндекса появилась в 1997 году. Тогда алгоритмы были максимально простыми, потому что сайтов и страниц было немного. Вместе с развитием интернета компания постоянно дорабатывала алгоритмы, которые подбирают релевантные запросам web-ресурсы. Поисковая система регулярно получает новые факторы ранжирования и способы отбора качественного контента.

Что такое алгоритм ранжирования

Так называют сортировку сайтов в выдаче по ряду факторов. Несколько алгоритмов проверяют ресурс по разным группам, и в результате поисковая система определяет позицию сайта в выдаче по запросу

Современные ПС, в отличие от первых версий, не просто отбирают тексты, связанные с пользовательским вопросом, но и учитывают пользу, удобство и востребованность сайта и страницы. Создатели поисковых систем не дают точных рекомендаций, что нужно сделать, чтобы сайт попал в ТОП-10. Из-за этого SEO-специалистам и вебмастерам приходится прорабатывать все аспекты сайта и конкретных страниц. 

Рассмотрим основные обновления алгоритмов

Стоит подробно разобраться в 3 ключевых алгоритмах Яндекса, которые при появлении сильно повлияли на способы оптимизации сайтов.

основные обновления алгоритмов

Минусинск

Этот алгоритм умеет выявлять сайты, которые продвигаются за счет SEO-ссылок. Так называют линки, созданные только для прокачки ссылочной массы. Они не несут пользу для читателя. Минусинск создан для борьбы с этим методом продвижения сайтов. 

Стоит отметить, что алгоритм сильно влияет на ранжирование, поэтому после его появления вебмастерам и оптимизаторам пришлось удалить все купленные ссылки. А те, кто не успел вовремя среагировать на обновление алгоритмов Яндекса, получили баны. Они длились более одного месяца, поскольку после снятия ссылок боты должны переиндексировать сайт и все страницы-источники.

Стоит отметить, что Минусинск не уничтожил такой метод продвижения. Покупка ссылок осталась возможной, но теперь линки нужно вставлять на авторитетных и тематически близких источниках. При этом статьи со ссылками должны быть полезны, иначе Яндекс примет меры к источнику и получателю трафика.

Баден-Баден

Это текстовый фильтр Яндекса, запущенный в 2017 году. Он был придуман для борьбы с переоптимизированными страницами, которые создали скорее для поисковых систем, чем для живых пользователей интернета. 

Если Баден-Баден выявит переспам по ключам, то понизит все страницы сайта в ранжировании примерно на 20 пунктов. При этом штраф получит весь домен. Информация о бане отображается в Вебмастере в разделе “Безопасность и нарушения”.

Чтобы избежать попадания под фильтр, нужно придерживаться ряда правила:

  • Не перенасыщать контент ключевыми словами, и создавать его для людей, а не поисковиков.
  • Не употреблять одинаковые ключи в Title, Description, H1 более одного раза.
  • Не использовать повторы в навигационном меню, названия разделов.
  • Не манипулировать вниманием роботов с помощью выделения ключей жирным, курсивом и другими вариантами шрифта.
  • Не маскировать ключи с помощью скроллинга.

Вега

Это наиболее масштабное обновление поисковой системы. Вега существенно повлияла на принципы оптимизации ресурсов и создание контента. Новый алгоритм включает в себя 1500 обновлений, которые условно можно разделить на 4 группы:

  • Качество выдачи. Нейронные сети не просто ищут статьи, в которых встречаются слова из пользовательского запроса, но и смысл вопроса. Они разделяют страницы на смысловые кластеры в зависимости от общей тематики, и уже из этой группы будет подбирать страницы сайтов, напрямую связанные с вопросом человека. 
  • Скорость. Вега получила технологию пререндеринга, которая будет предугадывать вопрос пользователя и заранее собирать SERP под запрос. Также разработчики доработали Турбо-страницы, которые получат приоритет во время поиска.
  • Объективность и экспертность контента. Этот пункт вызвал множество споров в сообществе, потому что нет четкого объяснения, как алгоритм определяет экспертность ответа. Однако стало известно, что Яндекс отдает приоритет собственному сервису Кью. 
  • Гиперлокальность. Этот пункт важен только для коммерческих страниц. Если клиент хочет что-то купить или заказать, то увидит предложения не просто в своем городе, а районе. Поисковик стремится дать наиболее релевантный ответ, основываясь на том, что клиент хочет купить товар или получить услугу рядом с домом.

Последний пункт тоже стал объектом споров в SEO-сообществе, т. к. пока Яндекс работает по-прежнему. Разработчики поисковой системы отдельно отметили, что гиперлокальность связана с сервисами Яндекс Услуги и Яндекс Районы. Теперь компании, помимо Карт, должны регистрироваться на других агрегаторах поисковой системы, чтобы отвечать требованиям.

Как они повлияли на индустрию продвижения в целом

Внедряя новые алгоритмы, разработчики ПС стремятся сделать ответы максимально релевантными и удобными для пользователя. Старые методы продвижения, например, покупка ссылок, становятся менее актуальными, а на первый план выходят:

  • Грамотная архитектура и комфортный интерфейс. Сайт должен быть удобным, т. е. человеку не нужно прилагать усилия для поиска нужных товаров или ответов. А различные баннеры не мешают ознакомлению с контентом.
  • Объективная информация и читабельность. Владельцы ресурсов не могут просто заполнить текст и метатеги запросами, поскольку за это полагается бан. Теперь они должны уделить больше времени и ресурсов на создание экспертного текста. А LSI-копирайтинг вытесняет привычные статьи с нечитабельными фразами из Вордстата.
  • Работа с сервисами Яндекса. Поисковая система в каждом обновлении алгоритмов продвигает собственные сервисы и агрегаторы. Если раньше для получения топовых позиций в выдаче нужно было соответствовать требованиям SEO, то теперь еще и пользоваться Кью, Дзеном, Картами, Справочником и т. д. Без этого продвигать сайты, особенно коммерческие становится сложнее.

Как они повлияли на индустрию продвижения в целом

Заключение

Алгоритмы поисковых систем становятся сложнее и человечнее. Теперь боты не только смотрят на соответствие техническим требованиям, но и умеют понимать содержание страницы. Чтобы попасть в ТОП-10 выдачи, нужно создавать объективный, грамотный и читабельный контент для людей, а не фокусироваться на факторах ранжирования.

Мы в соцсетях:
Еще статьи по теме SEO продвижения
Геотаргетинг в контекстной рекламе Кто хоть немного знаком с Яндекс.Директом, знает, что на сегодняшний день рекламодатель может настроить показ объявлений на жителей определённого...
Если у компании много конкурентов в отрасли, то выделиться на их фоне непросто. Привлечь внимание покупателей поможет сильный бренд......
Напомним, в предыдущих двух статьях мы рассказывали о том, как создать рекламную кампанию и настроить группу объявлений в Яндекс.Директе. Сегодня у нас заключительный и самый ответ...
На форумах вебмастеров можно наткнуться на целые серии тем, в которых ведется обсуждение случаев ранжирования плагиата выше, чем оригинала. Чтобы разобраться, можно ли продвинуть с...
Закажите SEO раскрутку сайта
Оставьте свой номер телефона и мы свяжемся с Вами в рабочее время. Наша команда проконсультирует, поможет, проснит и ответит на любые вопросы

    Либо напишите нам на почту [email protected] или просто позвоните по номеру