LP и сайты Алгоритмы поисковой системы Яндекс и их влияние на ранжирование в 2023 году
Асеев Василий автор статьи Руководитель компании / Интернет маркетолог
Алгоритмы Яндекса: как они ранжируют сайты и защищают пользователей от некачественного контента

Алгоритмы поисковой системы Яндекс и их влияние на ранжирование в 2023 году

Разбираем хронологию развития поисковых алгоритмов и антиспамных фильтров Яндекса. Что делать и чего не делать для продвижения своего сайта в выдаче.

Асеев Василий автор статьи Руководитель компании / Интернет маркетолог
  • 10+ стаж работы в
    интернет маркетинге
  • 103 написано тематических
    статей
социальные
сети:
Содержание

Поисковые алгоритмы Яндекса определяют, как система подходит к ранжированию сайтов. Логично, что за 25 лет существования поисковика, они менялись очень много раз. Если в самом начале алгоритмы могли анализировать всего несколько параметров, то сейчас поисковые системы потихоньку стремятся к тому, чтобы “понимать” тексты на страницах и выдавать пользователям самый релевантный и качественный ответ. Давайте посмотрим, как менялся подход к ранжированию ресурсов все эти годы, и какие нарушения могут привести к пессимизации.

Поисковые алгоритмы Яндекса

Версия 7 — 2007 год

Первые 10 лет существования поисковика алгоритмы, конечно, менялись, но Яндекс не говорил об этом публично. В 2007 году это начало понемногу меняться. Первый шаг был в том, что один из руководителей поисковой системы просто предупредил SEO-специалистов на тематическом форуме о том, что грядут изменения. Пользователям пообещали, что изменится формула ранжирования, число параметров увеличится и в результате выдача станет более релевантной. Ничего более конкретного компания не заявляла.

Родео — 2007 год

На этот раз разработчики сосредоточились на изменении алгоритмов ранжирования запросов, которые состоят из одного слова. Главный смысл в том, что по ним теперь чаще стали показываться главные страницы.

Версия 8 (SP1) — 2007 год

Самое большое изменение здесь — это то, что авторитетные ресурсы теперь стали чаще попадаться в топе выдачи. Также изменения коснулись ссылочного продвижения: теперь ссылки с главных страниц начали не так котироваться поисковиком, и веб-мастера стали закупать размещение на внутренних. 

Магадан — 2008 год

В этой версии специалисты поработали с географическим фактором. Раньше, если человек хотел увидеть в выдаче только местные сайты, ему нужно было поставить галочку “Искать только в моём регионе”. Теперь же этого не требуется: поиск по умолчанию показывает только подходящие по географическому принципу ресурсы. Конечно, всё это работало неидеально, и до нынешнего уровня выдачи было ещё далеко. 

Также вдвое повысилось количество факторов ранжирования. Плюс, поиск научился распознавать транслитерацию, аббревиатуры и переводить слова. Это первый по хронологии алгоритм Яндекса, который называется именем города. В дальнейших обновлениях компания продолжит эту традицию. 

Находка — 2008 год

Этим изменением Яндекс старается сделать выдачу максимально разнообразной. Даже в типично коммерческих тематиках начинают появляться информационные ресурсы. Поисковик пока не может точно угадать, что хотел увидеть пользователь, поэтому показывает ему сразу всё. 

Эффективность внешних факторов ранжирования (например, ссылок) снизилась, и контент стал играть бОльшую роль. В результате совсем мусорные сайты, где просто накрутили ссылок, перестали так часто встречаться в топах.

Арзамас — 2009 год

Это обновление сконцентрировалось на изменениях в региональной выдаче. То есть оно практически не затронуло пользователей из Москвы и Петербурга. Теперь поисковик научился определять тип запроса: если для него важна привязка к региону, действует одна система ранжирования, если нет — другая. Также были разработаны разные формулы ранжирования для 19 регионов страны.

Снежинск — 2009 год

С внедрением этого алгоритма у Яндекса возросло доверие к взрослым сайтам и старым внешним ссылкам. То есть ссылка, которую получили месяц назад, будет давать меньший вес, чем та, что висит уже год. Плюс, стала важна схожая сфера сайтов: те, кто ссылается на вас, должны подходит вам по тематике, иначе это будет выглядеть неестественно, а значит подозрительно для поисковой системы. Также стал цениться выше уникальный контент. Поэтому сайтам, которые хотят оказаться на первых местах, важно создавать контент самим, а не копировать его у конкурентов. 

Ещё в этом году Яндекс внедрил новый метод машинного обучения Матрикснет. Не будем углубляться в технические подробности этого подхода, а просто скажем, что с его помощью стало возможно учитывать ещё больше факторов ранжирования и их комбинаций.

Конаково — 2010 год

В алгоритме Арзамас мы говорили про формулы ранжирования для 19 регионов России. Теперь такой локальный подход работает в 1250 городах по всей стране. Других изменений тут не так много, поэтому название алгоритма неофициальное. В целом это немного обновлённая версия Снежинска.

Обнинск — 2010 год

Здесь разработчики сосредоточились на геонезависимых запросах, выдача по которым в целом не должна зависеть от местоположения человека. Таких запросов в поиске большинство, и для них были представлены новые факторы ранжирования.

Также после внедрения этого алгоритма дела у сайтов, которые продвигались в основном за счёт купленных ссылок, пошли не очень хорошо. Многие из них забанили, а кто-то просто потерял свои высокие позиции.

Краснодар — 2010 год

В этом алгоритме всерьёз взялись за поведенческие факторы ранжирования. Теперь стало важно, как пользователи ведут себя на конкретном ресурсе. Особенно это касается кликов по сниппетам. Чем больше людей, которые ввели один и тот же запрос, перешли по одному сниппету, тем выше шанс, что для следующих пользователей Яндекс подвинет его на первое место. Также, конечно же, важно, чтобы человек не уходил слишком быстро. Иначе это сигнализирует о плохом качестве ресурса.

В этом же направлении оцениваются и внешние ссылки. Стало важно, чтобы они не просто существовали, но и были достаточно кликабельными. Ведь это значит, что они не просто размещены для поисковых роботов, а действительно интересны людям.

Рейкьявик — 2011 год

Этот алгоритм ранжирования стал первым шагом к персонализированной выдаче в Яндексе. С его внедрением поисковая система начала учитывать языковые предпочтения пользователей. То есть если человек больше переходил на англоязычные сайты или просто больше искал их, то они и будут чаще показываться ему в выдаче. 

Калининград — 2012 год

В этом году Яндекс ещё плотнее занялся персонализацией поисковой выдачи. Результаты стали основываться на предыдущей истории поиска. То есть теперь появилось больше возможностей угадать, что именно имел в виду человек, используя тот или иной запрос. Например, если он часто ищет фильмы, то по запросу “Титаник” логично выдать ему ссылку на просмотр кино, а не историю парохода. Плюс, если пользователь часто посещает определённые сайты, то в его результатах выдачи они будут находиться выше, чем у других. 

Наложение фильтров

Дублин — 2013 год

И снова о персонализированной выдаче. Теперь поисковая система умеет учитывать не только долгосрочные интересы пользователя, но и текущие, которые актуальны в конкретный момент. Например, если только что человек искал информацию о женских именах, то по запросу “Роза” на первых местах ему вероятнее выпадут статьи о значении этого имени. 

Началово — 2014 год

Этот алгоритм затронул только Московский регион и только коммерческую выдачу. Для ранжирования сайтов в этих тематиках перестала играть роль большая ссылочная масса и ряд других ссылочных факторов. Так Яндекс боролся с накрученными ссылками.

Одесса — 2014 год

Обновление включало в себя изменения в дизайне результатов: теперь прямо в выдаче можно было слушать музыку, смотреть расписание самолетов, поездов и киносеансов, переводить одну валюту в другую и т.д. Для получения быстрых ответов людям больше не обязательно было переходить на сайты. Но это обновление очень быстро откатили назад, признав неуспешным. Хотя потом эксперименты в этом направлении продолжились, и сейчас мы также можем найти в выдаче быстрые ответы.

Амстердам — 2015 год

Теперь сбоку от основной выдачи пользователи начали видеть краткий ответ на свой запрос. В первую очередь это, конечно, коснулось информационных запросов. Информацию для таких ответов Яндекс стал собирать из самых авторитетных и релевантных источников. Эту технологию назвали “объективными ответами”, и она используется до сих пор.

Минусинск — 2015 год

После запуска этого алгоритма под раздачу попало большое количество сайтов, которые занимались массовой закупкой ссылок для продвижения.  Санкции за слишком большое количество покупных ссылок накладывались либо на весь ресурс, либо на часть его страниц, куда ведут больше всего таких линков.

Массовая закупка ссылок

Киров — 2015 год

Этот алгоритм получил ещё одно название — “Многорукие бандиты”. Его суть в том, что в выдачу в случайном порядке добавлялись ресурсы, которые Яндекс считал наиболее релевантными в конкретной ситуации. Это могли быть даже новые сайты, которые ещё вчера находились на самой последней странице. После этого оценивалось поведение людей на ресурсе: если сайт им нравился и они проводили на нём много времени, значит он закреплял высокие позиции. Это стимулировали веб-мастеров работать над юзабилити и качеством контента.

Владивосток — 2016 год

С этого момента система начала учитывать адаптированность сайтов к мобильным устройствам. Ведь мобильный трафик быстро рос, поэтому людям было удобнее пользоваться ресурсами, которые нормально отображались на маленьких экранах.

Палех — 2016 год

Здесь в дело вступили нейронные сети. Их развитие позволило поисковой системе лучше определять смысл запроса. Палех в первую очередь отвечает за релевантность выдачи для запросов с длинным хвостом. Например: “фильм где у людей был рейтинг” или “яндекс найди пожалуйста серию маши и медведя про варенье”. 

Такие запросы в принципе сложны для поисковиков, потому что практически всегда уникальны. Для них нет такой разнообразной статистики, по которой можно было бы понять, куда люди в таких случаях переходят чаще. Пока для понимания смысла страницы поисковик научился опираться только на её заголовок: он должен соотноситься с семантикой запроса.

Баден-Баден — 2017 год

Теперь Яндекс взялся за заспамленные тексты, в которых используется слишком много ключевых слов. Система и раньше не одобряла такое поведение, но это регулировалось только отдельными фильтрами. Теперь это стало встроено в алгоритм ранжирования. 

С этого момента веб-мастеров призывают делать контент не для роботов, а для людей. Даже если на нескольких страницах будет замечена переоптимизация, позиции всего ресурса снизятся.

Королёв — 2017 год

Этот алгоритм поисковой системы Яндекса продолжает дело Палеха: его смысл так же в более релевантных ответах на сложные запросы с длинными хвостами. Теперь он опирается не только на заголовок, но и на весь текст страницы.

Понять на какой запрос может ответить текст помогают LSI-слова. Это не ключевые, но тоже очень важные слова, которые встречаются во многих текстах на одну тематику. Например, в статье про имя Роза будут содержаться слова: “значение”, “женщина”, “происхождение” и т.д. А в материале про цветок будут уже слова: “фото”, “сорт”, “шипы” и т.д. Также для того, чтобы выдать максимально подходящий ответ, алгоритм анализирует другие запросы, по которым конкретную страницу уже находили пользователи.

Андромеда — 2018 год

Вот основные нововведения, которые появились в поиске с внедрением нового алгоритма ранжирования Яндекса:

Быстрые ответы. Это ответы прямо на странице поиска. Чаще всего они помогают с простыми запросами. Например, “новогодние праздники 2019” или “на каком языке говорят в Бразилии”.

Обновлены алгоритмы ранжирования страниц со сложными темами, на которые нельзя дать однозначный ответ. Стал учитываться размер лояльной аудитории, соотношение полезного и остального контента, индекс качества по сравнению с другими проектами. У авторитетных ресурсов появились значки “Популярный сайт” и “Выбор пользователей”.

Вега — 2019 год

Обновление поиска здесь затрагивает четыре основных момента:

  • Продолжается дело Палеха и Королёва, но теперь нейросети научились объединять близкие по смыслу документы в кластеры. В итоге, когда пользователь вводит свой запрос, ответ на него ищется не по всей базе, а только по нескольким кластерам, которые максимально подходят ему по смыслу.
  • Появилась предварительная загрузка результатов поиска. Смысл в том, что система угадывает, каким будет полный запрос человека ещё до того, как он закончил вводить его. В результате время на загрузку результатов уменьшается.
  • Оценки асессоров-экспертов получили больший вес среди других факторов ранжирования. Каждый такой специалист хорошо разбирается в конкретной теме и может сказать, достаточно ли качественный контент на той или иной странице. Также Яндекс запустил новый сервис — Кью. Это аналог Ответов Mail.ru, но его особенность в том, что отвечают на вопросы не только обычные люди, но и привлечённые к сотрудничеству эксперты.
  • Более точная гео привязка. Учитывать географию запроса Яндекс научился давно. Теперь он умеет отслеживать ещё и район города, чтобы найти максимально близкие к человеку заведения.
Объединение близких по смыслу документов в кластеры

YATI

В этом алгоритме опять же продолжается работа над глубинным пониманием смысла текста. Теперь запрос пользователя соотносится с его намерением и всем контентом страницы. В основе технологии совершенно новый подход к анализу текста, его называют аналогом BERT у Google. А если говорить про алгоритмы Яндекса, то YATI — продолжение Палеха и Королёва.

Также после обновления владельцы сайтов и SEO-специалисты заметили более строгие санкции за накрутку поведенческих факторов. Все ресурсы, поведение пользователей на которых кажется поисковой системе неестественным, пессимизируются в выдаче.

Y1 — 2021 год

Это самое свежее обновление, которое вышло в прошлом году. Помимо технологии YATI, в новом поиске задействована ещё и технология YALM. Она отвечает уже не за анализ текстов, а за их генерацию. То есть она обучается на терабайтах информации, а потом может создавать на её основе свои тексты. Например, так система может сформулировать максимально релевантный ответ, которого пока не дала ни одна страница из выдачи.

Также в обновлении появилось:

  • Больше быстрых ответов. Теперь в выдаче сразу показываются короткие ответы на смежные темы, которые могут заинтересовать пользователя.
  • Анализ видео. Оно включается сразу с того места, где есть ответ на нужный вопрос.
  • Усиленный контроль безопасности. Помимо того, что совсем подозрительные площадки из поиска просто удаляются, на ресурсы теперь можно оставлять отзывы. Соотношение плохих и хороших отображается в выдаче.
  • Умная камера. Например, у неё можно спросить, что за растение перед вами. Или с её помощью найти магазин, где продаётся конкретно этот диван.

Антиспам-алгоритмы Яндекса

Отдельно стоит поговорить про все антиспамные алгоритмы Яндекса. Они обновлялись параллельно с поисковыми алгоритмами и были направлены на разные составляющие сайтов. 

В целом фильтры поисковых систем следят за тем, чтобы ресурсы не нарушали правила системы. В противном случае на них накладываются санкции. Здесь мы поговорим про отдельные фильтры, которые вводились не в рамках изменения глобальных алгоритмов. 

Текстовый контент

Как мы уже говорили, алгоритмы не любят слишком заспамленного контента, который манипулирует системой и за счёт этого снижает свою ценность для аудитории. За борьбу с таким контентом отвечают фильтры:

  • Ты последний. Появился в 2007 году. Налагается за неуникальный контент и затрагивает только отдельные страницы.
  • Переспам. Работает с 2010 года. Наказывает сайты, где на страницах слишком много ключевых слов, они выделены жирным или в текстах просто много воды.
  • Переоптимизация. Действует с 2011 года. Применяется за примерно такие же нарушения, что и прошлый фильтр. Но при его применении обычно проседают позиции по целой группе запросов.

Внешние ссылки

Общее правило для внешних ссылок — они должны быть естественными, а не рекламными. Это не значит, что платить за размещение ссылок вообще нельзя. Просто делать это стоит завуалированно. Вот какие фильтры контролируют нарушения в этой области:

  • Ссылочный взрыв. Отслеживает резкое увеличение количества ссылок. Особенно большая вероятность нарваться на него, если большинство сайтов-доноров некачественные.
  • Внутренний и внешний Непот. Внешний Непот обычно применяется к ресурсам, которые массово размещают у себя чужие ссылки на платной основе. Внутренний — если на конкретном сайте есть перебор с перелинковкой.

Поведение пользователей

Чтобы подняться в выдаче выше, некоторые ресурсы манипулируют данными о поведении пользователей. Вот как Яндекс их наказывает:

  • Накрутка поведенческих факторов. С помощью специальных программ владельцы сайтов могут имитировать действия пользователей. Конечно же, система накладывает за это санкции.
  • Содействие имитации действий пользователей. Наказывает за то, что случайных посетителей вовлекают в накрутку ПФ. 
  • Кликджекинг. Это фильтр против размещения на сайте скрытых элементов, с которыми пользователи взаимодействуют, сами того не ожидая.
  • Криптоджекинг. Фильтр направлен на сайты, которые используют вычислительные мощности устройств своих посетителей для майнинга.

Реклама

Реклама, которая есть на ресурсе, тоже должна отвечать определённым требованиям, чтобы не раздражать посетителей и не вредить им. В этой категории существуют такие фильтры:

  • Назойливая реклама. Наказывает за перебор с попапами и другими всплывающими элементами.
  • Обманная и избыточная реклама. Срабатывает, если на сайте слишком много рекламы и/или она содержит обманный контент.
  • Обман мобильных посетителей. Для агрессивной мобильной рекламы существует отдельный фильтр. Также он действует, если посетителей при просмотре рекламы автоматически перенаправляют на другую страницу. Например, в магазин приложений.
  • Реклама, вводящая в заблуждение. Здесь можно словить нарушение, если реклама изображает из себя другой элемент сайта. Например, меню, кнопки и т.д. 

Обман поисковой системы

Конечно же, поисковики не любят, когда обманывают не только пользователей, но и их систему. За это существуют фильтры:

  • Бан. Фильтр, который применяется в крайних случаях, когда нарушения серьёзные. Например, это использование дорвеев, клоакинга, сайтов-клонов и т.д. Если ресурс попался на таком манипулировании системой, его полностью исключают из поиска.
  • Сходство с популярным сайтом. Появился совсем недавно, в июле 2022 года. Наказывает за излишнюю схожесть с другим популярным ресурсом, ведь таким образом мошенники могут наживаться на чужой репутации.
  • Псевдосайты. Этот фильтр по разным параметрам определяет ценность ресурсов для аудитории, а потом пессимизирует те, которые ей не обладают.
Бан

Нарушение закона

За нарушение любых законов страны сайты или ссылки на их конкретные страницы удаляются из поисковой выдачи. Иногда они всё-таки остаются, а поисковик при переходе на них просто выводит оповещение о том, что сайт нарушает закон, и поэтому он удалён.

Качество сайта и всего бизнеса

Качество контролируют такие фильтры:

  • АГС. Появился он в 2009 году и изначально наказывал за слишком большое количество исходящих ссылок. Теперь его функции изменились: он понижает в ранжировании любые сайты, которые предназначены не для пользователей. То есть у них бесполезный контент, скопированные с других ресурсов материалы, большое количество дублей страниц и т.д.
  • Мобильный фильтр. В выдаче пессимизируются ресурсы, которые не адаптированы под мобильные.
  • Некачественный бизнес. Фильтр довольно новый и запущен только в 2021 году. Сделан, чтобы защитить пользователей от мошенников, поэтому следит за репутацией компании, реальностью отзывов, адекватностью цен и т.д.

Взрослый контент

Здесь существует только один фильтр — Adult. Он следит за тем, чтобы по безобидным тематикам в выдачу не попали страницы с контентом для взрослых. Если не весь сайт, а только некоторые его разделы подходят под эту тематику, из поиска будут исключены именно они.

Создание нескольких ресурсов с одной и той же целью

Иногда владельцы ресурсов считают, что если создать несколько площадок для своей компании, то можно занять больше мест в выдаче. Звучит логично, но не очень честно. Именно поэтому в Яндексе действует аффилиат-фильтр, который этому препятствует. Он оставляет в выдаче только один основной сайт, а все остальные просто скрывает. 

Итог

Зачем обо всех этих обновлениях алгоритмов знать владельцам сайтов? Затем, чтобы успешно продвигать свой сайт в выдаче. Ведь если вы знаете, за что Яндекс может пессимизировать ваш ресурс, и каким правилам наоборот надо следовать, чтобы оказаться выше других, то можете действовать осознанно, а не вслепую.

Если вы хотите подробнее узнать обо всех санкциях, которые действуют в Google и Яндекс, почитайте ещё другую нашу статью на эту тему.


Пожалуйста оцените статью, нам это важно
12 комментариев
image description
Марина 20.12.2023 21:56:19
0

Спасибо за экскурс в историю)) Помню как после внедрения Минусинска много сайтов потеряли свои позиции. Но накрутки ссылок же никуда не делись. Так что есть теория, что Яндексу не выгодно банить всех накрутчиков.

ответить
Soldi Marketing 23.12.2023 08:22:11
0

Насчёт выгоды для Яндекса не знаем, но то, что накрутки ссылок остаются — это факт. Сейчас просто все стараются делать это более грамотно: подбирать качественных доноров и не закупать много ссылок за один раз.

ответить
image description
Petr 23.12.2023 08:19:45
0

А какие именно санкции ждут сайт за нарушение всех этих правил от поисковиков? Чего бояться?

ответить
Soldi Marketing 23.12.2023 08:22:32
0

Это может быть как полное удаление сайта из поисковой выдачи, так и значительное снижение трафика из поиска или вылет из топа. Ограничения на сайт могут накладываться на срок от одного до нескольких месяцев. Всё зависит от степени нарушений.

ответить
image description
Зенкевич Сергей 25.12.2023 05:56:44
0

Столько всяких ограничений и санкций, даже страшно сделать что-то не так. Могли бы вы дать несколько советов, на что обращать внимание начинающим сеошникам и как сейчас продвигать сайт в выдаче?

ответить
Soldi Marketing 28.12.2023 14:55:15
0

Сейчас все поисковики в основном борются за то, чтобы сайты, которые попадают в выдачу, удовлетворяли потребности пользователей. Поэтому чтобы пробиться в топ, нужно:
- Наполнять сайт качественным контентом и грамотно вписывать в него ключевые слова;
- Следить за поведением пользователей и вносить на сайт изменения, чтобы сделать взаимодействие с ним более удобным;
- Размещать внешние ссылки на качественных ресурсах-донорах;
- Исправлять все технические проблемы: со скоростью загрузки, мобильной версией, дублями страниц и т.д.
- Анализировать своих успешных конкурентов, чтобы понимать, какие преимущества дают им возможность быть в топе.
Это если кратко. Так, конечно, в SEO много нюансов.

ответить
image description
Прозоров Степан 25.12.2023 05:56:47
0

А как часто вообще происходят изменения алгоритмов? Периодически вижу обсуждения, что выдачу “трясет”, но на своем сайте эту тряску не всегда ощущаю. Позиции не падают, трафик тоже.

ответить
Soldi Marketing 28.12.2023 14:55:20
0

Изменения происходят раз в пару месяцев. Не всегда они отражаются на всей выдаче. На какие-то тематики они влияют больше, чем на другие, а кто-то вообще не замечает изменений.

ответить
image description
Яшков Александр 26.12.2023 12:56:49
0

А про историю развития алгоритмов гугла у вас статья есть? Тоже интересно было бы почитать

ответить
Soldi Marketing 28.12.2023 14:55:26
0

Такого же экскурса в историю алгоритмов Google, к сожалению, пока нет. Но есть статья про фильтры и санкции, которые действуют в Google. Ссылка на неё есть в последнем предложении этой статьи.

ответить
image description
Бузаев Айдар 26.12.2023 12:56:56
0

Забавно, что в 2007 году об изменениях алгоритмов просто написали на форуме, а сейчас Яндекс устраивает из своих обновлений целое шоу. Привлекает блогеров, закупает рекламу, организует мероприятия и тд. Например, помню такое с Y1.

ответить
Soldi Marketing 29.12.2023 15:17:37
0

Ну да, время идёт, бюджеты на маркетинг у компании растут)

ответить
* Все коментарии проходят модерацию, оставляя коментарий вы соглашаетесь с правилами нашего сайта. Коментарии публикуются в течении 1 часа