Алгоритмы поисковых систем — это совокупности формул, по которым Яндекс или Google определяют, какие сайты и в каком порядке отображать пользователю в результатах поиска. Они анализируют сотни факторов: от технического состояния сайта до поведенческих метрик, чтобы результат в максимальной степени удовлетворил запрос пользователя.
На заметку: алгоритмы не статичны — они регулярно обновляются, подстраиваясь под новые потребности пользователей и методы продвижения.
Чтобы понять, как работают поисковые алгоритмы, стоит разобрать три ключевых этапа:
Сканирование (краулинг) — это процесс, при котором поисковые роботы (краулеры) переходят по ссылкам на страницах сайтов, изучая их содержимое (HTML-код, мета-теги, текст, изображения и пр.) с целью дальнейшей индексации.
Индексация — этап, на котором поисковая система анализирует собранную со страниц сайта информацию и заносит её в свою базу данных (индекс).
Ранжирование — это процесс, при котором поисковая система определяет порядок отображения проиндексированных страниц в результатах поиска по конкретному запросу. Система оценивает релевантность каждой страницы с учётом множества факторов (качество контента, авторитетность сайта, поведение пользователей и др.) и выстраивает их в той последовательности, которая, по её мнению, наилучшим образом отвечает на запрос.
На каждом из перечисленных этапов алгоритмы играют определенную роль. Например, на этапе сканирования они управляют тем, какие страницы сканировать в первую очередь, с какой частотой и в каком объёме. На этапе индексирования они определяют, что из просканированного стоит добавить в базу, а что — проигнорировать. Но на этапе ранжирования роль поисковых алгоритмов максимально велика: они определяют, какие страницы и в каком порядке отобразить в выдаче по конкретному запросу.
АГС — создан для борьбы с низкокачественными ресурсами, которые используются преимущественно для размещения SEO-ссылок.
Королев — работает над улучшением понимания длинных и сложных запросов.
YATI — алгоритм на базе нейросетей, анализирующий смысловую релевантность.
PageRank — оценивает авторитетность страниц по количеству и качеству ссылок.
RankBrain — помогает понять смысл поискового запроса, даже если он формулируется нестандартно, не содержит ключевых слов или ранее не встречался в системе.
BERT — помогает Google точнее понимать смысл поисковых запросов, особенно тех, где важен контекст.
Апдейт — это обновление логики работы алгоритма. Он может быть локальным (затрагивающим некоторые из критериев оценки качества сайта), так и глобальным (перестраивающим всю систему оценки).
Зачем нужны апдейты:
для борьбы с попытками манипулировать выдачей;
для повышения качества выдачи;
для учета новых особенностей поведения пользователей и технологий (например, голосовой поиск).
Чем может быть чреват апдейт для владельца сайта:
потерей позиций, если сайт не соответствует новым требованиям. В таком случае требуется пересмотр SEO-стратегии.
ростом позиций, если сайт соответствует обновленным критериям оценки.
Примеры громких апдейтов:
Google Panda — был запущен в феврале 2011 года. Его основной целью была борьба с низкокачественным контентом.
Google Penguin — был запущен в апреле 2012 года, наказывал за неестественные ссылки.
Яндекс Минусинск — был запущен в апреле 2015 года и стал первым фильтром Яндекса, направленным на борьбу с покупными ссылками.
Яндекс Баден-Баден — был запущен в марте 2017 года для борьбы с переоптимизированными текстами с избыточным использованием поисковых фраз.
Где отслеживать апдейты:
Google Search Status Dashboard — панель мониторинга Google Поиска;
Search Engine Journal и Search Engine Roundtable — англоязычные аналитические блоги, посвященные SEO и публикующие аналитику по апдейтам Google.