Как подготовить сайт к масштабному апдейту поисковой системы
Для начала давайте разберемся с тем, как поисковые системы ранжируют сайты. Поисковые роботы, или «пауки», краулеры, ходят по страницам сайтов и сканируют их. Они постоянно находят новые ресурсы и добавляют их в базу поисковых систем (индекс). Туда попадают не все. Роботы выбирают 10, 20 или 100 лучших сайтов и расставляют их в определенном порядке на основании факторов ранжирования для каждой страницы.
Точное количество факторов ранжирования неизвестно. Опытные сеошники говорят, что их около 1 тыс. При этом поисковики активно используют машинное обучение. То есть роботы сами учатся отличать «хорошие» сайты от некачественных. Вот некоторые из факторов, на которые обращают внимание роботы при оценке сайта:
- домен — история и репутация, есть ли ключевые слова в названии и проч.;
- региональная привязка — настройка региона, к которому относится сайт, — это особенно важно для «Яндекса»;
- технические характеристики — наличие дублей страниц, ошибки в robots.txt, ошибки 404 и проч.;
- контент — количество и качество текстов и страниц, соответствие страницы запросу;
- ссылки — количество и качество внешних ссылок на сайт, внутренняя перелинковка;
- поведение пользователей — показатель отказов, количество просмотренных страниц, длительность сессии;
- коммерческие факторы — работает ли кнопка «Купить», как часто пользователи доходят до покупки.
Поисковый робот оценивает все эти и еще несколько сотен факторов по сложной формуле — алгоритму. Его цель — выдать пользователю страницу с информацией, максимально соответствующей его запросу.