Материал раздела Основной

Как подготовить сайт к масштабному апдейту поисковой системы

SEO — это забег по минным полям. Алгоритмы «Яндекса» и Google засекречены, понять, как один сайт оказался выше другого в выдаче, сложно. Но самое страшное, когда поисковики меняют правила игры. Антон Климов (Rush Agency) — о том, как к этому подготовиться

Для начала давайте разберемся с тем, как поисковые системы ранжируют сайты. Поисковые роботы, или «пауки», краулеры, ходят по страницам сайтов и сканируют их. Они постоянно находят новые ресурсы и добавляют их в базу поисковых систем (индекс). Туда попадают не все. Роботы выбирают 10, 20 или 100 лучших сайтов и расставляют их в определенном порядке на основании факторов ранжирования для каждой страницы.

Точное количество факторов ранжирования неизвестно. Опытные сеошники говорят, что их около 1 тыс. При этом поисковики активно используют машинное обучение. То есть роботы сами учатся отличать «хорошие» сайты от некачественных. Вот некоторые из факторов, на которые обращают внимание роботы при оценке сайта:

  • домен — история и репутация, есть ли ключевые слова в названии и проч.;
  • региональная привязка — настройка региона, к которому относится сайт, — это особенно важно для «Яндекса»;
  • технические характеристики — наличие дублей страниц, ошибки в robots.txt, ошибки 404 и проч.;
  • контент — количество и качество текстов и страниц, соответствие страницы запросу;
  • ссылки — количество и качество внешних ссылок на сайт, внутренняя перелинковка;
  • поведение пользователей — показатель отказов, количество просмотренных страниц, длительность сессии;
  • коммерческие факторы — работает ли кнопка «Купить», как часто пользователи доходят до покупки.

Поисковый робот оценивает все эти и еще несколько сотен факторов по сложной формуле — алгоритму. Его цель — выдать пользователю страницу с информацией, максимально соответствующей его запросу.