2.38. Ограничение частоты индексации
Индексирующие боты выполняют частые запросы к страницам сайта для актуализации информации и сохранения её в своих базах для последующей выдачи в поисковых системах. Работа этих ботов полезна, но слишком высокая частота сканирования может вызывать появление лишней бесполезной нагрузки.
- Авторизуйтесь или зарегистрируйтесь, если у вас ещё нет аккаунта, в Google Search Console.
- Добавьте и подтвердите домен в этой системе, если он не был подтверждён.
- Перейдите на страницу управления настройками частоты сканирования и выберите нужный ресурс:
Яндекс
- Авторизуйтесь или зарегистрируйтесь, если у вас ещё нет аккаунта, в Яндекс.Вебмастер.
- Добавьте и подтвердите домен в этой системе, если он не был подтверждён.
- Выберите нужный сайт и перейдите в раздел «Индексирование → Скорость обхода»:
Bing
- Авторизуйтесь или зарегистрируйтесь, используя социальные сети, в Bing Webmaster.
- Добавьте и подтвердите домен в этой системе, если он не был подтверждён.
Crawl-delay
Внимание!
Некоторые боты могут полностью игнорировать директиву Crawl-delay.Как правило, индексирующие боты придерживаются директив, указанных в robots.txt, где можно задавать интервал индексации. Для этого выполните следующее:
- Создайте или отредактируйте файл, если он уже существует, robots.txt в корневом каталоге сайта.
- В файле robots.txt укажите директиву crawl-delay:
User-Agent: * Disallow: Crawl-delay: 3
Вместо
*
можно указать определённый User-Agent, для которого должна ограничиваться частота индексации. Параметр Crawl-delay задаёт интервал в секундах между запросами от бота.