Яндекс.Метрика
Москва, Волгоградский пр-т,
43к3, оф. 301
Пишите 24/7, мы онлайн
+7 (495) 128-00-14
последнее обновление: 14.12.2025

Определение: robots.txt — это служебный файл в корне сайта, который подсказывает поисковым роботам, какие разделы можно обходить, а какие лучше не сканировать. Он не “ставит пароль” на страницы, а именно задаёт правила обхода для роботов.

Зачем это нужно

  • Закрывать от обхода технические разделы: админку, служебные папки, параметры фильтров, дубли.
  • Экономить краулинговый бюджет на больших сайтах: робот меньше тратит времени на мусорные URL.
  • Уменьшать риск индексации дублей и “бесконечных” страниц (например, сортировки и комбинации фильтров).
  • Указывать ссылку на sitemap.xml, чтобы поисковикам было проще находить карту сайта.
  • Быстрее диагностировать проблемы индексации: если что-то не индексируется, часто причина в robots.txt.
  • Разделять правила для разных роботов (как правило) через разные блоки User-agent.

Пример

Пример кода:

User-agent: * Disallow: /admin/ Sitemap: https://example.ru/sitemap.xml

Скриншот

Открытый в браузере файл https://example.ru/robots.txt с правилами User-agent, Disallow и строкой Sitemap

Подпись к скриншоту: откройте в браузере файл /robots.txt на вашем домене и покажите строки с правилами и ссылкой на sitemap.xml

Частые ошибки

  • Случайно закрыть весь сайт строкой Disallow: / и забыть убрать после разработки.
  • Путать robots.txt с запретом индексации: он управляет обходом, а не гарантированно запрещает попадание в выдачу.
  • Закрывать важные разделы (каталог, карточки товаров, статьи) и терять трафик из поиска.
  • Оставлять в robots.txt “старые” правила после смены структуры URL.
  • Писать некорректные пути и маски — робот трактует правила не так, как ожидалось.

Связанные термины

Наши услуги