Конструктор robots.txt для интернет-магазина

Соберите robots.txt под магазин: закройте от индексации корзину, фильтры, служебные и дублирующие URL. Добавьте ссылку на Sitemap. Поисковики не тратят краул на лишние страницы — индексируют карточки и категории.

Добавить к правилам:

Поисковый бот (User-agent)

Итоговый robots.txt
# Add rules and optionally Sitemap URL above

Практический сценарий

Пример: в магазине тысячи URL с фильтрами и сортировкой — они дублируют контент. В конструкторе отмечают Disallow для /cart/, /filter/, /?sort=. Добавляют Sitemap. В индексе остаются только полезные страницы категорий и товаров — лучше бюджет краула и меньше дубли.

Краулинговый бюджет поисковиков ограничен; закрытие корзины, фильтров, поиска и служебных разделов направляет краул на важные страницы. Sitemap помогает быстрее обнаружить новые карточки и категории. Правила для User-agent: * применяются ко всем ботам; при необходимости задают отдельные правила для Yandex и Googlebot.

Для кого подходит эта версия инструмента

Подходит владельцам Интернет-магазина, SEO-специалистам и разработчикам, которым нужно быстро собрать базовый robots.txt без ручной правки синтаксиса и без риска закрыть важные URL.

Какую проблему она закрывает

В интернет-магазинах robots.txt нужен прежде всего для борьбы с фильтрами, сортировкой, корзиной, search-страницами и другими дублями, которые съедают crawl budget быстрее, чем индексируются карточки и категории.

Что подготовить перед запуском

  • Какие шаблоны URL создают дубли: фильтры, сортировка, поиск, корзина, личный кабинет.
  • Какие разделы должны индексироваться в первую очередь: категории, карточки, брендовые страницы.
  • Адрес sitemap с товарами и категориями, чтобы поисковики быстрее нашли коммерческие URL.

Типичные ошибки в этой нише

Закрывают в robots.txt важные страницы каталога или услуг вместо служебных URL и дублей.

Путают запрет на сканирование с удалением из индекса и не проверяют, как страницы уже видны поисковику.

Оставляют файл без Sitemap или без проверки итогового синтаксиса после правок.

Как использовать инструмент по шагам

  1. 1

    Сначала перечислите индексируемые разделы и отдельно выпишите всё, что создаёт дубли или не нужно в поиске.

  2. 2

    Добавьте правила Disallow и, если нужно, точечные Allow для исключений вроде ajax или служебных ресурсов.

  3. 3

    Укажите Sitemap и скачайте готовый robots.txt для проверки на staging или в тестовом окружении.

  4. 4

    После публикации проверьте файл в поисковых инструментах и сравните, не перекрыли ли вы нужные URL.

Частые вопросы по этой нише

Нужно ли интернет-магазина закрывать всё лишнее через robots.txt?
Да, но только то, что реально не должно сканироваться: служебные страницы, фильтры, внутренний поиск, корзина или тестовые разделы. Полезные страницы лучше оставлять открытыми и усиливать через sitemap и внутреннюю перелинковку.
Достаточно ли одного robots.txt для роста индексации?
Нет. Robots.txt только направляет краулеров. Для роста органики всё равно нужны сильные indexable-страницы, правильный sitemap, внутренняя перелинковка и отсутствие дублей в шаблонах.

Что делать после использования инструмента

Уберите проблему дублей до конца

После robots.txt проверьте, как сайт управляет мультиязычностью и индексируемыми вариантами URL. Если есть несколько языков или регионов, следующим шагом должна стать настройка hreflang.

Открыть генератор hreflang