Конструктор robots.txt для HoReCa

Подготовьте robots.txt для сайта ресторана или доставки: откройте меню и основные страницы, закройте служебные и корзину при необходимости. Sitemap — быстрее индексация меню и акций.

Добавить к правилам:

Поисковый бот (User-agent)

Итоговый robots.txt
# Add rules and optionally Sitemap URL above

Практический сценарий

Пример: сайт с меню, бронированием и доставкой. Разрешают индексацию меню и главной, закрывают /cart/, /order/, служебные. Sitemap с основными страницами.

В HoReCa robots.txt направляет краул на меню и контент, а не на корзину и служебные страницы.

Для кого подходит эта версия инструмента

Подходит владельцам HoReCa, SEO-специалистам и разработчикам, которым нужно быстро собрать базовый robots.txt без ручной правки синтаксиса и без риска закрыть важные URL.

Какую проблему она закрывает

Основная задача для HoReCa — не пустить поисковиков в служебные и дублирующие разделы, но оставить открытыми страницы, которые реально должны приносить органический трафик.

Что подготовить перед запуском

  • Список разделов, которые точно должны индексироваться: категории, карточки, статьи, страницы услуг.
  • Список служебных URL и шаблонов дублей: поиск, корзина, фильтры, thank-you, личный кабинет.
  • Актуальный адрес sitemap.xml или sitemap-index.xml, который нужно добавить в итоговый файл.

Типичные ошибки в этой нише

Закрывают в robots.txt важные страницы каталога или услуг вместо служебных URL и дублей.

Путают запрет на сканирование с удалением из индекса и не проверяют, как страницы уже видны поисковику.

Оставляют файл без Sitemap или без проверки итогового синтаксиса после правок.

Как использовать инструмент по шагам

  1. 1

    Сначала перечислите индексируемые разделы и отдельно выпишите всё, что создаёт дубли или не нужно в поиске.

  2. 2

    Добавьте правила Disallow и, если нужно, точечные Allow для исключений вроде ajax или служебных ресурсов.

  3. 3

    Укажите Sitemap и скачайте готовый robots.txt для проверки на staging или в тестовом окружении.

  4. 4

    После публикации проверьте файл в поисковых инструментах и сравните, не перекрыли ли вы нужные URL.

Частые вопросы по этой нише

Нужно ли horeca закрывать всё лишнее через robots.txt?
Да, но только то, что реально не должно сканироваться: служебные страницы, фильтры, внутренний поиск, корзина или тестовые разделы. Полезные страницы лучше оставлять открытыми и усиливать через sitemap и внутреннюю перелинковку.
Достаточно ли одного robots.txt для роста индексации?
Нет. Robots.txt только направляет краулеров. Для роста органики всё равно нужны сильные indexable-страницы, правильный sitemap, внутренняя перелинковка и отсутствие дублей в шаблонах.

Что делать после использования инструмента

Проверьте следующий слой технического SEO

После robots.txt обычно следующим ограничителем роста становится неправильная связка языковых версий или слабая структура контента. Имеет смысл проверить hreflang и остальные технические инструменты кластера.

Открыть раздел технического SEO