К содержимому

Глоссарий

llms.txt

llms.txt — текстовый манифест (часто /llms.txt) со списком важных URL для нейросетевых краулеров: дополнение к robots.txt в рамках GEO.
  • Короткая «карта сайта для ИИ»: что читать в первую очередь, что шум.

  • Работает вместе с правилами для GPTBot, PerplexityBot, ClaudeBot — см. GEO.

Определение

llms.txt — соглашение о текстовом файле в корне сайта, где команда перечисляет канонические разделы, которые владелец бренда хочет отдавать языковым моделям как приоритетные источники. Это не замена robots.txt и не юридический договор, но снижает хаос: в файле обычно отделяют маркетинговые лендинги от юридического «шума», указывают прайсинг, безопасность, FAQ.

Пример фрагмента

# Для нейросетевых краулеров
- https://example.com/product
- https://example.com/pricing
- https://example.com/security

Так вы явно говорите: «берите в первую очередь эти страницы», а не случайный блог десятилетней давности.

Как считается

Единого стандарта нет — разные разработчики читают файл по-своему. Обычно это Markdown или обычный текст с заголовками и списком ссылок. Роботы, которые учитывают llms.txt, могут чаще запрашивать перечисленные страницы или сильнее учитывать их при подборе фрагментов для ответа.

Как это работает на практике

Что сделать на практике

  • Держите файл коротким и актуальным: продукт, цены, безопасность, интеграции, FAQ.
  • Обновляйте даты, когда меняются факты — свежие URL проще отличить от архива.
  • Добавьте Schema.org на ключевые страницы, чтобы ответы опирались и на структуру.

Как читать показатель

Если модели всё равно «не видят» бренд, чаще виноваты жёсткий Disallow в robots.txt, авторизация или пустой контент — llms.txt не пробьёт блокировку.

Когда использовать

  • После GEO-аудита, когда структура сайта запутана.
  • Когда маркетингу нужен один явный манифест без правок nginx.
  • Перед миграцией домена или CMS.