Файл /llms.txt
для людей и моделей
Открытый стандарт, который помогает языковым моделям правильно понимать ваш сайт: чистый Markdown, ссылки на документацию, никакой рекламы и JavaScript‑мусора. Как robots.txt, но для ИИ.
Модели умные. Сайты — нет.
Когда ChatGPT, Claude, YandexGPT или GigaChat пытаются прочитать обычную веб‑страницу, они тонут в навигации, виджетах и рекламе. Контекстное окно быстро кончается, а полезного — пара абзацев.
Краткость
Вместо 50 тысяч токенов HTML — чистый Markdown с самым важным. Модель читает быстро и не теряет фокус.
Точность
Вы сами выбираете, что попадёт в файл: документацию, API, условия, FAQ. Модель не придумает лишнего.
Свежесть
Когда агент, IDE‑плагин или RAG‑pipeline приходит на сайт по запросу пользователя, он видит актуальную структуру и ссылки без парсинга тяжёлого HTML.
Контроль
Показываете ИИ именно то, что хотите. Никаких неожиданных ответов про устаревшие разделы сайта.
Одна страница Markdown. Всё.
Спецификация специально минимальная: человек прочитает за минуту, парсер напишется за десять строк.
-
#
Заголовок H1 — название проекта
Единственный обязательный элемент. Одна строка, человеческим языком.
-
>
Цитата — краткая суть
1–2 предложения о том, что это за проект. Задаёт контекст для всего остального.
-
¶
Абзацы и списки — детали
Важные уточнения, ограничения, совместимость. Никаких заголовков на этом уровне.
-
##
Секции H2 со списками ссылок
Группы ссылок: «Документация», «Примеры», «API». Каждая ссылка — с коротким описанием.
-
⊘
Секция «Optional» — можно пропустить
Если секция называется
## Optional— её можно отбросить при нехватке контекста.
# Название проекта
> Краткое описание в одно предложение
Важные детали, которые нужно знать.
## Документация
- [Быстрый старт](start.md): обзор
- [API](api.md): справочник
## Примеры
- [CRUD](crud.py)
## Optional
- [Изменения](changes.md)
Не путайте с robots.txt и sitemap.xml
Все три файла лежат в корне сайта, все три — для машин. Но делают они совсем разное.
Работает с тем, чем вы уже пользуетесь
Плагины, CLI‑утилиты, библиотеки — для большинства популярных систем уже есть готовые решения.
llms_txt2ctx
CLI и Python‑модуль: парсит файл и разворачивает его в контекст для LLM.
vitepress-plugin-llms
Плагин для VitePress — собирает llms.txt автоматически из вашей документации.
docusaurus-plugin-llms
То же для Docusaurus. Ставится одной командой, работает из коробки.
llms-txt-php
Библиотека для PHP: читает и пишет файлы спецификации.
VS Code PagePilot
Чат‑участник в VS Code: подгружает внешний контекст из llms.txt.
Коротко о главном
А это точно читают модели?
Сам файл — открытое предложение сообщества (proposal). На него уже опираются некоторые инструменты для разработчиков — IDE‑плагины, агентные фреймворки и RAG‑pipeline. Главная идея — inference, то есть момент, когда пользователь задал вопрос и агент пошёл смотреть ваш сайт.
Большие LLM не читают его автоматически при обучении — это остаётся задачей инфраструктуры вокруг модели, а не самого формата.
Чем отличается от robots.txt?
robots.txt говорит ботам, куда можно ходить. llms.txt говорит моделям, что почитать в первую очередь. Они не конфликтуют и не заменяют друг друга.
Нужно ли делать .md‑версии страниц?
Желательно. В спецификации предлагается: для каждой полезной HTML‑страницы отдавать Markdown‑версию по тому же URL с добавленным .md. Тогда модели получат чистый текст без JavaScript‑рендеринга.
Где хранить файл?
В корне домена: https://example.ru/llms.txt. Для документации можно также в подпути: /docs/llms.txt.
Можно ли писать на русском?
Конечно. Markdown — юникодный формат, модели одинаково хорошо читают и русский, и английский. Но если ваш продукт международный — лучше делать два файла: /llms.txt и /en/llms.txt.
Как это повлияет на SEO?
Никак напрямую. Это не поисковый файл. Но если вас упоминают в ответах ассистентов (Answer Engine Optimization) — хорошо составленный llms.txt может улучшить точность цитирования.