Расширенный формат · Дополнение к llms.txt

Один файл — весь сайт.

llms-full.txt — это полный дамп документации в одном Markdown‑файле. Языковая модель получает весь контекст сразу, без похода по ссылкам.

30+ KBТипичный размер
11 MBРекорд: Cloudflare
1 файлОдна загрузка вместо десятков переходов
llms.txt4 KB
# Perplexity API
> API для поиска с цитатами…
## Docs
- Guides: getting started
- API Reference: chat
- Models: sonar, sonar-pro
## Optional
- Changelog: releases
llms-full.txt177 KB · 42K токенов
# Perplexity API — Complete
> Полная документация…
## Getting Started
Create an API key at…
curl -X POST https://api.perplexity.ai/…
## Chat Completions
POST /chat/completions
Parameters: model, messages, temperature…
## Models
sonar: длинный контекст, тарификация по токенам…
## Rate Limits
Free tier: 5 RPM…
## Errors
400 Bad Request — malformed…
## Webhooks
Формат

Два файла — две задачи

Оба формата дополняют друг друга. llms.txt — карта сайта для быстрой навигации. llms-full.txt — весь текст для моделей с длинным контекстом.

/llms.txt

Лёгкая карта

~1–50 KB · десятки ссылок

Структурированный список Markdown‑страниц с краткими описаниями. Агент выбирает нужную страницу и подгружает её отдельно.

  • Быстро парсится и мало токенов
  • Работает с моделями любого размера
  • Хорош для навигации и поиска
  • Строгая структура — H1, blockquote, H2, списки
/llms-full.txt

Полный дамп

~30 KB — 11 MB · всё содержимое

Вся документация склеена в один Markdown. Одна загрузка — и у модели весь контекст продукта без дополнительных запросов.

  • Не нужен агент с tool calling
  • Работает offline — просто copy & paste
  • Удобно для моделей и агентов с длинным контекстом
  • Нет навигации — только сплошной текст
Когда использовать

4 сценария для llms-full.txt

01
«Спроси документацию» в Claude

Пользователь кидает URL вашего llms-full.txt в чат — и получает эксперта по вашему продукту без RAG, векторов и инфраструктуры.

02
Cursor, Windsurf, VS Code

AI‑редакторы подгружают файл как контекст проекта. Автодополнение и рефакторинг начинают понимать ваше API без дообучения.

03
Fine‑tuning и распределённая дистилляция

Один чистый Markdown — готовый датасет для обучения. Не нужно скрейпить сайт и чистить HTML от навигации и рекламы.

04
Офлайн‑ассистент

Сохранил файл локально — можно работать в самолёте, в изолированной сети, на воздушном зазоре. Весь продукт — в одном .md.

Каталог · Обновлено 20.04.2026

Крупные компании с llms-full.txt

Прямые ссылки на продакшн‑файлы. Жёлтая обводка — это llms-full.txt, серая — обычный llms.txt. Все ссылки открывают настоящие файлы.

Компания
Категория
/llms.txt
/llms-full.txt
Anthropic
anthropic.com · docs.anthropic.com
AI · LLM
Cloudflare
developers.cloudflare.com · + отдельные по продуктам
Инфра
Vercel / AI SDK
ai-sdk.dev · sdk.vercel.ai
AI · SDK
Stripe
docs.stripe.com
Финтех
Zapier
docs.zapier.com
SaaS
Supabase
supabase.com · отдельные файлы по клиентам
Инфра · БД
ElevenLabs
elevenlabs.io/docs
AI · голос
Fern
buildwithfern.com
Docs platform
Rubric
rubric.com
AI · eval
Mintlify
mintlify.com
Docs platform
ZenML
zenml.io
MLOps
Perplexity
docs.perplexity.ai
AI · поиск
Смотреть весь каталог — 60+ компаний →
Внедрение

Как сделать свой llms-full.txt

Три подхода — от ручного до полностью автоматического. Выберите, что подходит вашей команде.

Подход 01 · ручной
Слить Markdown-файлы документации

Если у вас Docusaurus, VitePress, MkDocs — просто склейте все исходные .md в один файл.

cat docs/**/*.md > public/llms-full.txt
Подход 02 · плагин
Плагин для платформы документации

Mintlify, Fern, ReadMe и Docusaurus 3 уже умеют собирать llms-full.txt автоматически при билде.

# mintlify.json
{ "llmsTxt": { "full": true } }
Подход 03 · скрейпер
Собрать с HTML-сайта

Если документация — это живые HTML‑страницы, используйте firecrawl или readability для превращения в чистый Markdown.

npx firecrawl crawl \
  https://your-site.ru/docs \
  --output llms-full.txt \
  --format markdown
Подводные камни

О чём стоит подумать

Размер = деньги

Файл на 11MB — это миллионы токенов. Если пользователь кладёт всё в контекст — платит он или провайдер. Думайте о балансе детализации.

Пропуск навигации

Модели с коротким контекстом (GPT‑3.5, локальные LLM) не прочтут большой файл. Всегда публикуйте llms.txt тоже — как запасной вариант.

Кэш и CDN

Мегабайтный статический файл нужно отдавать с CDN и корректным Cache-Control. Иначе каждая загрузка агентом будет бить по серверу.

Готовы добавить llms-full.txt?

Начните с обычного llms.txt в нашем генераторе — и расширяйте дальше.

Настройки внешнего вида