llms-full.txt

Rozszerzona wersja pliku llms.txt zawierająca pełną treść strony w formacie przyjaznym dla modeli językowych — dla agentów które potrzebują kompletnego kontekstu.

W Polsce nazywane też:

rozszerzony llms.txtpełny llms txt

llms-full.txt — pełna treść strony jako kontekst dla agentów

Jeśli llms.txt to mapa, to llms-full.txt jest terytorium.

Podstawowa wersja pliku — ta którą większość artykułów opisuje jako „wystarczającą” — zawiera nagłówek, krótki opis strony i listę linków do najważniejszych podstron. Działa jak spis treści: agent wie co istnieje, ale po szczegóły musi wrócić na stronę, wykonać kolejne zapytanie, przetworzyć HTML, odfiltrować nawigację, reklamy i JavaScript. W świecie gdzie każde zapytanie kosztuje tokeny i czas, to jest narzut który szybko staje się problemem.

llms-full.txt rozwiązuje ten problem brutalnie prosto. Zamiast mapy — dostarcza całą zawartość. Zamiast linków do treści — dostarcza same treści. Agent pobiera jeden plik, ładuje go do kontekstu i ma wszystko co mu potrzebne do odpowiedzi na pytania o stronę, bez dalszych zapytań.

Skąd pochodzi i co to właściwie jest

Standard llms.txt zaproponował Jeremy Howard z Fast.ai w 2024 roku. Idea była prosta: dać modelom językowym plik w formacie Markdown który opisuje stronę w sposób dla nich strawny — bez tagów HTML, bez JavaScriptu, bez elementów które są czytelne dla człowieka ale bezużyteczne dla modelu.

llms-full.txt pojawił się jako naturalne rozszerzenie tej koncepcji. Jeśli llms.txt to odpowiedź na pytanie „co masz na stronie” — llms-full.txt jest odpowiedzią na pytanie „pokaż mi wszystko”. Plik zawiera pełną treść strony — wszystkich artykułów, wszystkich podstron, całą dokumentację — w jednym dokumencie Markdown.

Specyfikacja na llmstxt.org opisuje oba pliki jako uzupełniające się nawzajem. llms.txt jako punkt wejścia, llms-full.txt jako pełny kontekst dla agentów które potrzebują głębokiej wiedzy o stronie. W praktyce wiele serwisów wdraża tylko jeden z nich — wybór zależy od tego, jakiego rodzaju agentów chcesz obsługiwać.

Dlaczego pełna treść ma znaczenie — problem okna kontekstu

Żeby zrozumieć po co llms-full.txt w ogóle istnieje, trzeba zrozumieć jak działa okno kontekstu modelu językowego.

Agent AI nie czyta strony tak jak człowiek — nie scrolluje, nie klika, nie wraca do poprzednich zakładek. Wczytuje treść do swojego okna kontekstu i odpowiada na jej podstawie. To okno ma ograniczony rozmiar — mierzony w tokenach, nie słowach. Jeden token to mniej więcej trzy czwarte angielskiego słowa. Typowy artykuł ma kilka tysięcy tokenów. Duży serwis z setkami artykułów — miliony.

Gdy agent musi odpowiedzieć na pytanie o stronę i nie ma llms-full.txt, musi wielokrotnie odpytywać serwer: pobierz stronę główną, pobierz artykuł, pobierz kolejny artykuł, poskładaj kontekst z kawałków. Każde zapytanie to opóźnienie, zużycie tokenów na przetwarzanie HTML, ryzyko że agent coś przeoczy albo straci wątek między zapytaniami.

llms-full.txt eliminuje tę pętlę. Jeden plik, jedno zapytanie, pełny kontekst. Dla agentów które muszą odpowiedzieć na złożone pytania wymagające syntezy wielu treści — to jest różnica między odpowiedzią dobrą a odpowiedzią trafną.

Cloudflare wprowadzając Markdown for Agents zaobserwowało że serwowanie treści w czystym Markdown zamiast HTML redukuje zużycie tokenów nawet o 80%. llms-full.txt działa na tej samej zasadzie — ale idzie o krok dalej, agregując treści zanim agent w ogóle zacznie pytać.

Różnica między llms.txt a llms-full.txt w praktyce

Wyobraź sobie że jesteś agentem który ma odpowiedzieć na pytanie: „Jakie są wszystkie pojęcia związane z bezpieczeństwem agentów AI opisane na tej stronie?”

Z llms.txt dostajesz listę linków. Musisz pobrać każdy z nich, przetworzyć HTML, wyciągnąć treść, poskładać odpowiedź. Jeśli strona ma dwadzieścia artykułów o bezpieczeństwie — to dwadzieścia osobnych zapytań.

Z llms-full.txt dostajesz cały serwis w jednym pliku Markdown. Przeglądasz go lokalnie, znajdujesz wszystkie wzmianki o bezpieczeństwie agentów, sygnalizujesz odpowiedź. Jedno zapytanie.

Ta różnica jest szczególnie widoczna przy dwóch typach agentów:

Agenty badawcze — te które mają za zadanie dogłębnie przeanalizować temat, porównać podejścia, zsyntetyzować wiedzę z wielu źródeł. Dla nich llms-full.txt to jak dostęp do pełnej biblioteki zamiast tylko katalogu.

Agenty RAG — Retrieval-Augmented Generation, czyli systemy które wzbogacają odpowiedzi modelu o dane pobierane w czasie rzeczywistym. llms-full.txt może być bezpośrednio indeksowany przez taki system jako źródło wiedzy o stronie. Zamiast crawlować każdy artykuł osobno — indeksują jeden plik.

Kto powinien mieć llms-full.txt

Nie każda strona potrzebuje llms-full.txt. Podstawowa wersja llms.txt wystarcza gdy strona jest duża, zawartość jest dynamiczna i zmienia się codziennie, albo gdy większość ruchu agentowego to proste zapytania o to co strona oferuje.

llms-full.txt ma sens przede wszystkim dla:

Serwisów dokumentacyjnych — Cloudflare, Stripe, Anthropic, FastHTML — to pierwsze strony które wdrożyły llms-full.txt produkcyjnie. Developer który pyta agenta o API nie chce żeby agent przeszukiwał sto podstron dokumentacji. Chce żeby agent wiedział wszystko z jednego źródła.

Serwisów z treściami specjalistycznymi — portal o cyberbezpieczeństwie, słownik pojęć agentic web, serwis analityczny. Treści które wymagają syntezy i kontekstu, nie prostej nawigacji.

Słowników i baz wiedzy — takich jak ten słownik. Agent który odpowiada na pytanie o pojęcie potrzebuje nie tylko definicji, ale kontekstu — powiązanych pojęć, przykładów, relacji. llms-full.txt ze słownikiem to gotowa baza wiedzy dla agentów.

Stron z ograniczoną liczbą podstron — im mniejsza strona, tym tańszy koszt utrzymania llms-full.txt i większa proporcjonalna korzyść z posiadania pełnego kontekstu w jednym miejscu.

Jak to działa technicznie i jak wdrożyć

Plik umieszcza się w katalogu głównym domeny pod adresem /llms-full.txt — dokładnie tak samo jak llms.txt. Format to czysty Markdown. Typowa struktura:

# Nazwa serwisu
> Opis serwisu — czym jest i dla kogo

## Artykuł: Tytuł pierwszego artykułu
URL: https://example.com/artykul-1
Data: 2026-04-01

Pełna treść artykułu w Markdown...

## Artykuł: Tytuł drugiego artykułu
URL: https://example.com/artykul-2
Data: 2026-04-15

Pełna treść artykułu w Markdown...

Każda sekcja zawiera nagłówek z tytułem, metadane (URL, data publikacji, ewentualnie autor i tagi) i pełną treść. Bez HTMLa, bez nawigacji, bez sidebara.

Na WordPressie nie trzeba tego robić ręcznie. Dostępne są pluginy które generują i aktualizują llms-full.txt automatycznie — między innymi plugin „LLMs.txt and LLMs-Full.txt Generator” dostępny w repozytorium WordPress.org. Obsługuje wybór typów postów, wykluczanie konkretnych URL-i, integrację z Yoast SEO i Rank Math (respektuje ustawienia noindex), a plik jest regenerowany automatycznie przy aktualizacji treści.

Jedno zastrzeżenie: llms-full.txt może być duży. Serwis z setkami artykułów wygeneruje plik liczący kilka megabajtów. Warto monitorować rozmiar i rozważyć czy nie lepiej podzielić treści na kilka plików tematycznych — np. /llms-full-seo.txtdla treści o SEO, /llms-full-agenci.txt dla treści o agentach. Specyfikacja na to pozwala, choć nie narzuca konkretnego schematu.

Stan adopcji i realne pytanie o skuteczność

Tu trzeba być uczciwy. Żaden z głównych dostawców modeli — OpenAI, Google, Anthropic — nie potwierdził oficjalnie że czyta llms-full.txt. Logi serwerów pokazują że GPTBot czasem pobiera llms.txt, ale „czasem” to nie „zawsze” i nie „systematycznie”. Badanie SE Ranking na 300 tysiącach domen nie wykazało mierzalnego wpływu na częstość cytowania przez modele.

To nie jest jednak argument żeby nie wdrażać. Z trzech powodów.

Po pierwsze — agent-readiness to nie tylko kwestia tego co robią modele dziś. To przygotowanie na to co będą robić za rok. WebMCP i standardy które się właśnie kształtują zakładają że strony będą wystawiać ustrukturyzowane punkty wejścia dla agentów. llms-full.txt jest jednym z najprostszych takich punktów.

Po drugie — agenty które działają dziś produkcyjnie — wyszukiwarki agentowe, systemy RAG, asystenci kodowania — aktywnie szukają ustrukturyzowanych źródeł wiedzy. Dla nich llms-full.txt to gotowe źródło do zindeksowania.

Po trzecie — koszt wdrożenia jest niski. Plugin na WordPressie, kilkanaście minut konfiguracji, automatyczna aktualizacja. Przy takim stosunku nakładu do potencjalnej korzyści — brak wdrożenia jest trudny do uzasadnienia.

Czym nie jest llms-full.txt

Nie jest plikiem robots.txt dla AI — nie kontroluje dostępu, nie blokuje botów. Jeśli chcesz kontrolować kto crawluje stronę, to jest rola robots.txt z odpowiednimi user-agentami. llms-full.txt jest zaproszeniem, nie bramką.

Nie jest też gwarancją cytowania. Model który przetworzy llms-full.txt może nadal odpowiedzieć na pytanie inaczej niż byś chciał, pominąć treści które uważasz za kluczowe, albo zinterpretować je przez pryzmat innych źródeł. llms-full.txt zwiększa prawdopodobieństwo że agent ma dostęp do pełnego kontekstu — nie gwarantuje że go użyje.

I nie zastępuje dobrego HTML. Agenty które renderują strony — a takich jest coraz więcej — i tak sięgną po HTML jeśli potrzebują aktualnych danych. llms-full.txt jest uzupełnieniem, nie zamiennikiem.


Pojęcia powiązane w słowniku: llms.txt, Markdown for Agents, Context window, RAG, Agent discovery, WebMCP

Powiązane artykuły: Sześć filarów agent-readiness — praktyczna checklista, Agent-readiness jako mapa