Poprzedni tekst postawił tezę: drugi czytelnik przestał być jeden.
Ten ją rozłoży.
Bo jeśli piszesz dziś dla „AI” jako jednej kategorii, to tak jakbyś pisał dla „internetu” w 2005 roku — bez rozróżnienia między wyszukiwarką, agregatorem, RSS-readerem i spiderem katalogowym. Wszystkie czytały sieć. Każda robiła z nią coś innego.
Dziś jest podobnie. Tylko szybciej i mniej przejrzyście.
Pięć różnych motywacji czytania tej samej strony
1. Crawlery treningowe — chcą masy i gęstości
To najstarszy typ pośrednika w nowym świecie, ale wciąż najważniejszy strukturalnie.
Common Crawl, CC-News, własne crawlery OpenAI (GPTBot), Anthropic (ClaudeBot), Google (Google-Extended) — wszystkie eksplorują sieć nie po to, żeby odpowiedzieć użytkownikowi, ale żeby zbudować model językowy. Interesuje je wolumen, jakość języka, gęstość znaczenia i unikalność perspektywy.
Dla nich wartościowy jest tekst, który coś twierdzi — nie tekst, który opisuje, że coś istnieje.
Jeśli Twoja strona składa się z ogólników i komodytowych zdań, trafi do zbioru treningowego jako szum. Jeśli ma własne kategorie pojęciowe, własne sformułowania problemów — może trafić jako sygnał.
Paradoks: nigdy się nie dowiesz, czy tak się stało.
2. Wyszukiwarki z warstwą AI — chcą fragmentu do zacytowania
Perplexity, Google AI Overviews, Bing Copilot — to pośrednicy, którzy czytają stronę z konkretnym pytaniem w tle: czy jest tu coś, co mogę wstawić jako źródło odpowiedzi?
Ich logika jest zupełnie inna niż klasycznej wyszukiwarki. Klasyczna wyszukiwarka pytała: czy ta strona jest trafna? Nowa pyta: czy ten fragment jest cytowalny?
To zmienia wszystko w kwestii struktury.
Perplexity szczególnie dobrze radzi sobie z treściami, które mają wyraźnie wyodrębnione twierdzenia — zdania, które można wyjąć z kontekstu i wstawić do odpowiedzi bez utraty sensu. Akapit narracyjny, który nabiera znaczenia dopiero po przeczytaniu poprzedniego, jest dla tego systemu trudny. Zdanie, które samo w sobie niesie kompletną myśl — jest idealne.
To nie znaczy, że trzeba pisać jak encyklopedia. Znaczy, że każdy akapit powinien mieć środek ciężkości.
3. Asystenci z browsowaniem — chcą potwierdzenia lub uzupełnienia
ChatGPT z web searchem, Claude z web searchem, Gemini — te systemy czytają stronę w odpowiedzi na zapytanie użytkownika, który już coś wie lub czegoś szuka.
Ich motywacja jest inna niż Perplexity: nie indeksują świata z wyprzedzeniem, tylko siegają po konkretne strony, gdy model uzna to za potrzebne.
Dla twórcy to oznacza coś ważnego: takie systemy trafiają na stronę rzadziej, ale bardziej intencjonalnie. Jeśli już tam dotrą, szukają jednej z dwóch rzeczy — albo danych (liczby, daty, fakty), albo opinii z autorytetem (ktoś to powiedział, ktoś to ocenił).
Strona bez żadnego z tych elementów zostaje zignorowana jako „zbyt ogólna”. Strona, która ma oba, może zostać użyta jako źródło nawet jeśli jej pozycja w Google jest słaba.
4. Agenci zadaniowi — chcą struktury i możliwych akcji
Operator (OpenAI), Claude computer use, Devin, Manus — to nowa kategoria, która czyta stronę nie po to, żeby wyciągnąć z niej informację, ale żeby na niej coś zrobić.
Dla nich strona jest środowiskiem, nie dokumentem.
Pytają: co tu można kliknąć, wypełnić, zamówić, pobrać? Jakie są role elementów? Czy formularz ma etykiety? Czy nawigacja jest przewidywalna?
To brzmi jak dostępność — i to nie przypadek. Strony zbudowane zgodnie z WCAG są de facto lepiej czytelne dla agentów. Ale agenci idą dalej: interesuje ich też logika zadania. Strona sklepu z ukrytym koszykiem i nieoczywistym checkoutem jest dla agenta nieprzydatna nawet jeśli jest wizualnie piękna.
Ta kategoria pośrednika dopiero się pojawia. Za dwa lata będzie jedną z ważniejszych.
5. Narzędzia syntezy — chcą całości do skompresowania
NotebookLM, różne „chat with PDF/URL” tools, narzędzia do briefingów i podsumowań — czytają stronę jako dokument do strawienia w całości.
Ich logika jest odwrotna do Perplexity: nie szukają jednego zdania do zacytowania, tylko próbują zrozumieć, o czym jest całość i co z tego wynika.
Dla tego typu pośrednika najważniejsza jest spójność i hierarchia. Tekst, który skacze między wątkami bez logicznego przejścia, zostaje podsumowany źle — bo model nie może odtworzyć struktury myśli, której nie ma.
Tekst z wyraźną tezą, podtezami i puentą zostaje podsumowany wiernie — i wtedy narzędzie może go polecić jako źródło, a nie tylko jako materiał roboczy.
Co z tego wynika praktycznie
Każdy z tych pośredników odpowiada na inne pytanie podczas czytania tej samej strony:
| Pośrednik | Pytanie podczas czytania | Co premiuje |
|---|---|---|
| Crawler treningowy | Czy to ma własny sens? | Unikalną perspektywę, własne pojęcia |
| Wyszukiwarka AI | Czy to da się zacytować? | Wyraźne twierdzenia, cytowalne zdania |
| Asystent z browsowaniem | Czy to potwierdza lub uzupełnia? | Dane, opinie z autorytetem |
| Agent zadaniowy | Czy tu da się coś zrobić? | Semantyczną strukturę, jasne akcje |
| Narzędzie syntezy | Czy rozumiem, o co tu chodzi? | Spójność, hierarchię, puentę |
Żaden z nich nie jest „tym samym AI”.
I żaden z nich nie zastąpi czytelnika ludzkiego — ale każdy może zdecydować, czy ten czytelnik w ogóle do Ciebie trafi.
Wniosek, który nie jest pocieszający, ale jest użyteczny
Nie da się zoptymalizować pod wszystkich jednocześnie bez ofiar.
Można jednak pisać tak, żeby nie wykluczać żadnego z tych systemów niepotrzebnie. Własna teza, cytowalne zdania, czytelna hierarchia, konkretne dane tam gdzie są — to nie jest lista wymagań sprzecznych. To jest po prostu dobry tekst.
Problem w tym, że dobry tekst zawsze był trudny do napisania.
AI tylko uwidoczniła, że przez lata wielu twórców dobrze radziło sobie bez niego.

