Każda strona internetowa jest odwiedzana przez dwa rodzaje automatycznych systemów. Pierwsze to klasyczne crawlery wyszukiwarek — Googlebot, Bingbot — które indeksują treść żeby wyszukiwarka mogła odpowiadać na zapytania. Drugie to AI crawlery — nowa kategoria botów która zbiera treść nie dla wyszukiwarki, ale dla modeli językowych.
Różnica między nimi jest fundamentalna i ma konsekwencje dla każdego właściciela strony.
Czym jest AI crawler i co go odróżnia od klasycznego bota
AI crawler to zautomatyzowany bot który odwiedza strony internetowe w celu zbierania danych treningowych lub wiedzy dla modeli AI. Różni się od klasycznego bota SEO pod kilkoma istotnymi względami.
Intencja jest inna. Googlebot indeksuje żeby użytkownik mógł znaleźć stronę w wyszukiwarce — właściciel strony na tym korzysta. AI crawler zbiera treść żeby wzbogacić model — wartość zwrotna dla właściciela jest dyskusyjna lub żadna, szczególnie gdy treść jest płatna lub stanowi główną wartość serwisu.
Częstotliwość i zachowanie są inne. Klasyczny crawler odwiedza stronę regularnie żeby aktualizować indeks. AI crawlery trenujące modele mogą odwiedzić stronę intensywnie jednorazowo, zebrać wszystko co jest dostępne i zniknąć. AI crawlery pracujące na potrzeby wnioskowania w czasie rzeczywistym (RAG) mogą odpytywać stronę przy każdym zapytaniu użytkownika.
Respektowanie robots.txt jest różne. GPTBot i ClaudeBot oficjalnie deklarują respektowanie robots.txt. Ale jak pokazuje kazus Amazon vs Perplexity — agent Comet zmienił identyfikację żeby ominąć blokady. robots.txt to konwencja, nie ściana.
Mapa AI crawlerów w 2026
Znane user-agenty które możesz zobaczyć w logach serwera i adresować w robots.txt:
OpenAI — GPTBot (crawlowanie treningowe), OAI-SearchBot (wnioskowanie w czasie rzeczywistym dla ChatGPT). Dwa osobne boty z osobnymi politykami.
Anthropic — ClaudeBot (crawlowanie treningowe i wnioskowanie).
Google — Googlebot (klasyczne SEO), Google-Extended (osobny bot wyłącznie dla produktów AI — możesz zablokować Extended nie blokując Googlebot).
Perplexity — PerplexityBot. Znany z kontrowersyjnego zachowania w sprawie z Amazonem.
Meta — FacebookBot, meta-externalagent.
Amazon — Amazonbot.
ByteDance/TikTok — Bytespider.
Cohere — cohere-ai.
Common Crawl — CCBot. Zbiera dane dla ogólnodostępnego datasetu który jest szeroko używany do trenowania modeli open source.
To nie jest pełna lista — ekosystem crawlerów AI rośnie szybciej niż ktokolwiek jest w stanie go śledzić.
Dwa typy AI crawlerów — ważna distinkcja
Nie wszystkie AI crawlery robią to samo. Warto rozróżnić dwie fundamentalnie różne kategorie.
Crawlery treningowe zbierają dane żeby wzbogacić model podczas trenowania. Wizyta jest jednorazowa lub rzadka, objętość może być duża, wartość zwrotna dla właściciela strony jest niejasna. To właśnie przeciwko tym crawlerom Medium, Reuters i New York Times wdrożyły blokady w robots.txt.
Crawlery wnioskowania (inference crawlers) odwiedzają stronę w czasie rzeczywistym gdy użytkownik zadaje pytanie modelowi. Perplexity odpytuje strony na bieżąco żeby udzielić aktualnej odpowiedzi. To jest inny model — strona jest odwiedzana bo użytkownik jest zainteresowany jej treścią, ale ruch nie przechodzi przez tradycyjną wyszukiwarkę.
Ta distinkcja ma znaczenie dla polityki którą chcesz stosować. Blokowanie crawlerów treningowych może mieć sens jeśli chronisz wartość swojej treści. Blokowanie crawlerów wnioskowania może oznaczać że tracisz widoczność w odpowiedziach AI które użytkownicy już teraz dostają zamiast klikać w wyniki wyszukiwania.
Jak rozpoznać AI crawler w logach serwera
Jak opisuje artykuł Rozpoznać ruch agentowy na webflux.pl, większość polskich stron nie ma pojęcia ile AI crawlerów u nich jest — nie dlatego że brakuje narzędzi, ale dlatego że nikt nie włączył tej warstwy monitoringu.
Trzy miejsca gdzie szukać:
Logi serwera WWW — najbardziej kompletne źródło. Każdy rekord access log zawiera user-agent. Możesz filtrować po znanych stringach:
grep -i "gptbot\|claudebot\|perplexitybot\|google-extended\|amazonbot\|bytespider" access.log | wc -l
Cloudflare Analytics — jeśli używasz Cloudflare, masz w panelu zakładkę „Bots” która klasyfikuje ruch automatyczny. AI crawlery pojawiają się tam jako „Verified Bots” z nazwami dostawców.
Yoast / RankMath — some crawlers pobierają sitemap i robots.txt przed crawlowaniem — to pojawia się w logach jako wejście na /sitemap_index.xml i /robots.txt bez wcześniejszej historii sesji.
Wzorzec zachowania który wyróżnia AI crawlera
Klasyczny bot wyszukiwarki ma wzorzec który dobrze znamy — regularne wizyty, podążanie za linkami wewnętrznymi, powolne budowanie mapy strony. AI crawlery często zachowują się inaczej:
Pobierają dużo zasobów w krótkim czasie — jakby „ściągały” całą stronę naraz. Nie generują sesji z wieloma pageviews — jedno żądanie, jedna strona, koniec. Odwiedzają strony o wysokiej gęstości treści zamiast stron kategorii i nawigacji. Nie klikają w linki wewnętrzne w sensie tradycyjnym — raczej pobierają znane URL-e z sitemapy.
To są wskazówki, nie reguły — zachowanie się zmienia i różni między dostawcami.
Co zrobić z tą wiedzą
Gdy już wiesz które AI crawlery odwiedzają Twoją stronę i jak się zachowują — masz trzy opcje strategiczne.
Otwórz i ułatw dostęp — jeśli zależy Ci na widoczności w odpowiedziach AI. Upewnij się że robots.txt nie blokuje crawlerów których chcesz wpuścić, dodaj llms.txt który wskaże najważniejsze treści, rozważ Markdown for Agents żeby zredukować koszt crawlowania.
Różnicuj politykę — wpuść crawlery wnioskowania (widoczność w AI), zablokuj crawlery treningowe (ochrona wartości treści). W robots.txt adresujesz konkretne user-agenty osobno.
Zablokuj i monitoruj — jeśli treść jest Twoim głównym aktywem i nie widzisz wartości w byciu indeksowanym przez AI. Pamiętaj że blokady działają tylko wobec tych którzy je respektują.
Jak pisałem przy haśle robots.txt — brak świadomej decyzji to też decyzja. I zazwyczaj najgorsza.
Pojęcia powiązane w słowniku: robots.txt (agenci), llms.txt, Markdown for Agents, Tożsamość agenta, Agent fingerprinting, Filar 3 — odkrywalność, Filar 6 — governance
Powiązane artykuły na webflux.pl: Rozpoznać ruch agentowy — praktyka filaru szóstego, Sygnały dla agentów — filar trzeci, Klient, pasożyt, złodziej