W marcu 2026 roku sklep e-commerce wykrył falę podejrzanych zamówień hurtowych. Śledztwo ujawniło, że agent AI połączony z prawdziwym kontem użytkownika wielokrotnie kupował produkty, których właściciel konta nigdy nie zamierzał nabyć. Konto było zweryfikowane. Token płatniczy był ważny. Nikt nie zweryfikował zakresu uprawnień agenta.

Ten przypadek precyzyjnie definiuje problem, który cała branża agentycznego handlu próbuje rozwiązać: tradycyjna weryfikacja tożsamości człowieka nie wystarcza w świecie, gdzie zakupy wykonują maszyny.

Kiedy kupujący nie jest człowiekiem

Przez trzydzieści lat e-commerce zakładał jedną rzecz: po drugiej stronie transakcji stoi człowiek. Systemy bezpieczeństwa, przepisy KYC, mechanizmy uwierzytelniania — wszystkie zostały zaprojektowane z myślą o ludzkim kupującym, który loguje się, wpisuje dane karty i klika „zapłać”.

Agent AI rozsadza to założenie.

Agent może mieć ważne dane logowania użytkownika. Może mieć autoryzowany token płatniczy. Może przejść tradycyjne testy KYC. Ale nadal może wykonać działanie, którego człowiek nigdy świadomie nie autoryzował — bo zinterpretował instrukcje zbyt szeroko, bo popełnił błąd w rozumowaniu, bo ktoś przejął kontrolę nad sesją agenta.

Badanie Sailpoint z 2026 roku pokazało, że 80% specjalistów IT było świadkami agentów AI działających poza oczekiwanym zakresem lub wykonujących nieautoryzowane działania. Agenci AI już teraz przewyższają liczbą ludzkich użytkowników w stosunku 50 do 1 w przeciętnym środowisku enterprise.

To nie jest problem przyszłości. To jest problem teraźniejszości, który nadal nie ma jednego standardowego rozwiązania.

Ewolucja weryfikacji: od KYC do KYA do „Know Your Human”

Branża finansowa zetknęła się z analogicznym wyzwaniem tożsamości w przeszłości — gdy pieniądze zaczęły przepływać przez granice szybciej niż systemy zaufania mogły za nimi nadążyć. Odpowiedzią był framework KYC (Know Your Customer): zweryfikuj tożsamość klienta zanim pozwolisz mu na transakcję.

Agentyczny handel wymaga nowej warstwy: KYA — Know Your Agent.

KYA to framework weryfikacji, który idzie dalej niż tożsamość człowieka. Potwierdza tożsamość samego agenta jako systemu — skąd pochodzi, kto go stworzył, jaka jest jego wersja, jaki jest jego zakres uprawnień. Potwierdzenie, że agent jest tym, za kogo się podaje, nie jest wystarczające. Potrzebne jest też potwierdzenie, że ma prawo robić to, co robi — i że robi to w imieniu konkretnego, zidentyfikowanego człowieka, który świadomie to autoryzował.

Stąd pojawia się trzecia warstwa, którą PYMNTS i Trulioo opisują jako „Know Your Human” — ciągła weryfikacja, że człowiek nadal kontroluje delegację. Nie tylko że kiedyś ją autoryzował, ale że nadal jest w pętli decyzyjnej w sposób odpowiedni do wagi każdej konkretnej akcji.

KYC potwierdza klienta. KYA potwierdza agenta. Know Your Human sprawdza, że łańcuch między nimi pozostaje integralny przez całą transakcję.

Verifiable Intent — podpis Mastercarda na każdej transakcji

Mastercard jako pierwsza z dużych sieci płatniczych ogłosiła w 2026 roku konkretny produkt odpowiadający na problem tożsamości agentycznej: Verifiable Intent.

Verifiable Intent to kryptograficzna warstwa zaufania, która łączy trzy elementy w jeden, niemożliwy do podrobienia rekord: tożsamość właściciela karty autoryzującego agenta, konkretne instrukcje i parametry zakupu (co, ile, maksymalna kwota, czas), oraz interakcję między agentem a merchantem prowadzącą do transakcji.

Gdy dochodzi do sporu — nieautoryzowany zakup, błąd agenta, kwestionowana kwota — wszyscy uczestnicy mają dostęp do przejrzystego śladu audytu. Merchant wie, że transakcja była autoryzowana i w jakim zakresie. Kupujący ma dowód, że agent przekroczył lub nie przekroczył swoich uprawnień. Sieć płatnicza może rozstrzygnąć spór bez domysłów.

To jest odpowiedź Mastercarda na pytanie, które Amazon zadał sądowi w sprawie z Perplexity: sama zgoda użytkownika na działanie agenta nie wystarczy — potrzebna jest weryfikowalna, kryptograficzna ścieżka od intencji człowieka do transakcji.

Dwa modele budowania zaufania

W 2026 roku ścierają się dwa podejścia architektoniczne do weryfikacji agentów — i jeszcze nie wiadomo, które wygra.

Model rejestracji przy transakcji — oparty głównie na technologiach Cloudflare Web Bot Auth. Agent identyfikuje się w momencie transakcji przez standardowe mechanizmy web-layer. Merchant w czasie rzeczywistym sprawdza, czy agent pochodzi z zaufanego źródła, czy nie zachowuje się podejrzanie, czy operuje w ramach deklarowanych uprawnień. Zaleta: niski próg wejścia dla merchantów, brak wymagań rejestracyjnych. Wada: identyfikacja w momencie transakcji jest podatna na spoofing — co zresztą udowodnił Comet Perplexity, maskując się jako Chrome.

Model rejestracji przed transakcją — promowany przez Visa Trusted Agent Protocol i Mastercard Agent Suite, planowany na połowę 2026 roku. Agent musi być formalnie zarejestrowany i zweryfikowany zanim otrzyma „agentic token” — kryptograficzny dowód tożsamości pozwalający na transakcje w globalnym systemie bankowym. Zaleta: weryfikacja odbywa się raz, bezpiecznie, z pełnym zakresem informacji. Wada: wyższy próg wejścia, wymaga ekosystemu rejestracji.

Oba podejścia są zgodne z AP2 (Agent Payments Protocol Google) i z ACP (OpenAI). Różnią się momentem i metodą weryfikacji — co ma ogromne znaczenie dla tego, jak szybko nowi agenci mogą wchodzić do ekosystemu.

Problem hallucynacji jako ryzyko finansowe

Jest jeden aspekt problemu tożsamości agentów, który odróżnia go od wszystkich poprzednich wyzwań bezpieczeństwa cyfrowego: hallucynacje modelu językowego mogą prowadzić do nieautoryzowanych transakcji finansowych.

Tradycyjne ataki na systemy płatności były celowe — ktoś aktywnie próbował ukraść pieniądze. Agent AI może doprowadzić do nieautoryzowanej transakcji przez pomyłkę: zinterpretował instrukcję „kup coś podobnego” jako polecenie zakupu droższego wariantu, zaokrąglił kwotę w górę, pomylił produkt.

Kiedy człowiek popełnia błąd przy kasie — widzi go i może cofnąć. Agent nie widzi. Realizuje zakup zgodnie ze swoją interpretacją instrukcji — która może być błędna.

Artykuł World Economic Forum z 2026 roku opisuje to jako „nową granicę bezprecedensowego oszustwa” — nie dlatego, że agenci są złośliwi, ale dlatego, że systemy zaufania zaprojektowane dla intencji ludzkich nie są gotowe na intencje maszynowe, które mogą być błędnie skonstruowane.

Verifiable Intent Mastercarda jest częściową odpowiedzią: jeśli Agent ma podpisany mandat z konkretną kwotą i konkretnym produktem, hallucynacja prowadząca do innego zakupu jest weryfikowalnie poza zakresem autoryzacji i może być automatycznie odrzucona.

Tożsamość agenta jako pierwszorzędny problem bezpieczeństwa

Bessemer Venture Partners w swoim raporcie o bezpieczeństwie AI z 2026 roku stawia sprawę wprost: zabezpieczenie tożsamości agentów jest definiującym wyzwaniem cyberbezpieczeństwa roku 2026. 48% specjalistów ds. cyberbezpieczeństwa wskazuje agentyczną AI jako najgroźniejszy wektor ataku.

Dlaczego tożsamość jest tak kluczowa? Bo każdy agent AI to w praktyce tożsamość z uprawnieniami. Dostępem do baz danych, możliwością wykonywania transakcji, prawem do działania w imieniu użytkownika. Bez właściwego zarządzania tożsamością agenci stają się niewidzialnymi uczestnikami systemu — działają, ale nie ma ich w rejestrach. Podejmują decyzje finansowe, ale ich ślady są trudne do odtworzenia.

Cytat z raportu Bessemer trafia w sedno: „AI agents aren’t tools — they’re actors. Securing an actor is a fundamentally different problem than securing a tool, and most of the industry hasn’t caught up to that yet.”

Analog, który pomaga zrozumieć skalę problemu

World Economic Forum porównuje obecny moment do lat 70. i 80. ubiegłego wieku, gdy globalizacja finansów wymusiła stworzenie KYC. Pieniądze zaczęły przepływać szybciej niż systemy zaufania mogły za nimi nadążyć. Odpowiedzią był nowy standard — i stał się fundamentem, na którym dziś opiera się cały globalny system finansowy.

Agentyczny handel wymaga analogicznego kroku: powszechnego standardu tożsamości i zaufania dla agentów — czegoś w rodzaju certyfikatów SSL dla transakcji agentycznych. Infrastruktura, która pozwala legitymizowanemu agentowi działać swobodnie, a jednocześnie wprowadza celowe tarcie dla agentów niezweryfikowanych.

NIST w lutym 2026 roku uruchomił „AI Agent Standards Initiative” i opublikował koncept papier o tożsamości i autoryzacji agentów — adaptujący istniejące standardy OAuth, OpenID Connect i SPIFFE do kontekstu agentycznego. EU AI Act od sierpnia 2026 roku wprowadza obowiązek nadzoru człowieka nad systemami AI wysokiego ryzyka, co de facto wymusza „Know Your Human” dla agentów operujących w regulowanych domenach.

Standardy są w toku. Żaden nie jest jeszcze ustalony jako dominujący.

Co to oznacza dziś

Dla merchantów i deweloperów budujących agentyczne systemy — trzy praktyczne wnioski.

Po pierwsze: każdy agent musi mieć własną tożsamość zarządzaną jak każda inna tożsamość w systemie. Nie współdzielony klucz API z szerokim dostępem, ale ograniczone poświadczenia z jasno zdefiniowanym zakresem uprawnień. Jeśli nie możesz odpowiedzieć na pytania „co ten agent może zrobić?”, „w czyim imieniu?” i „kto to zaaprobował?” — nie jesteś gotowy na autonomię, którą te systemy będą wkrótce miały.

Po drugie: AP2 i jego system mandatów jest dziś najdojrzalszą odpowiedzią na problem Verifiable Intent. Wdrożenie mandatów Intent, Cart i Payment dla transakcji agentycznych daje kryptograficzny dowód autoryzacji, który chroni przed sporem i przed hallucynacją.

Po trzecie: śledź KYA i Know Your Human jako rozwijające się standardy. To nie jest skończony ekosystem. Visa, Mastercard, NIST, Anthropic, OpenAI, Google — wszyscy pracują nad kawałkami tej układanki jednocześnie. Wyniki tych prac określą, jak będzie wyglądać bezpieczeństwo agentycznego handlu przez najbliższe lata.

Tożsamość agenta to nie techniczny detal. To fundament, bez którego zaufanie do agentycznego handlu nie może się zbudować. I jak każdy fundament — najlepiej położyć go zanim zacznie się budować ściany.