Zaufanie pod presją algorytmu. Czy konsumenci oddadzą zakupy agentom AI?
Wyobraź sobie, że zakupy robi za Ciebie ktoś niewidzialny, przegląda setki ofert, porównuje ceny i jednym kliknięciem dopina transakcję, zanim zdążysz o tym pomyśleć. Wygodne? Bardzo. Ale gdzieś z tyłu głowy pojawia się pytanie: czy na pewno wiesz, co zostało wybrane i dlaczego? Kto tak naprawdę ponosi za to odpowiedzialność?
Z tego artykułu dowiesz się…
- Czym jest agentic commerce i jak zmienia sposób podejmowania decyzji zakupowych.
- Dlaczego rosnąca popularność agentów AI zderza się z barierą zaufania konsumentów.
- Na czym polega model „mandatu” i jak może wyglądać przyszłość autoryzacji płatności.
Transformacja e-commerce jest nieunikniona i jak wskazują raporty, przechodzimy z fazy asystentów AI, którzy jedynie podpowiadają rozwiązania, do ery agentic commerce, w której autonomiczne systemy samodzielnie oceniają oferty i finalizują transakcje w imieniu człowieka.
Raport Adyen Index 2025 wskazuje, że skala tej adaptacji jest duża. Liczba osób wykorzystujących AI do zakupu w ciągu zaledwie roku wzrosła o 47 proc. Jednak dynamiczny rozwój jest hamowany przez barierę zaufania. Według raportu „Own the agentic commerce experience” wydanego przez IBM, 83 proc. konsumentów obawia się kwestii dotyczących prywatności i bezpieczeństwa swoich danych.
Ten wątek podejmują także autorzy raportu Adobe „2025 AI and Digital Trends”, który pokazuje, że 87 proc. klientów oczekuje bezpiecznego przetwarzania danych, a 46 proc. wierzy, że marki wywiązują się z tego obowiązku.
Koniec z potwierdzaniem każdej transakcji - model mandatu
Jak tłumaczy Krzysztof Goworek, niezależny ekspert AI governance i założyciel firmy Quintant.ai, to, czy każda transakcja wymaga potwierdzenia, czy też jest w pełni zautomatyzowana, stanowi kwestię projektowania doświadczenia użytkownika, a nie dylemat z obszaru governance.
Ekspert wskazuje, że prawdziwa granica przebiega poziom wyżej – na etapie mandatu.
– Zgodnie z negocjowanymi obecnie przepisami PSD3/PSR, wyłaniającym się modelem jest uwierzytelnianie delegowane: użytkownik przechodzi silne uwierzytelnienie (SCA) tylko raz, aby udzielić ograniczonego, konkretnego mandatu. Przykładowo wydaj do 100 euro na zakupy spożywcze w tym tygodniu, tylko u sprzedawców z tych kategorii. Agent działa autonomicznie w ramach tego limitu – mówi Krzysztof Goworek.
Ekspert wskazuje, że nie jest to jeszcze standard, tylko wynegocjowany kompromis między trzema stronami – sieciami płatniczymi dążącymi do maksymalnej szybkości, regulatorami rynku finansowego egzekwującymi SCA i podmiotami egzekwującymi AI Act w poszczególnych krajach. Szczególnie ważny jest artykuł 26(2) AI Act, który już wymusza ludzki nadzór nad decyzjami w zastosowaniach wysokiego ryzyka.
Agentowe przepływy płatnicze zostaną moim zdaniem uznane za zastosowania wysokiego ryzyka w momencie, gdy wyjdą poza fazę pilotaży
– Agentowe przepływy płatnicze zostaną moim zdaniem uznane za zastosowania wysokiego ryzyka w momencie, gdy wyjdą poza fazę pilotaży – dodaje Krzysztof Goworek.
Twierdzi, że obecność człowieka w procesie zakupowym nie jest jedynie kwestią prawdopodobieństwa czy trendów, lecz twardym wymogiem prawnym. Ekspert wskazuje, że unijny AI Act już teraz rozstrzyga kwestię nadzoru ludzkiego, nakładając na wdrażających obowiązek zachowania zdolności do rzeczywistej interwencji w procesy autonomiczne.
Prawo unijne już na to odpowiedziało. Wdrażający muszą zachować zdolność do rzeczywistej interwencji. Prawdziwe pytanie dotyczy poziomu szczegółowości, na jakim ta interwencja następuje. Potwierdzanie każdej pojedynczej transakcji zabija ideę agentowych płatności. Potwierdzanie mandatu to jedyne sensowne podejście w świetle AI Act
– Prawo unijne już na to odpowiedziało. Wdrażający muszą zachować zdolność do rzeczywistej interwencji. Prawdziwe pytanie dotyczy poziomu szczegółowości, na jakim ta interwencja następuje. Potwierdzanie każdej pojedynczej transakcji zabija ideę agentowych płatności. Potwierdzanie mandatu to jedyne sensowne podejście w świetle AI Act – mówi Krzysztof Goworek.
Dodaje, że w Polsce 27 proc. kupujących podczas ostatniego Black Friday korzystało z narzędzi AI do wyszukiwania produktów, co było wynikiem wyższym niż 22 proc. w Wielkiej Brytanii. Uważa, że polski sektor handlowy i bankowy zderzy się z tymi pytaniami szybciej niż zakłada większość Europy.
– Nie mamy komfortu czekania, aż ktoś inny pierwszy wyznaczy te granice – mówi Krzysztof Goworek.
Kto płaci za błędy AI?
Jednym z dylematów, który pojawia się w kontekście agentic commerce jest kwestia odpowiedzialności za błędne lub nieautoryzowane decyzje algorytmów.
Wcześniej wspomniany raport IBM wskazuje, że organizacje muszą budować systemy, które działają transparentnie, a mimo to błędy są nieuniknione.
Krzysztof Goworek podkreśla, że branża płatnicza próbuje przerzucić odpowiedzialność na sprzedawców, co jest rozwiązaniem tymczasowym i mało stabilnym prawnie.
– Agent mieści się w budżecie, ale pomyli produkt. Przykładowo, zamiast Apple 16 zamówi 16 kg jabłek. Obecnie ryzyko z tym związane ponosi użytkownik. Nie sądzę, by przetrwało to zderzenie z unijnymi przepisami o ochronie konsumentów – mówi Krzysztof Goworek.
Według eksperta, architektura prawna wynikająca z EU AI Act dzieli odpowiedzialność między dostawcą technologii a podmiotem ją wdrażającym, na przykład bankiem czy sklepem. Powołuje się też na analizy Joanny Bryson, która jest przeciwna nadawaniu AI osobowości prawnej.
– Twierdzenie „to agent zrobił” jest tarczą, za którą korporacje chętnie się schowają. Odpowiedzialność musi prowadzić do podmiotu mającego osobowość prawną, czyli człowieka lub firmy, inaczej prowadzi donikąd. To przykład podobny do kwestii odpowiedzialności za wypadek spowodowany przez autonomiczny samochód – dodaje Krzysztof Goworek.
Nowe technologie, nowe zagrożenia
Wraz z autonomią w handlu agentowym pojawiają się zagrożenia, których tradycyjna infrastruktura nie potrafi wykryć, o czym podczas SoDa Conference w Łodzi mówił Kamil Porembiński, ekspert cyberbezpieczeństwa i praktyk AI, podkreślając, że dziś hakerzy nie muszą już pisać skomplikowanych skryptów, gdyż wystarczy im umiejętna manipulacja instrukcjami dla AI.
Krzysztof Goworek wskazuje, że branża płatnicza błędnie zakłada, iż uwierzytelnienie rozwiązuje problem bezpieczeństwa, podczas gdy to właśnie uwierzytelnieni agenci stają się głównym wektorem ataku. W odpowiedzi na rosnące ryzyko m.in. prompt injection i ataków na agentów, podejścia takie jak Know Your Agent Mastercarda zakładają, że już na etapie onboardingu weryfikowane są mechanizmy bezpieczeństwa i odporności agentów, jak i ich tożsamość, aby tym samym ograniczyć możliwość wykorzystania ich jako punktu wejścia do systemu.
To zagrożenie polega na „zatruwaniu” kanałów danych niewidocznym dla ludzi tekstem lub zmanipulowanymi metadanymi, co Kamil Porembiński ilustruje przykładem ukrywania instrukcji za pomocą białych znaków lub liter na białym tle, które są czytelne dla AI, ale całkowicie ignorowane przez ludzi i tradycyjne systemy obronne.
Drugi typ ryzyka to „SEO dla agentów”, gdzie oszuści budują fałszywe sklepy zoptymalizowane pod sygnały zaufania analizowane przez algorytmy. Goworek zauważa przy tym, że AI potrafi wyłapać z otoczenia sygnały niewidoczne dla człowieka, co pozwala na skuteczne oszukiwanie modeli poprzez manipulację kontekstem wizualnym.
Trzeci rodzaj oszustw opiera się na kompresji kontekstu i tendencji AI do gubienia istotnych szczegółów, takich jak ukryte opłaty, co może być potęgowane przez celowe szyfrowanie zapytań (np. w formacie Base64), które bez trudu przechodzą przez firewalla, by dopiero wewnątrz modelu zostać zinterpretowane jako szkodliwe polecenie wydobycia danych.
Wszystko to sprawia, że obecne systemy autoryzacji, skupione od lat na odróżnianiu człowieka od bota, stają się niewystarczające, a cała architektura obronna musi zostać przeprojektowana wokół ochrony przed zatrutym kanałem danych, którego obecna infrastruktura po prostu nie widzi.
Rola organizacji płatniczych i standaryzacja techniczna
Bezpieczeństwo w rzeczywistości agentic commerce wymaga nowej infrastruktury, w której organizacje płatnicze stają się aktywnymi uczestnikami weryfikacji.
Raport IBM wskazuje, że PayPal ma zintegrować się z ChatGPT w celu oferowania użytkownikom możliwości wykonywania transakcji bezpośrednio w interfejsie konwersacyjnym.
Krzysztof Goworek ostrzega, że samo uwierzytelnienie agenta w rejestrze nie rozwiąże problemu, jeśli kanał danych, z którego korzysta maszyna, pozostanie podatny na manipulację.
Komentarz partnera cyklu
Czy można zaufać agentowi?
W tym kontekście organizacje płatnicze takie jak Mastercard pełnią rolę koordynatora płatności i strażnika zaufania w całym ekosystemie agentic commerce. To one tworzą standardy, ustanawiają ramy odpowiedzialności i zapewniają, że każdy uczestnik – agent, sklep, bank i użytkownik – działa według wspólnych, egzekwowalnych zasad. Rola ta wykracza daleko poza samą obsługę transakcji i obejmuje zarządzanie ryzykiem, identyfikowalność działań oraz ochronę interesów wszystkich stron.
W Mastercard odpowiedzialne wykorzystanie AI traktujemy nie jako deklarację, lecz jako element architektury naszych rozwiązań. Nasze podejście do agentic commerce opiera się na zasadach Responsible AI – projektujemy systemy, w których bezpieczeństwo, transparentność i kontrola użytkownika są wbudowane od samego początku.
Wierzymy, że to podejście powinno przekładać się na wszystkie procesy wykorzystujące AI, w tym Agentic Commerce. Oznacza to zatem jasno zdefiniowane zasady działania agentów: wszystkie strony są poinformowane, kto działa, w czyim imieniu, w jakim zakresie i z jaką odpowiedzialnością.
Kluczowym elementem odpowiedzialnego wykorzystania AI w handlu jest świadome potwierdzenie intencji zakupowych. W agentic commerce intencja użytkownika (czyli co chce kupić, w jakiej kwocie i w jakim sklepie) nie może być domyślna ani interpretowana – musi być jasno wyrażona i przede wszystkim potwierdzona (czyli użytkownik, po wyborze najlepszej dla siebie oferty, potwierdza agentowi swój wybór porzez silne uwierzytelnienie). Użytkownik decyduje, na co agent ma pozwolenie, w jakim zakresie i na jakich zasadach. Dzięki temu AI nie „zgaduje”, lecz działa w oparciu o jednoznaczny mandat, co znacząco zwiększa zaufanie do całego procesu.
Bezpieczeństwo transakcji realizowanych przez agentów opiera się na tokenizacji, która eliminuje konieczność przekazywania danych wrażliwych. Token nie tylko chroni dane płatnicze użytkownika, ale także osadza transakcję w konkretnym kontekście – łącząc użytkownika, agenta i sklep. Uzupełnieniem tego modelu jest podejście Know Your Agent, w którym tylko zarejestrowane i zweryfikowane przez system płatniczy agenty mogą inicjować płatności, a każda ich akcja jest możliwa do prześledzenia i audytu. Agent przestaje być anonimowym bytem, a staje się rozliczalnym uczestnikiem ekosystemu.
Ostatecznie pozostaje kwestia odpowiedzialności za błędne decyzje. W dojrzałym modelu agentic commerce odpowiedzialność nie jest rozmyta – każda decyzja agenta musi być możliwa do przypisania (kto tę decyzję podjął i potwierdził), przeanalizowania i rozliczenia. Tylko wtedy AI może stać się zaufanym uczestnikiem procesu zakupowego, a nie nieprzewidywalnym pośrednikiem. Jeżeli agent ma jasną intencję zakupową od klienta, potwierdzoną jego silnym uwierzytelnieniem, przekazuje ją precyzyjnie do sklepu, dostaje potwierdzenie przyjęcia zamówienia i jego zgodności z wcześniejszą instrukcją klienta, w zasadzie nie ma ryzyka, że zamiast miętowego roweru dla 12 latki otrzymamy 12 paczek herbaty miętowej. Płatność za pomocą sprawdzonego i zaufanego narzędzia daje klientom także komfort i możliwość reklamacji, gdyby w procesie coś poszło niezgodnie z planem.
Etyczne i społeczne aspekty agentic commerce
Poza aspektami technicznymi, agentic commerce rodzi wiele pytań związanych z moralnością i rozwojem społecznym.
Krzysztof Goworek zauważa, że delegując zakupy algorytmom, oddajemy im część naszych wyborów etycznych. Agent może wybrać najtańszy produkt od dostawcy, który wyzyskuje pracowników, ponieważ AI optymalizuje jedynie parametry wskazane w mandacie.
Dlatego, zgodnie z podejściem opartym na Responsible AI, ważne jest świadome definiowanie i komunikowanie kryteriów wyboru oraz edukacja użytkowników, tak aby cena nie była jedynym wyznacznikiem decyzji, a agent działał w oparciu o jasno określone wartości i preferencje.
Istnieje również ryzyko spłaszczenia sygnałów rynkowych i utrata osobistego gustu na rzecz historycznych preferencji analizowanych przez systemy.
Najbardziej niepokojącą perspektywą jest jednak osłabienie zdolności poznawczych populacji.
Pokolenie, które nie nauczy się podejmować decyzji zakupowych w warunkach niejednoznaczności, będzie miało osłabioną zdolność do podejmowania jakichkolwiek decyzji
– Pokolenie, które nie nauczy się podejmować decyzji zakupowych w warunkach niejednoznaczności, będzie miało osłabioną zdolność do podejmowania jakichkolwiek decyzji – mówi Krzysztof Goworek.
Choć kwestie compliance i bezpieczeństwa technicznego wydają się być do rozwiązania dzięki regulacjom takim jak AI Act, to długofalowe skutki społeczne pozostają największą niewiadomą nadchodzącej ery autonomicznego handlu.
Główne wnioski
- Rozwój agentic commerce jest szybki, ale jego skala będzie ograniczana przez brak zaufania do AI i obawy o bezpieczeństwo danych.
- Kluczowym rozwiązaniem regulacyjnym staje się model mandatu, który pozwala agentom działać autonomicznie w określonych granicach.
- Odpowiedzialność za decyzje AI nie zniknie, będzie dzielona między dostawców technologii i podmioty wdrażające.


