Mogą na przykład znaleźć najlepszą ofertę lotu, zarezerwować hotel i kupić bilety, czyli wszystko bez naszego udziału.
To ogromny skok technologiczny, a przychodzi on w momencie, kiedy w Unii Europejskiej toczy się ważna dyskusja o przyszłości prawa konsumenckiego. W 2026 roku ma pojawić się Ustawa o Uczciwości Cyfrowej (Digital Fairness Act). Tylko że, patrząc na to, jak dziś wygląda debata, agentowa AI praktycznie się w niej nie pojawia. A to może oznaczać, że jeszcze zanim prawo wejdzie w życie, będzie już… przestarzałe.
Kim są ci „agenci” i jak mogą zmienić handel online
O generatywnej AI jak ChatGPT czy inne duże modele językowe (LLM) słyszał już prawie każdy.
Agenci mogą być osobnymi aplikacjami, dodatkami do przeglądarek, a nawet wbudowanymi funkcjami w systemach operacyjnych naszych komputerów i telefonów.
W praktyce oznacza to, że zamiast samodzielnie szukać produktu w Google czy na Amazonie, możemy po prostu powiedzieć agentowi: „Znajdź mi najlepszy tablet do 1000 zł, zamów go z dostawą na jutro” i on to zrobi.
Firmy takie jak PerplexityAI czy OpenAI już testują funkcje zakupowe w swoich platformach. Amazon i Google także tworzą swoje wersje agentów, które będą kupować produkty w imieniu użytkowników. Może to całkowicie zmienić układ sił w e-commerce z „sieci platform” możemy przejść do „sieci agentów”. Ale jest też drugi scenariusz: że rynek zdominują tylko nieliczni, najsilniejsi agenci, którzy staną się nowymi „strażnikami dostępu”.
Nie wszystko w tym obrazie jest groźne - wręcz przeciwnie. Agenci mogą pomóc nam oszczędzać czas, obniżać koszty, porównywać oferty i chronić przed manipulacjami typu dark patterns. Problem w tym, że aby te korzyści stały się rzeczywistością, potrzebujemy solidnych zabezpieczeń prawnych i technicznych.
Czy prawo nadąża? Na razie nie bardzo
Komisja Europejska szykuje reformę prawa konsumenckiego w ramach Digital Fairness Act. Ma ona obejmować m.in. walkę z dark patterns, projektowaniem uzależniającym użytkownika, szkodliwą personalizacją i nadużyciami w subskrypcjach.
Ale o agentach AI w tych rozmowach praktycznie się nie mówi. W raporcie Fitness Check pojawiła się co prawda wzmianka o „narzędziach automatyzacji”, ale dotyczyło to jedynie automatycznych umów i temat szybko porzucono. Jeśli tak zostanie, to nowe przepisy będą dotyczyć świata, który… już przestanie istnieć.
Dlaczego musimy mieć prawo „gotowe na agentów”
Są co najmniej dwa powody, żeby zmienić sposób myślenia: pozwolić na rozwój innowacyjnych biznesów opartych na agentach i jednocześnie chronić autonomię konsumentów. Nie chodzi o to, by dorzucać nowe paragrafy na siłę, ale o to, by dostosować obecne przepisy, żeby działały w nowej rzeczywistości.
Obecne prawo jest napisane z myślą o człowieku, o jego potrzebach i słabościach, zakładając, że to on podejmuje decyzję zakupową. W świecie agentów to coraz częściej nie my będziemy naciskać „kup teraz”, tylko AI. Prawo konsumenckie będzie więc musiało stać się „prawem dla maszyn”, które nadal chroni ludzi.
Jak to zrobić? Trzeba przemyśleć kilka kluczowych obszarów.
1. Od przycisków do API
Prawo UE dziś nakazuje np. umieszczanie przycisku „zamawiam z obowiązkiem zapłaty” i czytelnego prezentowania informacji przed zakupem. Tyle że agent nie będzie klikał przycisku – będzie komunikował się przez API. Takie przepisy mogą więc szybako się zdezaktualizować. Być może będziemy musieli wprowadzić np. obowiązkowe „API anulowania” obok przycisków anulowania, żeby agent mógł skutecznie odwołać zamówienie.
2. Nowe formy manipulacji - 2.0
AI agent może manipulować nami, wykorzystując dane o nas i nasze słabości poznawcze, stając się wręcz „silnikiem manipulacji”. Ale można też manipulować… samym agentem.
Nieuczciwi sprzedawcy lub hakerzy mogą stosować „agentowe dark patterns”, czyli wstrzykiwać szkodliwe komendy (prompt injection) lub używać ataków adwersarialnych, żeby agent zrobił coś na naszą niekorzyść – np. wysłał pieniądze w złe miejsce albo ujawnił nasze dane.
Co ciekawe, agenci mogą być mniej podatni na typowe sztuczki wobec ludzi, takie jak „męczenie klikaniem” czy wyskakujące powiadomienia. Ale za to powstaną zupełnie nowe formy podatności, które trzeba będzie przewidzieć.
3. Zmiana punktu skupienia: z prawa umów na wymogi projektowe
Dziś prawo skupia się na momencie zawarcia umowy, czyli na tym „magicznie ważnym punkcie”. W świecie agentów nasza rola może sprowadzać się do pierwszej konfiguracji i ustalenia zasad działania agenta.
Ochrona konsumenta będzie więc wymagała wymogów wobec samego projektu agentów AI - trochę jak w prawie bezpieczeństwa produktów - zamiast polegania na przepisach umownych w chwili transakcji.
4. „Przeciętny konsument” czy „przeciętny agent”?
Obecny model prawa mówi o „przeciętnym konsumencie”, czyli osobie dobrze poinformowanej, uważnej i ostrożnej. Ale co, jeśli decyzję podejmuje AI agent? Czy ten model wciąż ma sens? Może trzeba będzie wprowadzić test „przeciętnego agenta AI”. Na razie badania nad „psychologią maszyn” czy „psychometrią AI” dopiero raczkują i nie wiemy, czy agenci będą mieli ludzkie błędy poznawcze, czy będą myśleli „bardziej racjonalnie”.
Na koniec
Prawo konsumenckie UE nie jest dziś gotowe na nadejście agentowej AI. Ten rozwój będzie szybki i głęboki, a jeśli chcemy, by prawo nadążało, musimy je dostosować już teraz. W przeciwnym razie, gdy agenci AI staną się codziennością, zostaniemy z przepisami pisanymi pod realia, które dawno minęły.
UE ma szansę przygotować grunt pod gospodarkę agentową - tak, jak wcześniej dostosowała prawo do gospodarki platformowej. Ale to wymaga odwagi, wyobraźni i zrozumienia, że w przyszłości prawo będzie musiało służyć nie tylko ludziom, ale i maszynom działającym w naszym imieniu.
Więcej na ten temat: TUTAJ