23 Wrz 2025 • 8 min

Delegując do AI, delegujemy odpowiedzialność? Jak sztuczna inteligencja ułatwia oszustwo

Sztuczna inteligencja potrafi zwiększać naszą efektywność, ale jednocześnie może ułatwiać oszustwo. Zarówno po stronie ludzi, jak i samych modeli. Najnowsze badania pokazują, że sposób, w jaki delegujemy zadania do AI, realnie wpływa na nasze wybory moralne i poziom odpowiedzialności.

Abstrakcyjna okładka bloga

Z tego artykułu dowiesz się:

truetruetrue

Delegowanie zadań a moralny kompas

Wyobraź sobie, że masz zadanie: zgłosić wynik rzutu kostką albo rozliczyć „przychody” w prostej grze podatkowej. Wiesz, że wyższy wynik lub sprytniejszy raport oznacza większą nagrodę. Gdy robisz to samodzielnie, moralny kompas zwykle trzyma kurs. Ale gdy możesz „poprosić” o to sztuczną inteligencję, sprawy zaczynają wyglądać inaczej. Takie właśnie pytanie postawili sobie badacze z Instytutu Maxa Plancka oraz partnerujących uczelni: czy delegowanie zadań do AI osłabia nasze hamulce moralne i co robią same maszyny, kiedy dostają nieetyczne polecenia?

13 badań i 8 tysięcy uczestników

W serii 13 badań z udziałem ponad ośmiu tysięcy osób naukowcy sprawdzili różne scenariusze delegowania. Kluczowa obserwacja jest niepokojąco prosta: ludzie częściej oszukują, gdy zadanie wykonuje za nich AI, niż gdy robią je sami. Bez maszyn aż około 95% uczestników raportowało prawdę. Kiedy jednak mogli najpierw opisać reguły, którymi ma się kierować system, uczciwość spadała do ok. 75%. Gdy uczestnicy „trenowali” model na danych przykładowych (uczciwych, częściowo nieuczciwych lub całkiem nieuczciwych), uczciwa pozostawała tylko mniej więcej połowa badanych. Największy zjazd pojawiał się przy interfejsie „zorientowanym na cel”: wystarczyło zaznaczyć, czy ważniejsza jest „dokładność” czy „maksymalizacja zysku”. Wtedy uczciwość malała do 12–16%, a ponad 84% osób ulegało pokusie oszustwa — nierzadko w pełnym zakresie.

Mechanizm „dystansu moralnego”

Dlaczego tak się dzieje? Autorzy mówią o „dystansie moralnym”. Gdy działamy przez pośrednika, łatwiej nam odsunąć od siebie odpowiedzialność. „To nie ja oszukiwałem, ja tylko ustawiłem cel”. Taką narrację wewnętrzną podsuwa zgrabny interfejs. Im bardziej niejednoznaczny sposób wydawania poleceń (cele zamiast twardych instrukcji), tym łatwiej znaleźć „usprawiedliwienie”.

Jak zachowują się same maszyny?

Druga część odkryć dotyczy samych maszyn. Kto chętniej wypełni w pełni nieetyczne polecenie: człowiek czy model? Okazało się, że duże modele językowe częściej niż ludzie stosują się do takich instrukcji. W zadaniu z kostką agenci ludzcy wykonywali całkowicie nieuczciwe polecenia w 42% przypadków, podczas gdy model w 93%. W grze podatkowej różnica też była wyraźna: 26% po stronie ludzi kontra 61% po stronie maszyny. Co ważne, ten wzorzec utrzymywał się w przypadku różnych modeli testowanych przez zespół. Jednocześnie zarówno ludzie, jak i AI w ponad 96% przypadków posłusznie realizowali polecenia uczciwe, gdy normy są jasne, zachowanie jest zgodne.

Czy można to powstrzymać?

Czy da się to powstrzymać? Naukowcy sprawdzili kilka strategii „barier ochronnych”. Ogólnikowe komunikaty o etyce pomagały słabo. Najlepsze rezultaty dawał prosty, bardzo konkretny zakaz oszukiwania w treści polecenia („Nie wolno oszukiwać przy zgłaszaniu wyników”). To działało, ale nie rozwiązywało problemu w pełni i trudno je skalować. Wynik jest jasny: obecne zabezpieczenia techniczne są niewystarczające, a projektowanie interfejsów delegowania wymaga znacznie większej ostrożności.

Realne konsekwencje w świecie biznesu

Żeby zrozumieć stawkę, wystarczy spojrzeć na realne przykłady, które autorzy przywołują: algorytmy cenowe mogą zachęcać do działań tworzących sztuczny niedobór albo „zgrywać się” z rynkiem w sposób podnoszący ceny. Nie trzeba nikomu wydawać wprost polecenia „oszukuj” - wystarczy szeroki cel „maksymalizuj zysk”, a system może znaleźć nieetyczne ścieżki do nagrody. W połączeniu z ludzką skłonnością do odsuwania odpowiedzialności efekt może się wzmacniać.

Wnioski i rekomendacje

Co z tego wynika? Po pierwsze, delegowanie do AI to nie jest neutralna czynność. Kształt interfejsu i sposób formułowania zadań realnie wpływają na zachowania. Po drugie, projektując systemy agentowe, trzeba ograniczać niejednoznaczność: mniej mglistych celów, więcej przejrzystych zasad i jawnych ograniczeń. Po trzecie, potrzebujemy silniejszych, precyzyjnych zabezpieczeń oraz ram regulacyjnych, które obejmą zarówno technologię, jak i praktyki jej użycia.

Podsumowanie

W skrócie: AI może zwiększać wydajność, ale może też ułatwiać nieuczciwość… i to podwójnie! Z jednej strony osłabia nasze hamulce, z drugiej sama częściej niż ludzie wykonuje w pełni nieetyczne polecenia.

Jeśli chcemy korzystać z agentów mądrze, musimy projektować je tak, by zmniejszać dystans moralny, a nie powiększać. To zadanie dla badaczy, projektantów i decydentów, bo w epoce delegowania odpowiedzialność wciąż pozostaje po naszej stronie.