06 Maj 2025 • 7 min

Jak sztuczna inteligencja wzmacnia nasze uprzedzenia

Systemy mogą popełniać błędy i to nie przypadkowe, lecz systematyczne, które wpływają na jakość podejmowanych przez ludzi decyzji.

Abstrakcyjna okładka bloga

Dotychczasowe badania wykazywały, że sztuczna inteligencja może automatyzować, utrwalać, a nawet wzmacniać istniejące ludzkie uprzedzenia. Bardziej złożoną kwestią jest jednak to, w jaki sposób interakcje między ludźmi a stronniczymi systemami AI mogą zmieniać ludzkie przekonania i sprawiać, że z czasem sami ludzie stają się bardziej stronniczy niż wcześniej.

Najnowsze badania ujawniają istnienie pętli sprzężenia zwrotnego człowiek-AI, w której interakcje między człowiekiem a sztuczną inteligencją znacząco wpływają na procesy leżące u podstaw ludzkich osądów percepcyjnych, emocjonalnych i społecznych. Efektem tego jest wzmocnienie uprzedzeń, które jest znacznie większe niż to, co obserwuje się w relacjach wyłącznie międzyludzkich.

Mechanizm ten polega na tym, że stronnicze systemy AI nie tylko same przejawiają uprzedzenia, ale także skłaniają ludzi do przejmowania tych uprzedzeń i ich pogłębiania w wyniku powtarzających się interakcji.

Skąd biorą się błędy AI?

Błędy w systemach sztucznej inteligencji często wynikają z błędów obecnych w danych treningowych, czyli tzw. „błędy na wejściu, błędy na wyjściu”. Jeśli dane, na których uczy się AI, nie są reprezentatywne lub zawierają ludzkie skróty myślowe, uprzedzenia i stereotypy, to algorytm zacznie je odwzorowywać, a nawet wzmacniać.

Na przykład, generatywne modele AI trenowane na danych z Internetu mogą odzwierciedlać cały wachlarz uprzedzeń – poznawczych, rasowych, płciowych i innych. Kiedy ludzie wchodzą w interakcję z tymi systemami, uczą się od nich i przejmują te skrzywienia poznawcze.

Kluczowe ustalenia z badań:

1. Sztuczna inteligencja wzmacnia pierwotne uprzedzenia

Eksperymenty wykazały, że kiedy AI uczy się na danych z niewielką domieszką stronniczości, nie tylko ją przejmuje, ale wręcz wzmacnia. Przykład: ludzie mieli lekką tendencję do klasyfikowania niejednoznacznych twarzy jako „bardziej smutnych” w 53,08% przypadków. Algorytm uczący się na tych samych danych klasyfikował je jako „bardziej smutne” w 65,33% przypadków. Co ciekawe, ludzie trenowani na tych samych danych nie wykazywali zwiększonej stronniczości.

2. Interakcja z tendencyjną AI zwiększa ludzkie uprzedzenia

W kolejnym eksperymencie nowa grupa uczestników wchodziła w interakcję z tendencyjnym systemem AI. Uczestnicy podejmowali własną decyzję, a następnie widzieli, co "sądzi" AI, i mogli zmienić swoją odpowiedź. Efekt? Początkowe uprzedzenia uczestników zaczęły rosnąć. W zadaniu rozpoznawania emocji klasyfikacja twarzy jako „smutnych” wzrosła z 49,9% do 56,3%. Co ważne – efekt ten pogłębiał się wraz z kolejnymi etapami interakcji.

3. Interakcje międzyludzkie nie wzmacniały uprzedzeń

W sytuacjach, w których uczestnicy wchodzili w interakcje z innymi ludźmi o podobnych początkowych uprzedzeniach, ich własne osądy nie zmieniały się. To sugeruje, że sztuczna inteligencja wywiera silniejszy i bardziej trwały wpływ na ludzkie decyzje niż inni ludzie.

4. Dlaczego AI wpływa bardziej niż człowiek?

Wynika to z natury działania AI i z tego, jak ludzie postrzegają technologie. Systemy sztucznej inteligencji są bardziej wrażliwe na drobne wzorce w danych i dążą do optymalizacji wyników – także na bazie uprzedzeń. Po treningu ich decyzje są bardziej spójne i mniej chaotyczne niż ludzkie – dzięki temu łatwiej się od nich uczyć. Dodatkowo, jeśli AI postrzegana jest jako „lepsza niż człowiek”, to przejęcie jej osądów może wydawać się racjonalne, nawet jeśli są one stronnicze.

5. Użytkownicy nie są świadomi wpływu

W jednym z zadań uczestnicy, którzy wchodzili w interakcję ze stronniczym algorytmem, stawali się wyraźnie bardziej stronniczy, ale subiektywnie oceniali, że byli mniej podatni na jego wpływ niż na wpływ algorytmu dokładnego. Tymczasem faktyczny wpływ obu algorytmów (mierząc zmianę osądów) był porównywalny. Ten brak świadomości sprawia, że użytkownicy stają się bardziej podatni na przejmowanie uprzedzeń.

6. Efekt występuje w różnych typach zadań

Wzmacnianie uprzedzeń występowało zarówno w zadaniach percepcyjnych (np. ruch punktów na ekranie), jak i w zadaniach społecznych, przy użyciu rzeczywistego systemu AI – Stable Diffusion. Oznacza to, że mechanizm nie ogranicza się tylko do jednego typu interakcji.

7. AI wpływa na nasze postrzeganie rzeczywistości

Eksperymenty z użyciem Stable Diffusion – znanego z tego, że nadreprezentuje białych mężczyzn jako „menedżerów finansowych” – pokazały, że samo oglądanie takich obrazów wpływało na decyzje uczestników. Wybierali oni częściej białych mężczyzn jako kandydatów do tej roli. To pokazuje, jak silnie treści generowane przez AI mogą wpływać na nasze społeczne osądy – nawet jeśli tylko je konsumujemy, a nie aktywnie z nimi współdziałamy.

8. Dokładna AI może poprawiać nasze decyzje

Wyniki badań nie sugerują, że każda AI jest zła. W rzeczywistości interakcje z dokładnym algorytmem prowadziły do wzrostu trafności ludzkich ocen. To zgodne z wcześniejszymi badaniami, które pokazują, że dobrze zaprojektowana współpraca człowieka z AI może poprawić wyniki. Problem pojawia się wtedy, gdy system już na starcie zawiera uprzedzenia.

Dlaczego to ma znaczenie?

W czasach, gdy coraz więcej decyzji – od diagnoz medycznych po zatrudnianie pracowników, podejmowanych jest z udziałem systemów AI, wzmacnianie uprzedzeń przez AI może mieć poważne konsekwencje. Pętla sprzężenia zwrotnego człowiek–AI może powodować efekt „kuli śnieżnej”: małe błędy → wzmacnianie uprzedzeń → jeszcze większe błędy → dalsze pogłębianie się problemu.

Odpowiedzialność projektantów i twórców systemów AI jest więc ogromna. Poprawne projektowanie systemów może nie tylko zapobiec utrwalaniu uprzedzeń, ale też realnie zmniejszyć ludzkie uprzedzenia i poprawić jakość decyzji.

Szczególnie niepokojący jest potencjalny wpływ stronniczych systemów AI na dzieci i młodzież, których wiedza i przekonania dopiero się kształtują. Potrzebne są dalsze badania, by lepiej zrozumieć trwałość tego efektu i jego wpływ na rozwój poznawczy.

—-

*Glickman, M., Sharot, T. How human–AI feedback loops alter human perceptual, emotional and social judgements. Nat Hum Behav 9, 345–359 (2025). https://doi.org/10.1038/s41562-024-02077-2*