To przekonanie jest intuicyjne. Przecież codziennie widzimy przykłady, które je potwierdzają: pasażerowie nie chcą wsiąść do autonomicznego samochodu, pacjenci nie ufają diagnozie wydanej przez „zimny algorytm”, a klienci czują się niekomfortowo, gdy chatbot „rozumie” zbyt wiele. Ale czy rzeczywiście ten opór jest tak uniwersalny, jak nam się wydaje?
Najnowsza metaanaliza Zehnle, Hildebrand i Valenzuela (2025) opublikowana w International Journal of Research in Marketing rzuca na to pytanie zupełnie nowe światło. Autorzy przeanalizowali 440 wyników badań eksperymentalnych z lat 2002–2023, obejmujących ponad 76 tysięcy unikalnych uczestników. I doszli do wniosku, że cała ta historia o „powszechnej awersji do AI” jest mówiąc delikatnie mocno przesadzona.
Ich analiza pokazuje, że ludzie nie odrzucają sztucznej inteligencji jako takiej. Odnoszą się do niej raczej jak do każdego nowego aktora społecznego - z rezerwą, która zmienia się w zależności od tego, kim (czy raczej czym) ta inteligencja jest, jak się zachowuje i gdzie działa.
A więc to nie technologia, lecz kontekst, język i emocje, w jakich ją osadzimy, decydują o tym, czy zostanie przyjęta z entuzjazmem, czy z nieufnością.
1. Nazwij mnie, a powiem ci, jak mnie postrzegasz
Jednym z najbardziej uderzających wniosków metaanalizy jest to, jak ogromne znaczenie ma… nazwa.
Badacze porównali reakcje uczestników na cztery różne typy etykiet:
- AI Algorithm,
- AI System,
- AI Assistant,
- AI Robot.
Efekt? Przepaść emocjonalna.
Największy opór budziły roboty, czyli ucieleśnione formy sztucznej inteligencji. W eksperymentach, w których AI miała postać fizyczną (humanoidalną lub mechaniczną), efekt awersji był najsilniejszy: Cohen’s d = –0.83, co w badaniach społecznych uznaje się za efekt duży. Innymi słowy, sama obecność „ciała” ruchomego, patrzącego, reagującego – wystarczyła, by uruchomić niepokój, lęk i dystans.
W przypadku „asystentów AI” (d = –0.22) czy „systemów AI” (d = –0.17) negatywne emocje były znacznie słabsze. Ludzie zdawali się akceptować te formy jako narzędzia - rozszerzenia ich własnych zdolności, nie konkurentów.
To obserwacja z ogromnymi konsekwencjami dla designu. Słowo robot aktywuje skojarzenia z autonomią i kontrolą. Słowo algorytm z precyzją i neutralnością. A słowo asystent - z pomocą i współpracą.
Jedno słowo potrafi przesunąć całe spektrum emocji.
Dlatego język, którym opisujemy technologię, nie jest detalem komunikacyjnym. To coś, co kształtuje zaufanie.
Jeśli więc tworzysz produkt AI, który nie wymaga fizycznej obecności, unikaj uosobienia, które niepotrzebnie zwiększy dystans. Jeśli natomiast zależy ci na relacyjności np. w kontekście zdrowia lub edukacji warto nadać systemowi delikatny antropomorficzny ton, ale z umiarem i pamiętać o etycznym podejściu i wpyłwie, który możemy zaprojektować.
2. Kontekst decyduje o wszystkim
Nie tylko etykieta, lecz także domena zastosowania radykalnie zmienia postrzeganie AI.
Największą nieufność konsumenci okazują tam, gdzie stawka jest wysoka i gdzie technologia podejmuje decyzje o konsekwencjach dla życia, zdrowia lub bezpieczeństwa.
Najsilniejsze negatywne reakcje zaobserwowano w kontekstach takich jak:
- transport autonomiczny (d = –0.80),
- prawo i bezpieczeństwo publiczne (d = –0.45),
- systemy opieki społecznej (d = –0.40).
W tych domenach decyzje AI są postrzegane nie tylko jako techniczne, ale moralne mają wpływ na ludzkie losy. Tu emocje przesłaniają racjonalne oceny.
Odwrotnie dzieje się w obszarach, gdzie AI zwiększa wygodę i produktywność, a nie podejmuje za nas decyzji egzystencjalnych. W zarządzaniu i operacjach (d = –0.12), w rozrywce (d = –0.18), czy nawet w części zadań medycznych (d = –0.19) akceptacja jest znacznie wyższa.
W praktyce oznacza to, że AI nie budzi z definicji strachu - budzi go odpowiedzialność, jaką przypisujemy maszynie. Tam, gdzie ryzyko jest realne, chcemy mieć ostatnie słowo.
Dla projektantów to cenna lekcja: nie wystarczy udowodnić skuteczność modelu. Trzeba także zaprojektować poczucie bezpieczeństwa i współdecydowania. To właśnie „psychologia kontekstu” – nie kod – decyduje o adopcji.
3. Kontrola, kompetencja i ciepło: trzy filary akceptacji
W badaniach Zehnle i współautorów te trzy wymiary pojawiają się jako najważniejsze predyktory zaufania do AI: autonomia, wydajność i antropomorfizm.
Autonomia
Gdy system działa całkowicie samodzielnie bez interwencji użytkownika - opór rośnie (d = –0.28).
Ale gdy człowiek ma kontrolę nad decyzją lub czuje, że może ją cofnąć, efekt niemal zanika (d = –0.05).
To potwierdza tezę znaną z psychologii poznawczej: ludzie nie boją się inteligencji, boją się utraty sprawczości.
Projektując interakcje z AI, warto więc wdrożyć control affordances – elementy, które wizualnie i funkcjonalnie przypominają użytkownikowi, że to on decyduje ostatecznie.
Wydajność
Ciekawostka: ludzie nie lubią AI, gdy jest… zbyt słaba.
Gdy badani dowiadywali się, że system popełnia więcej błędów niż człowiek, reakcje emocjonalne pogarszały się dramatycznie (d = –0.53).
Natomiast gdy AI była opisywana jako bardziej precyzyjna, różnice znikały (d = –0.11).
To efekt tzw. competence framing. Pokazanie, że system jest sprawny, nie dehumanizuje – przeciwnie, budzi respekt i ulgę, że można na nim polegać.
Antropomorfizm
Dodanie ludzkiego akcentu – imienia, twarzy, głosu, mikroekspresji – redukuje dystans i obniża opór (z d = –0.23 do –0.07).
Nie chodzi jednak o udawanie człowieka, lecz o symboliczne ciepło.
Projektanci UX od dawna wiedzą, że empatia w interfejsie jest formą poznawczego „comfort food”. Tutaj liczby to potwierdzają. AI, która potrafi uśmiechnąć się w sposób przewidywalny, staje się łatwiejsza do zaakceptowania niż ta, która pozostaje bezosobowa i surowa.
4. Ewolucja postrzegania: rozum akceptuje szybciej niż serce
Czas działa na korzyść AI.
Analiza trendów czasowych pokazuje wyraźny, pozytywny kierunek. Im nowsze badania, tym słabszy efekt awersji.
Ale to, jak maleje opór, jest jeszcze ciekawsze.
Autorzy rozróżnili trzy typy reakcji konsumenckich: poznawcze, emocjonalne i behawioralne.
Reakcje poznawcze
Dotyczą racjonalnych ocen: „czy AI jest dokładna?”, „czy działa lepiej od człowieka?”.
Tutaj awersja zanikła niemal całkowicie. W ostatnich latach wskaźnik różnicy między oceną AI a człowieka wynosi d = 0.02 – czyli neutralnie.
Innymi słowy: wiemy, że AI potrafi być dobra.
Reakcje afektywne
Emocje, czyli komfort, zaufanie, niepokój to zupełnie inna historia.
Nawet przy wzroście kompetencji technologii, uczuciowy dystans utrzymuje się.
To dlatego użytkownicy potrafią zachwycać się AI w teorii, ale nie korzystać z niej w praktyce.
Reakcje behawioralne
Faktyczne działania - takie jak przyjęcie rekomendacji, zakup produktu, gotowość do zapłaty – również pozostają lekko negatywne (d = –0.22).
Ta rozbieżność między rozumem a emocjami jest kluczowa. Ludzie racjonalnie akceptują AI, ale emocjonalnie wciąż się wahają.
To właśnie tutaj wchodzi rola projektantów. Ich zadaniem nie jest już „udowadnianie skuteczności” systemu, lecz budowanie emocjonalnej przestrzeni zaufania – przez ton komunikacji, estetykę, rytm reakcji, sposób tłumaczenia decyzji.
Innymi słowy: explainability to nie tylko funkcja, to emocjonalny most.
Czy naprawdę mierzyliśmy opór, czy tylko go tworzyliśmy?
Jedno z najbardziej zaskakujących odkryć metaanalizy dotyczy... samych badań nad AI.
Autorzy odkryli, że siła negatywnych efektów maleje, gdy eksperyment jest bardziej realistyczny.
W badaniach, gdzie uczestnicy podejmowali realne decyzje (z konsekwencjami finansowymi lub funkcjonalnymi), efekt awersji niemal znikał (d = –0.16).
Podobnie, gdy zachowanie było mierzone bezpośrednio – a nie przez samoopis – różnice spadały do –0.14.
Za to w laboratoriach, gdzie uczestnicy mieli porównywać „człowieka vs. AI” w czysto teoretycznych scenariuszach, efekt był sztucznie zawyżony (–0.38).
To sugeruje, że część „dowodów” na awersję do AI była efektem samej konstrukcji eksperymentów.
Kiedy ludzi zmusza się do bezpośredniego porównania z maszyną, naturalnie bronią swojego statusu.
Ale w prawdziwym świecie – gdy AI jest po prostu narzędziem, nie rywalem – ta emocjonalna defensywa znika.
To ogromna lekcja metodologiczna: jak mierzymy postawy wobec AI, wpływa na ich wynik.
Dla praktyków oznacza to jedno: testujcie swoje systemy w realistycznych, ekosystemowych warunkach, nie w laboratoryjnej próżni. Bo prawdziwe emocje ujawniają się tylko w prawdziwych interakcjach.
Co to wszystko oznacza dla projektowania przyszłości AI
Z badań Zehnle i współautorów wynika coś bardzo optymistycznego: nie jesteśmy skazani na konflikt z AI.
Niechęć nie jest wrodzona. Jest projektowalna.
Dla twórców produktów i usług opartych na sztucznej inteligencji oznacza to, że:
- Kontekst jest królem. Wysokie ryzyko wymaga wysokiego poziomu kontroli człowieka.
- Kompetencja budzi zaufanie. Nie ukrywajmy, że AI jest lepsza w pewnych rzeczach – to nie groźba, to ulga.
- Ciepło humanizuje. Antropomorficzny akcent może być mostem, nie maską.
- Język ma moc. To, czy powiemy „system”, „asystent” czy „robot”, zmienia sposób, w jaki ludzie czują się wobec technologii.
- Realizm testów jest niezbędny. Prawdziwe emocje widać dopiero w prawdziwych decyzjach.
Projektowanie AI nie polega już tylko na dopasowywaniu interfejsu do człowieka. Chodzi o dopasowanie emocji, ról i odpowiedzialności między nimi.
.png)