05 Gru 2025 • 10 min

Projektowanie zachowań zamiast ślepego wdrażania: jak zwiększyć szanse na sukces inwestycji.

Różnica między oczekiwanymi a rzeczywistymi rezultatami rzadko wynika z błędów technicznych. Częściej z ignorowania ludzkich zachowań.

Abstrakcyjna okładka bloga

Przez lata na konferencjach biznesowych i w raportach branżowych powtarzano jedną obietnicę: Sztuczna inteligencja odmieni świat pracy. Firmy zaczęły inwestować w nią coraz śmielej, przekonane, że dzięki niej staną się bardziej konkurencyjne, szybsze i lepiej zorganizowane.A jednak rzeczywistość okazała się znacznie bardziej złożona.

Badania MIT pokazują, że nawet 95% projektów AI nie przynosi oczekiwanych rezultatów, a globalny raport Boston Consulting Group wskazuje, że zaledwie jedna na cztery firmy widzi realny zwrot z inwestycji. Liderzy zaczęli więc zadawać pytanie, które coraz częściej wraca jak echo:„Dlaczego to nie działa, skoro technologia jest tak dobra?” Odpowiedź brzmi: bo wdrażamy rozwiązania technologiczne, bez projektowaniania ich. A co więcej - ignorujemy ludzkie zachowania.

Kiedy AI trafia do organizacji, zderza się z ludzką naturą

W większości firm wdrożenie AI wygląda podobnie: kupujemy narzędzie, konfigurujemy je, tworzymy instrukcje i liczymy, że ludzie zaczną z niego korzystać. W teorii brzmi to rozsądnie. W praktyce kończy się oporem, brakiem zaufania, omijaniem funkcji lub… całkowitym porzuceniem systemu.

Dlaczego tak się dzieje?

Bo człowiek nie jest maszyną, która przyjmuje nowe rozwiązania bez emocji i bez nawyków. Przeciwnie. Nasze myślenie jest pełne uprzedzeń i mechanizmów obronnych. Psychologia behawioralna od dziesięcioleci pokazuje, że kiedy mamy zmienić sposób pracy, kierują nami:

  • strach przed stratą (ważniejszy niż wizja korzyści),
  • preferencja dla starego, znanego sposobu działania,
  • brak zaufania do narzędzi, których nie rozumiemy,
  • tendencja do wyolbrzymiania pojedynczych błędów technologii.

Widzimy to w wielu branżach. Na przykład w medycynie lekarze często ignorowali kliniczne narzędzia wspierające decyzje. Nie dlatego, że miały słabe wyniki, ale dlatego, że… wyświetlane alerty zakłócały rutynę. Badacze zauważyli, że postrzegana strata czasu była silniejsza niż realny zysk dla pacjenta.

To jeden z wielu dowodów, że w AI najtrudniejsza nie jest inżynieria. Najtrudniejsza jest zmiana zachowań.

Ludzie nie ufają algorytmom i mają ku temu psychologiczne powody

W kilku kluczowych badaniach (m.in. Dietvorst, Simmons & Massey 2015) wykazano, że ludzie odrzucają algorytmy po zobaczeniu jednego błędu, choć te same osoby tolerują wiele błędów ludzkich. To zjawisko nazwano algorytmiczną awersją.

Inne badania pokazują, że użytkownicy bardziej ufają człowiekowi niż AI, nawet jeśli człowiek ma gorszą skuteczność. W jednym z eksperymentów pacjenci deklarowali, że lepiej rozumieją rozumowanie lekarza, choć w rzeczywistości… nie mieli do niego dostępu. AI była natomiast dla wielu z nich czarną skrzynką, więc z góry budziła niechęć.

Nic dziwnego, że pracownicy w firmach zachowują się podobnie.

Nieświadomie preferujemy ludzkie błędy od nieludzkiej dokładności.

Tam, gdzie firmy powinny widzieć ludzi, widzą technologię

W badaniu Foundry aż 71% CIO stwierdziło, że odpowiada za rozwój AI w firmie, ale tylko 32% uważało, że powinni kierować transformacją organizacyjną. To pokazuje fundamentalny problem:

AI jest traktowana jako projekt IT, a nie projekt zmiany nawyków i kultury pracy.

Co gorsza, nawet kiedy firmy zbierają opinie pracowników, zwykle robią to po fakcie, kiedy narzędzie już powstało, a możliwości jego modyfikacji są ograniczone. Wtedy wdrożenie przypomina bardziej kampanię marketingową niż proces wsłuchiwania się w potrzeby ludzi.

Gdzie zacząć, jeśli chcemy, żeby AI była naprawdę używana?

Nauki behawioralne podpowiadają, że wdrożenie AI ma sens tylko wtedy, gdy obejmuje trzy etapy:

1. Projektowanie: tworzenie narzędzia tak, jak myślą użytkownicy

Dobre rozwiązanie AI to nie tylko dokładność modelu i funkcje techniczne. To również:

  • sposób, w jaki wyświetlane są informacje,
  • intuicyjność działań,
  • poziom wysiłku, jaki musi włożyć użytkownik,
  • jego poczucie kontroli.

Badania Alter & Oppenheimer pokazały, że nawet tak drobna rzecz jak trudniejsza czcionka może wpływać na to, jak dokładnie czytamy tekst. To dowód, że behawioryści powinni siedzieć przy tym samym stole co projektanci i inżynierowie.

Kolejny przykład: gdyby firmy testowały narzędzia na bardziej zróżnicowanych użytkownikach, uniknęlibyśmy sytuacji, w której systemy rozpoznawania mowy mają dwa razy więcej błędów u jednych grup niż u innych (badanie z 2020 r.).

Projektowanie z perspektywy różnych ludzi jest fundamentem skutecznego wdrożenia.

2. Wdrożenie: budowanie zaufania, nie presji

Nie wystarczy „oddawać narzędzie do użytku”. Trzeba stworzyć warunki, w których użytkownik poczuje się bezpiecznie.

Badania w ochronie zdrowia pokazują ciekawą prawidłowość:

gdy lekarze otwarcie mówili pacjentom o ograniczeniach AI, ci… ufali jej bardziej. Transparentność okazała się skuteczniejsza niż marketingowe hasła o nieomylności technologii.

Podczas wdrażania warto więc:

  • wyjaśniać, jak działa model,
  • pokazywać, czym AI się myli i dlaczego,
  • podkreślać, że ma wspierać, a nie zastępować ludzi,
  • dać pracownikom poczucie wpływu.

AI staje się wtedy nie zagrożeniem, lecz partnerem.

3. Zarządzanie: liderzy muszą walczyć z własnymi uprzedzeniami

Zaskakujące, ale to liderzy (nie pracownicy ) częściej sabotują projekty AI, choć nieświadomie.

Dwóm błędom poznawczym ulegają szczególnie:

  • nadmierna pewność siebie („Nie potrzebujemy pilotażu, wiemy, że to zadziała”),
  • eskalacja zaangażowania („Skoro już wydaliśmy 2 mln, to dołóżmy jeszcze jeden projekt”).

To prowadzi do sytuacji, w której firmy trwają przy rozwiązaniach, których nikt nie używa.

Liderzy, którzy naprawdę chcą, by AI działała, muszą:

  • przyznać się do własnych uprzedzeń,
  • otoczyć się ekspertami od behawioralnego podejścia do zmiany,
  • regularnie mierzyć zaufanie i satysfakcję pracowników,
  • być gotowi na korektę kursu, a nawet zakończenie projektu.

AI działa tylko wtedy, gdy działa dla ludzi

Technologia sama w sobie nie gwarantuje sukcesu. Ostatecznie o tym, czy AI przyniesie wartość biznesową, decyduje to, jak człowiek ją widzi, rozumie, interpretuje i włącza w codzienną pracę.

Dlatego najskuteczniejsze podejście do AI to takie, które:

  • uwzględnia ludzkie błędy poznawcze,
  • przewiduje emocje, nawyki i reakcje,
  • buduje zaufanie, a nie strach,
  • angażuje użytkowników od samego początku,
  • stale uczy się na podstawie zachowań ludzi.

Sukces nie polega na tym, by stworzyć najbardziej zaawansowaną technologię. Sukces polega na stworzeniu technologii, która współpracuje z człowiekiem i z jego lękami, przyzwyczajeniami, ograniczeniami i potrzebami.