XAI pomaga budować zrównoważone zaufanie

Wyobraź sobie, że korzystasz z aplikacji opartej na sztucznej inteligencji, która pomaga Ci podejmować ważne decyzje – finansowe, zawodowe czy zdrowotne. System działa świetnie, dopóki... nie popełni błędu. Jak wtedy reagujesz? Tracisz zaufanie do AI i wracasz do ręcznego podejmowania decyzji? A może chcesz zrozumieć, co się wydarzyło? Tutaj wkracza na scenę XAI – Explainable AI, czyli wyjaśnialność w sztucznej inteligencji.

W ostatnich latach XAI zyskała ogromną uwagę badaczy i praktyków, którzy starają się uczynić systemy AI bardziej przejrzystymi, zrozumiałymi i odpowiedzialnymi. Ostatnie badania dostarczają nowych, fascynujących danych na temat tego, jak wyjaśnienia wpływają na zaufanie użytkowników, ich decyzje i skłonność do korzystania z algorytmów. Przyjrzyjmy się bliżej.

Najnowsze badania skoncentrowało się na tym, jak wyjaśnialność systemów opartych na AI wpływa na awersję do algorytmów (ang. algorithm aversion), czyli tendencję ludzi do unikania korzystania z decyzji algorytmicznych po popełnieniu przez nie błędów.

Przeprowadzono dwa eksperymenty:

  1. Pierwszy eksperyment sprawdzał, czy wyjaśnialność systemu zmienia sposób, w jaki użytkownicy postrzegają błędy AI. Czy lepiej rozumieją przyczyny błędów? Czy są bardziej skłonni zaufać algorytmowi mimo jego pomyłek?
  2. Drugi eksperyment badał, jak XAI wpływa na żal decyzyjny użytkowników, czyli poczucie, że mogli podjąć lepszą decyzję, gdyby nie zaufali AI.

Kluczowe wyniki badań

1. Wyjaśnialność redukuje awersję do algorytmów.

  • W warunkach z XAI uczestnicy byli bardziej skłonni polegać na inteligentnym agencie (systemie AI), nawet jeśli popełnił on błędy. Dlaczego? Wyjaśnienia pozwalały im zrozumieć, dlaczego błąd wystąpił i jakie były ograniczenia systemu.
  • W warunkach bez XAI błędy algorytmu prowadziły do znacznie większej utraty zaufania.

2. XAI pomaga budować zrównoważone zaufanie.

  • Co ciekawe, XAI nie zwiększa początkowego zaufania do AI – użytkownicy z wyjaśnieniami mieli początkowo niższe zaufanie do systemu niż ci, którzy ich nie otrzymali. To może wydawać się sprzeczne z intuicją, ale wyjaśnienia pozwalały użytkownikom bardziej realistycznie ocenić ograniczenia AI.
  • Efekt ten był korzystny: użytkownicy nie ufali AI ślepo, ale też nie tracili całkowicie zaufania po zaobserwowaniu błędów.

3. Wyjaśnialność zmniejsza żal decyzyjny.

  • Żal decyzyjny to uczucie, że można było podjąć lepszą decyzję, gdybyśmy postąpili inaczej. Uczestnicy w warunkach XAI odczuwali znacznie mniej żalu po podjęciu decyzji przy wsparciu AI.
  • Dlaczego? Wyjaśnienia pozwalały im uzasadnić swoje decyzje i zrozumieć, że były one racjonalne na podstawie dostępnych informacji.

4. Brak uniwersalnej awersji do algorytmów.

  • W kontekstach, gdzie system AI działał dobrze, a błędy nie występowały, uczestnicy nie tylko nie unikali algorytmów, ale wręcz zwiększali swoje zaufanie do nich. To pokazuje, że awersja do algorytmów nie jest uniwersalnym zjawiskiem – jej wystąpienie zależy od kontekstu i doświadczeń użytkowników.


Co to oznacza w praktyce?

Badania pokazują, że wyjaśnialność ma kluczowe znaczenie dla budowania zdrowej relacji między użytkownikami a systemami AI. Oto kilka praktycznych wniosków:

  1. Projektowanie zrównoważonego zaufania.
    • Zamiast budować ślepe zaufanie, systemy AI powinny dostarczać użytkownikom informacji o swoich ograniczeniach i błędach. Takie podejście pomaga użytkownikom podejmować lepsze decyzje i długoterminowo budować zaufanie do technologii.
  2. Minimalizacja żalu decyzyjnego.
    • Wyjaśnienia pozwalają użytkownikom lepiej zrozumieć proces podejmowania decyzji przez AI, co zmniejsza negatywne emocje po ewentualnych błędach.
  3. Kontekst ma znaczenie.
    • Awersja do algorytmów nie występuje w każdym przypadku. Projektanci muszą brać pod uwagę, jak różne grupy użytkowników i różne scenariusze decyzyjne wpływają na ich postrzeganie AI.

Co dalej?

Chociaż wyniki tych badań są obiecujące, autorzy zwracają uwagę na kilka ograniczeń:

  • Uczestnikami badań byli głównie studenci, którzy mogą bardziej ufać technologii niż osoby z większym doświadczeniem zawodowym.
  • Analizowano tylko jeden typ zadania (zarządzanie zamówieniami). Inne konteksty, jak decyzje finansowe czy medyczne, mogą przynieść inne wyniki.

Dlatego konieczne są dalsze badania, które uwzględnią różnorodne populacje i sytuacje decyzyjne - pamiętaj o tym!

XAI to nie tylko narzędzie do budowania zaufania do sztucznej inteligencji – to fundament bardziej odpowiedzialnego i etycznego korzystania z AI. Wyjaśnialność pomaga użytkownikom lepiej rozumieć ograniczenia technologii, redukuje negatywne emocje związane z błędami i buduje bardziej świadome relacje z algorytmami.

Czy przyszłość AI będzie oparta na XAI? Wszystko wskazuje na to, że tak. W miarę jak systemy AI stają się coraz bardziej zaawansowane i wszechobecne, wyjaśnialność stanie się kluczowym elementem budowania zaufania i odpowiedzialności w technologii.

Jeśli zastanawiasz się jak budować XAI bazując na:
• kontekście użycia i perspektywy interesariuszy,
• etycznym i odpowiedzialnym podejściem na każdym etapie wytwarzania produktu,
• projektowaniu doświadczeń, zachowań i transparetnego wpływu,
• procesie podejmowania decyzji bez manipulacji na podstawie nauk behawioralnych z przełożeniem na interakcje,
• zmieniających się regulacjach i prawie,

pomożemy Ci to zrobić! Sprawdź https://www.kasiaszczesna.pl/ethical-ai-human-behaviour 😉