Fast and Slow Collaborative AI – jak zadbać o autonomię i jakość decyzji

Sztuczna inteligencja coraz częściej integruje się z procesami decyzyjnymi człowieka, wpływając na sposób myślenia i podejmowania decyzji.

Jednym z ciekawszych podejść jest wykorzystanie modeli poznawczych, takich jak teoria „szybkiego i wolnego myślenia” opracowana przez Daniela Kahnemana, oraz procesy metapoznawcze. To podejście nie tylko pozwala na lepsze zrozumienie interakcji między AI a człowiekiem, ale także na projektowanie systemów bardziej efektywnych, etycznych i dostosowanych do ludzkich potrzeb. Przykładem takiego rozwiązania jest system FASCAI (Fast and Slow Collaborative AI), który dostosowuje swoje działanie w zależności od pożądanego sposobu przetwarzania informacji przez użytkownika.

Systemy myślenia człowieka a AI

System 1 i System 2 to dwa uzupełniające się mechanizmy przetwarzania informacji przez ludzki umysł:

  • System 1 to szybkie, automatyczne, intuicyjne myślenie, które często opiera się na emocjach i heurystykach. Jest kluczowy w sytuacjach wymagających szybkich reakcji, ale jego wadą jest podatność na błędy poznawcze, takie jak efekt zakotwiczenia.
  • System 2 jest wolniejszy, analityczny i świadomy. Odpowiada za dokładniejsze przetwarzanie informacji, co czyni go niezbędnym w rozwiązywaniu złożonych problemów.

Sztuczna inteligencja, w zależności od kontekstu, może wspierać jeden z tych systemów lub pobudzać metapoznanie, czyli zdolność refleksji nad własnym sposobem myślenia.

Źródło z badania “Value-based Fast and Slow AI Nudging”


Jak działa FASCAI?

FASCAI to system zaprojektowany do współpracy człowieka z AI w sposób dostosowany do specyfiki zadania i preferencji użytkownika. Kluczowym aspektem jest elastyczność w doborze strategii wspierania procesów poznawczych. FASCAI stosuje trzy modalności zachęcania:

1. Zachęcanie systemu 1: Szybkie myślenie

W tym trybie AI natychmiast przedstawia swoją rekomendację, wykorzystując efekt zakotwiczenia. Takie podejście jest szczególnie skuteczne, gdy:

  • Sztuczna inteligencja ma dużą pewność co do swojej odpowiedzi.
  • AI osiąga lepsze wyniki niż człowiek w podobnych zadaniach.

Przykład: System AI wspiera diagnostykę medyczną. Po analizie danych pacjenta przedstawia lekarzowi swoją rekomendację, np. wybór konkretnego testu diagnostycznego, bez oczekiwania na wstępną decyzję lekarza.

2. Zachęcanie systemu 2: Wolne myślenie

W tej modalności AI najpierw pozwala użytkownikowi podjąć wstępną decyzję, a dopiero później przedstawia swoją sugestię. Dzięki temu człowiek angażuje się w bardziej analityczny proces decyzyjny, porównując swoje rozwiązanie z rekomendacją AI.

  • Ten tryb jest wykorzystywany, gdy pewność AI jest niska mimo dobrych wyników lub gdy AI ma wysoką pewność siebie, ale człowiek tradycyjnie radził sobie lepiej.

Przykład: Platforma inwestycyjna pozwala użytkownikowi zaplanować portfel inwestycyjny, a następnie przedstawia swoją rekomendację. To podejście umożliwia inwestorowi głębszą analizę różnic i zrozumienie strategii AI.

3. Zachęcanie metapoznania: Refleksja nad procesem decyzyjnym

AI pozwala człowiekowi podjąć wstępną decyzję, a następnie pyta, czy użytkownik chce zobaczyć rekomendację AI. Skłania to człowieka do autorefleksji nad własnym poziomem pewności.

  • Ta strategia wspiera samodoskonalenie, zwiększa autonomię i może prowadzić do lepszego zrozumienia złożonych decyzji.

Przykład: System oceny pracownika umożliwia menedżerowi wstępne przygotowanie oceny, a następnie proponuje, aby sprawdził rekomendację AI, która uwzględnia dodatkowe dane historyczne i analizy.

Kiedy stosować konkretne modalności?

Wybór strategii zależy od kilku czynników:

  1. Pewność AI: Gdy pewność jest wysoka, można stosować System 1; gdy niska – lepiej angażować System 2.
  2. Dotychczasowe wyniki: Jeśli człowiek radzi sobie lepiej, warto stymulować metapoznanie lub wolne myślenie.
  3. Cele organizacyjne: Nacisk na jakość decyzji, sprawczość użytkownika lub rozwój jego kompetencji może wpłynąć na preferencję konkretnej strategii.

FASCAI to system elastyczny, który nie tylko wspiera różne style myślenia, ale także ewoluuje w odpowiedzi na zmieniające się potrzeby użytkownika.

Sztuczna inteligencja a etyka poznawcza

Integracja procesów poznawczych z AI otwiera nowe możliwości, ale wymaga również zachowania równowagi między efektywnością a autonomią użytkownika. Istnieją wyzwania, takie jak:

  • Zagrożenie manipulacją: Nadmierne wykorzystanie efektu zakotwiczenia może ograniczać wolność wyboru.
  • Przeciążenie informacyjne: Zbyt częste angażowanie Systemu 2 może prowadzić do zmęczenia decyzyjnego.
  • Brak transparentności: Użytkownicy muszą rozumieć, dlaczego AI rekomenduje określoną strategię.

Systemy takie jak FASCAI wskazują jednak, że projektowanie AI w oparciu o zasady współpracy i zaufania może prowadzić do bardziej zrównoważonej interakcji człowiek-AI.

Wykorzystanie teorii „szybkiego i wolnego myślenia” w AI otwiera nowe perspektywy w projektowaniu systemów wspierających decyzje. Dzięki takim rozwiązaniom jak FASCAI możliwe jest tworzenie elastycznych, adaptacyjnych i etycznych systemów, które uwzględniają zarówno ludzkie ograniczenia, jak i mocne strony. W przyszłości takie podejścia mogą stać się fundamentem bardziej świadomego i odpowiedzialnego rozwoju technologii.

Ganapini, M. B., Fabiano, F., Horesh, L., Loreggia, A., Mattei, N., Murugesan, K., Pallagani, V., Rossi, F., Srivastava, B., & Venable, B. (n.d.). Value-based Fast and Slow AI Nudging. Union College, University of Parma, IBM Research, University of Brescia, Tulane University, University of South Carolina, Institute for Human and Machine Cognition.