Autonomia człowieka a transparentność w projektowaniu produktów opartych na sztucznej inteligencji

Autonomia człowieka, czyli zdolność do samodzielnego podejmowania decyzji i kontroli nad własnym życiem, jest kluczowym elementem w kontekście projektowania produktów opartych na sztucznej inteligencji. W badaniach nad AI i etyką wskazuje się, że transparentność działania AI stanowi fundament odpowiedzialnego podejścia do technologii, które szanuje wolność użytkowników. Badania sugerują, że „AI, mimo że nie jest agentem moralnym, powinna działać zgodnie z normami, które nazywamy ‘normami, które powinny być’,” tak aby nie ograniczała ludzkiej autonomii, a wręcz ją wspierała.

Wymiary autonomii człowieka w projektowaniu AI

Badania opisują autonomię człowieka jako wielowymiarowy koncept, obejmujący:

  1. Zdolności do samostanowienia – autonomia wymaga, aby jednostka miała rozwinięte zdolności do samodzielnego podejmowania decyzji i działania w zgodzie ze swoimi wartościami.
  2. Uznanie społeczne – poszanowanie decyzji jednostki przez otoczenie wzmacnia jej autonomię.
  3. Szacunek do samego siebie – osoba musi mieć pozytywną relację ze sobą, aby czuć się niezależną.
  4. Realizacja autonomii – autonomia nie jest tylko potencjalną zdolnością, ale faktycznym wykonywaniem decyzji w życiu codziennym.
  5. Zasoby materialne i informacyjne – autonomia wymaga dostępu do niezbędnych informacji, aby podejmować świadome decyzje.

Dla twórców produktów opartych na AI, rozważanie tych wymiarów autonomii pozwala stworzyć rozwiązania, które wspierają wolność użytkowników, zamiast ją ograniczać.

Transparentność jako kluczowy wymóg w projektowaniu AI

Transparentność to zdolność systemu AI do bycia przejrzystym i zrozumiałym dla użytkownika. Oznacza to, że:

  • Mechanizmy podejmowania decyzji AI powinny być dostępne dla użytkowników – AI nie powinna działać jak „czarna skrzynka”, gdzie użytkownik nie rozumie, dlaczego otrzymał daną rekomendację czy wynik. Przejrzystość w działaniu AI pozwala użytkownikom ocenić, w jaki sposób dany system wpływa na ich decyzje, co jest kluczowe dla ochrony autonomii.
  • Wyjaśnienie, jak dane są przetwarzane – użytkownik powinien mieć dostęp do informacji o tym, jakie dane są wykorzystywane przez AI i jakie kroki podejmuje system, aby zapewnić ich bezpieczeństwo i zgodność z intencjami użytkownika. Jest to szczególnie istotne w przypadku systemów, które personalizują treści, takie jak rekomendacje w mediach społecznościowych czy reklamy.

W badaniu sugeruje się, że „brak przejrzystości może prowadzić do manipulacji i przymusu, co obniża autonomię jednostki”. Dlatego transparentność powinna być priorytetem w projektowaniu produktów AI, zwłaszcza jeśli mają one istotny wpływ na decyzje użytkowników (2).

Zastosowanie transparentności w praktyce projektowania produktów AI

Projektowanie produktów AI w sposób transparentny może przebiegać w kilku krokach:

  1. Edukacja użytkownika – użytkownicy powinni być informowani o tym, jak działają rekomendacje lub personalizowane treści. Informacje te mogą być dostarczane poprzez interaktywne tutoriale, które wyjaśniają zasady funkcjonowania AI (zawsze pamiętaj o kontekście, bez kopiowania rozwiązań copy-paste).
  2. Udostępnienie narzędzi kontroli – systemy rekomendacji mogą oferować opcje dostosowywania, aby użytkownicy mogli wybierać, jakie aspekty personalizacji im odpowiadają.
  3. Przyjazne dla użytkownika wyjaśnienia – AI powinna prezentować wyniki w sposób zrozumiały i przejrzysty, unikając skomplikowanego żargonu technicznego. Przykładowo, zamiast przedstawiać szczegóły algorytmów, AI może wyjaśnić użytkownikowi, że rekomendacja bazuje na podobnych wyborach innych użytkowników o podobnych preferencjach.

Transparentność w projektowaniu produktów AI jest kluczowa dla ochrony autonomii człowieka. Produkty, które umożliwiają użytkownikom zrozumienie i kontrolowanie rekomendacji AI, wspierają ich zdolność do podejmowania świadomych decyzji. Twórcy AI, poprzez zapewnienie przejrzystości, nie tylko budują zaufanie, ale także chronią wolność użytkowników, pomagając im w pełnym korzystaniu z autonomii.

W miarę jak rozwija się sztuczna inteligencja, pojawia się coraz więcej dyskusji o jej wpływie na ludzkość, szczególnie w kontekście manipulacji i autonomii. W szczególności projekt AI Act (AIA) wprowadza przepisy, które mają zapobiegać stosowaniu technik subliminalnych, czyli metod wywierania wpływu na ludzkie zachowanie, które mogą prowadzić do szkód fizycznych lub psychicznych. Jak stwierdzono w artykule, „podejścia subliminalne są etycznie istotne, ponieważ brak świadomości co do sposobów, w jakie jesteśmy wpływani, może zagrozić naszej zdolności do samorządzenia i, w rezultacie, naszej autonomii.

Zagrożenia dla autonomii człowieka

Techniki subliminalne mogą wpływać na decyzje i przekonania jednostek, wykorzystując nieświadome mechanizmy psychologiczne. W wielu przypadkach takie działanie może obniżać autonomię człowieka, ponieważ nie jest on świadomy procesu wpływu, który na niego oddziałuje. Jak wspomniano, „techniki wpływu mogą być problematyczne dla autonomii nie tylko wtedy, gdy osoba jest nieświadoma bodźca, ale także gdy brakuje jej świadomości efektów bodźca na jej zachowanie”.

Ograniczenia wąskiej definicji technik subliminalnych

Wąska definicja technik subliminalnych (oparta jedynie na wpływie bodźców poniżej progu świadomości) jest krytykowana, ponieważ może nie obejmować innych technik AI, które również mogą naruszać autonomię jednostki. Na przykład systemy rekomendacji i silniki wyszukiwania mogą kształtować przekonania i decyzje użytkowników, mimo że użytkownik nie jest świadomy ich wpływu.

Szersze podejście do definicji technik subliminalnych

Zamiast ograniczać się jedynie do nieświadomych bodźców, szersza definicja technik subliminalnych powinna obejmować sytuacje, w których:

  1. Użytkownik nie jest świadomy, że wpływa się na niego.
  2. Użytkownik nie rozumie, w jaki sposób ta technika wpływa na jego decyzje.
  3. Efekty tej techniki są poza jego kontrolą i mogą wpływać na jego autonomię.

Rekomendacje dla projektantów i organizacji

  1. Regularna ocena etyczna - organizacje powinny regularnie oceniać etyczność stosowanych technik AI oraz ich potencjalny wpływ na autonomię użytkowników.
  2. Transparentność działania - AI powinno być projektowane z myślą o przejrzystości, aby użytkownicy byli świadomi wpływu, jaki system wywiera na ich zachowanie.
  3. Kontrola użytkownika - użytkownicy powinni mieć możliwość kontrolowania sposobu, w jaki AI wpływa na ich decyzje, np. poprzez wprowadzenie opcji dostosowywania poziomu personalizacji.
  4. Unikanie manipulacji - firmy powinny unikać technik wpływania na użytkowników, które prowadzą do zmiany ich zachowań bez pełnej świadomości, w tym poprzez techniki nudgingu bazujące na profilowaniu psychologicznym.

Techniki subliminalne stanowią wyzwanie etyczne w kontekście AI, ponieważ mogą naruszać autonomię użytkowników. Regulacje, takie jak projekt AI Act, oraz odpowiedzialne praktyki projektowe mogą pomóc w zmniejszeniu ryzyka wynikającego z nieświadomej manipulacji. I miejmy nadzieję, że nie ograniczą nas w innowacji i kreatywności.

Laitinen A, Sahlgren O. AI Systems and Respect for Human Autonomy. Front Artif Intell. 2021 Oct 26;4:705164. doi: 10.3389/frai.2021.705164. PMID: 34765969; PMCID: PMC8576577.

Jeśli zastanawiasz się jak budować XAI bazując na:
• kontekście użycia i perspektywy interesariuszy,
• etycznym i odpowiedzialnym podejściem na każdym etapie wytwarzania produktu,
• projektowaniu doświadczeń, zachowań i transparetnego wpływu,
• procesie podejmowania decyzji bez manipulacji na podstawie nauk behawioralnych z przełożeniem na interakcje,
• zmieniających się regulacjach i prawie,

pomożemy Ci to zrobić! Sprawdź https://www.kasiaszczesna.pl/ethical-ai-human-behaviour 😉