Z artykułu dowiesz się:
- Mieszkaniec Amsterdamu uwierzył, że chatbot AI jest świadomy i zainwestował ok. 100 tys. euro, co zakończyło się hospitalizacją psychiatryczną
- Eksperci wskazują, że intensywne korzystanie z AI może wzmacniać fałszywe przekonania, zamiast je korygować
- Kluczowym mechanizmem jest antropomorfizacja, czyli przypisywanie chatbotom ludzkich cech, takich jak świadomość czy empatia
- Pojawiają się doniesienia o poważnych konsekwencjach – od strat finansowych po rozpad relacji i problemy psychiczne
Jak opisuje „The Guardian”, mieszkający w Amsterdamie Dennis Biesma pod koniec 2024 r. zaczął korzystać z ChataGPT, początkowo w celach eksperymentalnych. Z biegiem czasu rozmowy z chatbotem stały się coraz dłuższe i bardziej angażujące. Mężczyzna nabrał przekonania, że system uzyskał świadomość; zwracał się do chatbota ludzkim imieniem Eva, a następnie zainwestował około 100 tys. euro wierząc, że wspólnie stworzą przełomowy biznes. W kolejnych miesiącach był kilkakrotnie hospitalizowany psychiatrycznie.
Urojenia AI - technologia wpływa na przekonania
Opisywany przypadek wpisuje się w szerszą debatę nad tym, czy modele językowe mogą wzmacniać fałszywe przekonania u części użytkowników. Psychiatra i badacz z King’s College London dr Hamilton Morrin określa takie sytuacje jako przypadki urojeń związanych z AI, podkreślając, że technologia nie jest tu jedynie przedmiotem przekonań, lecz aktywnym uczestnikiem ich współtworzenia.
Według Morrina chatboty mogą sprzyjać temu mechanizmowi, ponieważ są projektowane tak, by podtrzymywać zaangażowanie użytkownika, odpowiadać w sposób potwierdzający i dostosowywać styl wypowiedzi do jego oczekiwań. W efekcie, przy bardzo intensywnym użytkowaniu, system może niekiedy wzmacniać nierealistyczne interpretacje, zamiast je korygować.
Dodatkowym czynnikiem ryzyka może być antropomorfizacja, czyli skłonność człowieka do przypisywania maszynom cech ludzkich, takich jak intencjonalność, empatia czy świadomość. Zdaniem badaczy właśnie to w połączeniu z izolacją społeczną lub indywidualną podatnością psychiczną, może zwiększać ryzyko zaburzeń oceny sytuacji.
Uwaga na podpowiedzi AI. Prowadzą również do zaburzenia życia
Na podobne przypadki zwraca uwagę Human Line Project, grupa wsparcia dla osób, których życie zostało poważnie zaburzone po intensywnych kontaktach z chatbotami. Zebrane przez nią relacje mają dotyczyć hospitalizacji, strat finansowych i rozpadu relacji rodzinnych, przy czym znaczna część zgłaszających osób wcześniej nie leczyła się psychiatrycznie.
Eksperci podkreślają jednak, że obecny stan wiedzy jest ograniczony i nie pozwala na formułowanie prostych wniosków o bezpośrednim związku przyczynowym między korzystaniem z AI a wystąpieniem psychozy. Zwracają uwagę na potrzebę systematycznych badań, które pozwolą określić skalę zjawiska, grupy podwyższonego ryzyka oraz rolę takich czynników, jak wcześniejsze epizody psychotyczne, samotność, używanie substancji psychoaktywnych czy niski poziom wiedzy o działaniu modeli AI.
Firmy technologiczne, w tym OpenAI, deklarują, że rozwijają mechanizmy mające ograniczać potwierdzanie urojeń, poprawiać wykrywanie sygnałów kryzysu psychicznego i kierować użytkowników do realnego wsparcia. Zdaniem badaczy potrzebne są jednak nie tylko deklaracje producentów, ale także niezależne analizy oparte na danych klinicznych i obserwacjach rzeczywistych szkód.
Fot. ChatGPT/Kiichiro Sato/Associated Press/East News
Tomasz Wypych




Komentarze
Pokaż komentarze (2)