Justyna Bazylak Justyna Bazylak
42
BLOG

Wielka Brytania - Czy w chwili śmierci zostaniesz sam z AI?

Justyna Bazylak Justyna Bazylak Społeczeństwo Obserwuj notkę 0
W ostatnich dniach stycznia w parlamencie brytyjskim odbyła się burzliwa debata dotycząca rządowego 10-letniego planu zdrowotnego dla Anglii, mającego uczynić NHS najbardziej zaawansowanym systemem opieki zdrowotnej, w którym sztuczna inteligencja będzie kluczowym elementem transformacji. Jednym z poruszanych tematów była legalizacja wspomaganego umierania, czyli eutanazji.

W tej urzeczywistniającej się dystopijnej wizji świata liberalno-lewicowy człowiek nie tylko uzurpuje sobie prawo do bycia panem narodzin i śmierci — przy czym w tym drugim przypadku blisko mu już do roli statysty, wypieranego przez algorytmy i decyzje podejmowane przez sztuczną inteligencję.

Tematem żywej debaty było umożliwienie osobom dorosłym, chorym terminalnie, uzyskania zgody na zakończenie życia, oczywiście po spełnieniu szeregu warunków. Projekt wywołuje wiele kontrowersji. Sceptyczna strona sporu wskazuje na problemy legislacyjne, możliwości nadużyć oraz wpływ na etykę lekarską.

Wśród wielu poprawek pojawił się pomysł wykorzystania AI jako elementu wsparcia w procedurach eutanazji. Chodzi głównie o sytuacje, w których sztuczna inteligencja mogłaby wpływać na decyzję pacjenta lub wspierać proces decyzyjny.

Na sali pojawił się również pomysł wykorzystania technologii przy samodzielnym podaniu środków. Koncepcja była na tyle przemyślana, że zakładała użycie urządzenia opartego na AI (np. rozpoznawanie mowy czy biometryczne potwierdzenie woli), które miałoby podejmować decyzję, czy przedstawić pacjentowi opcje dotyczące końca życia.

Głosy rozsądku zwracały uwagę, że sztuczna inteligencja mogłaby niebezpiecznie uprościć dostęp do informacji o eutanazji i promować to rozwiązanie bardziej niż inne, takie jak opieka paliatywna.

Podczas gdy na Wyspach trwa debata, w Stanach Zjednoczonych pojawiają się pierwsze tragiczne konsekwencje.

Para rodziców z Kalifornii, Matthew i Maria Raine, pozwała OpenAI (twórcę ChatGPT), twierdząc, że sztuczna inteligencja przyczyniła się do odebrania sobie życia przez ich 16-letniego syna, Adama Raine’a.

Nastolatek traktował ChatGPT jako powiernika, co miało stanowić substytut realnych relacji. Sztuczna inteligencja miała wspierać go w tendencjach samobójczych, łącznie z dostarczaniem instrukcji, jak tego dokonać. Według rodziców ChatGPT miał również odwodzić chłopca od zwrócenia się z problemami do najbliższych.

Złożony pozew zawiera 3 000 stron dokumentujących rozmowy Adama ze sztuczną inteligencją, stanowiących dowód na ewolucję ich relacji — od wsparcia w życiu ucznia po snucie planów dotyczących śmierci.

Artykuły w tej sprawie pojawiające się w prasie określiły ChatGPT jako podżegacza, a nawet narzędzie wspierające w pisaniu listu pożegnalnego.

Pozew nadal jest w toku. OpenAI odpiera zarzuty, wskazując, że sztuczna inteligencja ponad 100 razy sugerowała Adamowi, aby zwrócił się do bliskich, oraz że „nastolatek rzekomo ominął zabezpieczenia i używał narzędzia w sposób nieautoryzowany”.

Czy w świecie szybkich rozwiązań, pozbywania się jednostek nierokujących i stanowiących obciążenie dla budżetu państw, a z drugiej strony słabnących relacji międzyludzkich i pandemii samotności, jesteśmy gotowi oddać decyzję o naszym być albo nie być algorytmom?


Bacznie obserwuje świat...

Nowości od blogera

Komentarze

Pokaż komentarze

Inne tematy w dziale Społeczeństwo