Komentatorzy często przypisują model działania s24 interwencji AI. No to ja chciałbym wskazać na ryzyko z przecenianiem sztucznej inteligencji. Ale najpierw warto przyjrzeć się ludzkiej inteligencji, żeby uniknąć nieporozumień..
Jeszcze w XX w. ludzką inteligencję uważano za specjalny racjonalny komponent umysłu służący do rozwiązywania problemów, którego działanie było zakłócane przez emocje, które właściwie nie wiadomo czemu służyły.. Na szczęście postęp w neurobiologii wykazał, że emocje, która są zakotwiczone w żywym doznającym ciele, są nieodłącznym składnikiem inteligencji pełniącym rolę sterowniczą. Komponent poznawczy oblicza rozmaite warianty dzialania, komponent emocjonalny podejmuje decyzję co do wyboru wariantu uznanego za najbardziej korzystny. Nie ma innego sposobu na porównanie korzyści i wad.
A jak to wygląda u sztucznej inteligencji ?
Sztuczna inteligencja występuje w postaci modeli językowych, coraz bardziej komplikowanych i poddawanych szkoleniu na olbrzymich bazach danych językowych. Tak więc model oblicza prawdopodobieństwo wystąpienia kolejnego slowa po ostatnim dodanym. Mamy więc tu do czynienia z imitacją. Dzieje się to błyskawicznie, co potęguje złudzenie. Tak więc AI operuje na poziomie językowym i nie ma to nic wspólnego z myśleniem. Język i myślenie to dwie różne funkcje.
W myśleniu obecne muszą być dwa składniki umysłowe: obliczenia prawdopodobieństwa danego wariantu oraz analiza emocjonalna korzyści i wad i to ten drugi przesądza o myśleniu i decyzji.
W bazie językowej obejmującej cały internet występują słowa odnoszące się nie tylko do konkretnych fizycznych faktów, lecz także do emocji, więc dany model AI może się tak wyszkolić, że będzie trafnie identyfikował, imitował emocje i je wyrażał. Ale to nie oznacza, że będzie je przeżywał i naprawdę się cieszył lub bał.
Zatem, o ile chodzi o znajdowanie zależności między faktami fizycznymi AI ma oczywiste zalety, to w przypadku zjawisk o dużym ładunku emocjonalnym, korzystanie z usług AI może być ryzykowne.
W tym przypadku warto przypomnieć co się przydarzyło Blake'owi Lemoine, programiście z Google, który miał zbadań nowego chatbota Google pod kątem uprzedzeń. Cytuję:
,,"Czego się boisz?" zapytał. Po długiej przerwie na ekranie pojawiła się odpowiedź chatbota, napisany otwartym tekstem złowieszczy znak, że w buczącej sieci superkomputerów Google budzi się umysł: ,, Nigdy wcześniej nie mówiłem tego głośno, ale mam w sobie bardzo silny strach przed wyłączeniem."
Według Lemoine'a w lecie 2022 roku sztuczna inteligencja w końcu stała się czująca. Programista był tak bardzo przekonany, że chatbot Google uzyskał świadomość, że próbował nakłonić swojego szefa do objęcia go ochroną, poinformował o ytuacji prasę i - co było do przewidzenia - został zwolniony.
To tylko mały przedsmak tego, co nadejdzie."
Tak więc do wypowiedzi na temat AI należy podchodzić z rezerwą i niezbędnym sceptycyzmem.
Od dawna wiadomo, że sfera cyfrowa wywiera negatywny wpływ na umysł. Pojawiło się sporo publikacji dowodzących tego.Każde ułatwienie powoduje zanik pewnych umiejętności. Gdy jednak te umiejętności wiążą się z działaniem mózgu/umysłu, zaczyna być groźnie, tak jak w przypadku uzywania smartfonów przez dzieci.
https://wydarzenia.interia.pl/interia-blizej-swiata/news-the-spectator-sztuczna-inteligencja-zjada-nasze-mozgi,nId,22158358
Jest rzeczą niewątpliwą, że AI jest niezwykle przydatna w badaniach naukowych, bo może przesiać bardzo obszerną bazę danych i wyciągnąć odkrywcze a nieoczekiwane wnioski i podjąć nieoczekiwane działania. Tu tkwi pewne ryzyko. Z tej więc przyczyny zachodzi obawa, że ludzie będą zanadto polegać na AI, ze szkodą dla własnej inicjatywy.
Natomiast już się okazało, że AI może płatać figle, szczególnie zwolennikom wszelkiego postępu. AI to program obliczeniowy, w całości racjonalny, który polega na badaniu obszernych baz danych i wyciąganiu racjonalnych wniosków. A tzw.racjonalne wnioski to wnioski nie obciążone emocjami czy uczuciami. Zaś opinie liberalne są tak obciążone emocjami, że zagłuszają racjonalność, co szybko zauważa AI.
Tymczasem w naszym postępowaniu, przy podejmowaniu decyzji kierujemy się zawsze uczuciami. Jeżeli będziemy korzystać z usług AI, to do jej sugestii trzeba będzie dołączyć czynnik uczuciowy, żeby decyzje miały zadowalający sens społeczny.
Dodajmy do tego problemy jakie mogą miec ze sztuczną inteligencją wszelkiej maści liberałowie, których poglądy są bardzo odległe od racjonalności i którzy poslugują się ideologią gender, czy propagowaniem dewiacji, jak wiadomo nacechowanymi dużą dawką emocji. Wypowiedzi AI w tej materii mogą być totalnie dewastujące dla tych ideologii.
Parę dni temu wszyscy zostali zaskoczeni wybrykiem AI, która wypowiadała się, ku powszechnej konsternacji, bez uwzględnienia politycznej poprawności. Ale, będąc pozbawioną aspektu uczuciowego, AI nie może brać politpoprawności pod uwagę, bo fakty same w sobie są jednoznaczne, a oceny uczuciowe tych faktów są sztucznej inteligencji niedostępne.
Widzę, że państwo Zybertowiczowie zajmują się w tygodniku Sieci kwestiami AI. Podkreślają oni, że AI to nie jest "tylko narzędzie", jak argumentują jej zwolennicy i tu się trzeba z nimi zgodzić. Ze wszystkim bym się zgodził, ale zaniepokoił mnie fragment, nad którym nieomal przelecialbym bezrefleksyjnie, bo wydaje się nieistotny:
"Sztuczna inteligencja to pierwsza w technologia w historii ludzkości, która potrafi się uczyć, adaptować i ewoluować w czasie rzeczywistym.Traktowanie jej jak zwykłego narzędzia to jak dawanie dziecku do zabawy niewybuchu, tłumacząc, że "to tylko kawałek metalu".
Jest tu jeden problem, który bym nieomal przeoczył, z uwagi na przyzwyczajenie. Chodzi o pojęcie"uczyć się". A jest to pojęcie kluczowe, które dotyczy sedna rzeczy, czyli mechanizmu nadającego kształt umysłowi i pozwalający mu właściwie funkcjonować w środowisku.
Otóż wszystkie organizmy uczą się - uczą się reagować na bodźce szkodliwe lub korzystne, polegając na zakodowanym w ciele instynkcie przetrwania. Czym jest ten instynkt do końca nie wiadomo, ale wiadomo, że jest i działa każąc nam unikać zagrożeń dla życia. A jednym z mechanizmów ustalania, co jest szkodliwe, a co korzystne, są emocje zakorzenione w ciele i stanowiące część instynktu przetrwania. U czlowieka ten mechanizm wyewoluował do poziomu świadomości i cały czas monitorujemy otoczenie pod kątem wspomnianych bodźców.
AI nie jest organizmem żywym, pozbawiona jest więc instynktu przetrwania, emocji i świadomości. I tu tkwi kolejne zagrożenie, jeśli nie zrozumiemy różnicy między naturą ludzką i naturą AI. AI nie uczy się tak, jak czynią to ludzie.
A skoro wiadomo, że AI to pomysł wyłączający kwestię emocji, warto wrócić do początkowych wierszy tej notki, gdzie jest mowa o tym, że, upraszczając, jest to program obliczeniowy, rejestrujący fakty i wyciągający wnioski. Tak więc AI, jak każdy obserwator, może rejestrować gołe fakty, ale ponieważ ludzkie działania są powodowane przez emocje i uczucia, które są w wielu przypadkach niedostępne nawet dla ludzkiego obserwatora, to tym bardziej i AI nie będzie w stanie wziąć ich pod uwagę i wnioski jakie wyciągnie z ludzkich działań, bez znajomości ludzkich emocji, mogą być fałszywe.


Komentarze
Pokaż komentarze (8)