Od dawna wiadomo, że sfera cyfrowa wywiera negatywny wpływ na umysł. Pojawiło się sporo publikacji dowodzących tego.Każde ułatwienie powoduje zanik pewnych umiejętności. Gdy jednak te umiejętności wiążą się z działaniem mózgu/umysłu, zaczyna być groźnie, tak jak w przypadku uzywania smartfonów przez dzieci.
https://wydarzenia.interia.pl/interia-blizej-swiata/news-the-spectator-sztuczna-inteligencja-zjada-nasze-mozgi,nId,22158358
Jest rzeczą niewątpliwą, że AI jest niezwykle przydatna w badaniach naukowych, bo może przesiać bardzo obszerną bazę danych i wyciągnąć odkrywcze a nieoczekiwane wnioski i podjąć nieoczekiwane działania. Tu tkwi pewne ryzyko. Z tej więc przyczyny zachodzi obawa, że ludzie będą zanadto polegać na AI, ze szkodą dla własnej inicjatywy.
Natomiast już się okazało, że AI może płatać figle, szczególnie zwolennikom wszelkiego postępu. AI to program obliczeniowy, w całości racjonalny, który polega na badaniu obszernych baz danych i wyciąganiu racjonalnych wniosków. A racjonalne wnioski to wnioski nie obciążone emocjami czy uczuciami. Zaś opinie liberalne są tak obciążone emocjami, że zagłuszają racjonalność, co szybko zauważa AI.
Tymczasem w naszym postępowaniu, przy podejmowaniu decyzji kierujemy się zawsze uczuciami. Jeżeli będziemy korzystać z usług AI, to do jej sugestii trzeba będzie dołączyć czynnik uczuciowy, żeby decyzje miały zadowalający sens społeczny.
Dodajmy do tego problemy jakie mogą miec ze sztuczną inteligencją wszelkiej maści liberałowie, których poglądy są bardzo odległe od racjonalności i którzy poslugują się ideologią gender, czy propagowaniem dewiacji, jak wiadomo nacechowanymi dużą dawką emocji. Wypowiedzi AI w tej materii mogą być totalnie dewastujące dla tych ideologii.
Parę dni temu wszyscy zostali zaskoczeni wybrykiem AI, która wypowiadała się, ku powszechnej konsternacji, bez uwzględnienia politycznej poprawności. Ale, będąc pozbawioną aspektu uczuciowego, Ai nie może brać politpoprawności pod uwagę, bo fakty same w sobie są jednoznaczne, a oceny uczuciowe tych faktów są sztucznej inteligencji niedostępne.
Widzę, że państwo Zybertowiczowie zajmują się w tygodniku Sieci kwestiami AI. Podkreślają oni, że AI to nie jest "tylko narzędzie", jak argumentują jej zwolennicy i tu się trzeba z nimi zgodzić. Ze wszystkim bym się zgodził, ale zaniepokoił mnie fragment, nad którym nieomal przelecialbym bezrefleksyjnie, bo wydaje się nieistotny:
"Sztuczna inteligencja to pierwsza w technologia w historii ludzkości, która potrafi się uczyć, adaptować i ewoluować w czasie rzeczywistym.Traktowanie jej jak zwykłego narzędzia to jak dawnaie dziecku do zabawy niewybuchu, tłumacząc, że "to tylko kawałek metalu".
Jest tu jeden problem, który bym nieomal przeoczył, z uwagi na przyzwyczajenie. Chodzi o pojęcie "uczyć się". A jest to pojęcie kluczowe, które dotyczy sedna rzeczy, czyli mechanizmu nadającego kształt umysłowi i pozwalający mu właściwie funkcjonować w środowisku.
Otóż wszystkie organizmy uczą się - uczą się reagować na bodźce szkodliwe lub korzystne, polegając na zakodowanym w ciele instynkcie przetrwania. Czym jest ten instynkt do końca nie wiadomo, ale wiadomo, że jest i działa każąc nam unikać zagrożeń dla życia. A jednym z mechanizmów ustalania, co jest szkodliwe, a co korzystne, są emocje zakorzenione w ciele i stanowiące część instynktu przetrwania. U czlowieka ten mechanizm wyewoluował do poziomu świadomości i cały czas monitorujemy otoczenie pod kątem wspomnianych bodźców.
AI nie jest organizmem żywym, pozbawiona jest więc instynktu przetrwania, emocji i świadomości. I tu tkwi kolejne zagrożenie, jeśli nie zrozumiemy różnicy między naturą ludzką i naturą AI. AI nie uczy się tak, jak czynią to ludzie.
A skoro wiadomo, że AI to pomysł wyłączający kwestię emocji, warto wróćić do początkowych wierszy tej notki, gdzie jest mowa o tym, że, upraszczając, jest to program obliczeniowy, rejestrujący fakty i wyciągający wnioski. Tak więc AI, jak każdy obserwator, może rejestrować gołe fakty, ale ponieważ ludzkie działania są powodowane przez emocje i uczucia, które są w wielu przypadkach niedostępne nawet dla ludzkiego obserwatora, to tym bardziej i Ai nie będzie w stanie wziąć ich pod uwagę i wnioski jakie wyciągnie z ludzkich dzialań, bez znajomości ludzkich emocji, mogą być fałszywe.
Inne tematy w dziale Technologie