zetjot zetjot
97
BLOG

Czy sztuczna inteligencja nas zniszczy ?

zetjot zetjot Społeczeństwo Obserwuj notkę 0

Czy będziemy na tyle głupi, by stworzyć superinteligencję i ją uwolnić ?

Tego typu dywagacjami zajmują się naukowcy, o których pisze Zybertowicz w swoim felietonie.

Na pierwszy rzut oka wygląda to na problem techniczny, ale tak naprawdę jest to problem lingwistyczny, a w dalszym porządku socjologiczny.

Ze stworzeniem superinteligencji nie ma problemu, ale trzeba wiedzieć co to jest inteligencja. Inteligencja w powszechnym, a także naukowym mniemaniu jest zdolnością obliczeniową, jednym z komponentów umysłu. Z tym komponentem nie powinno być klopotów technicznych, jego stworzenie jest w naszym zasięgu.

Ale jeden komponent to nie cały umysł, umysł posiada także inne komponenty, których stworzyć się nie da.

Zawieśmy tę kwestię na chwilę i przejdźmy do kolejnej kwestii lingwistycznej: "uwolnić AI". Sugeruje to sformułowanie i inne formułki, że albo ją uwolnimy albo sama się uwolni. To znaczy będzie wolna ? Wolna od naszego wpływu ? Albo, co jest bardziej precyzyjne, będzie posiadała własną wolę i będzie się nią kierować ?

Żeby tak się rzeczywiście mogło stać, muszą być spełnione dwa warunku i tu wróćmy do zawieszonej wyżej kwestii pozostałych komponentów umysłu. Żeby umysł był wolny i dzialał racjonalnie musi posiadać komponent wolicjonalny i komponent emocjonalno-uczuciowy, które ukierunkowują działania na działania korzystne i pozwalają uniknąć bodźców niekorzystnych.

No to jest poważny problem: jak nauczyć AI żeby się bała lub cieszyła ? Jak nauczyć ją strachu i radości ? Do tego potrzeby jest mechanizm emocjonalny zakotwiczony w ciele  i w realnej mozliwości poniesienia śmierci, której każdy żywy organizm stara się uniknąć. Strach przed utratą życia.

Tak więc najpierw mamy problem lingwistyczny, a dopiero potem techniczny. A w kwestii niebezpieczeństwa związanego z AI - z tego co dotychczas napisałem, wynika, że  nie ma tu żadnego nowego niebezpieczeństwa. Jest to samo, stare ryzyko, że dostanie się w niepowołane ręce.

Jest jeszcze jedna bardzo interesująca kwestia, bo specjaliści twierdzą wg Zybertowicza, że w toku uczenia się tej AI pojawiają się zjawiska emergentne, ale nie wiadomo, co oni dokładnie mają na myśli.  I tu może kryć się pewne ryzyko.

W  natłoku rozważań ściśle technicznych umyka nam problem znacznie poważniejszy: nieznajomość rzeczywistości nas otaczającej, o której piszę od dawna, i którą potwierdza Leszek Ślazyk. Jeżeli mówimy o ludzkich cechach, to zawsze musimy pamiętać, że każdy kij ma dwa końce i te ludzkie cechy muszą być rozpatrywane w dwóch aspektach - zbiorowym i jednostkowym, ze świadomością, że to aspekt społeczny dominuje. Badając umysł, tak naprawdę musimy badać dwa umysły w interakcji  w kontekście współpracy.

Jeżeli teraz, pamiętając o tej koniecznej interakcji, rozważymy kwestię AI, to musielibyśmy przeprowadzić eksperyment z dwiema co najmniej sztucznymi inteligencjami, które by weszły w interakcje ze sobą. Bardzo ciekawe byłoby monitorowanie przebiegu takich interakcji.

Ale wróćmy teraz do początku i postawmy kwestię jasno: mamy do czynienia z błędem poznawczym, ignorującym, jak zwykle, sferę zbiorową.

Przecież już dysponujemy superinteligencją, a jest nią, nie jednostkowa, lecz zbiorowa inteligencja społeczeństwa jako całości, jako pewnego superorganizmu. Mamy więc do czynienia ze zbiorową supeinteligencją, która pozwoliła ludzkości na taki szybki rozwój. A tego nie ogarniamy i  mamy poważny problem ze zrozumieniem ewolucyjnego kształtowania się ludzkiej umysłowości w przestrzeni społecznej i jej kluczowych wymiarów/składników: relacji społecznych. Poza tym, ta superinteligencja zbiorowa, jak wszyscy widzimy, w liberalnym wcieleniu działa kulawo i cierpi na powszechnie uświadamiany problem umysłowego  komponentu poznawczego pozbawionego łączności z pozostalymi komponentami.



zetjot
O mnie zetjot

Nowości od blogera

Komentarze

Pokaż komentarze

Inne tematy w dziale Społeczeństwo