Czy będziemy na tyle głupi, by stworzyć superinteligencję i ją uwolnić ?
Tego typu dywagacjami zajmują się naukowcy, o których pisze Zybertowicz w swoim felietonie.
Na pierwszy rzut oka wygląda to na problem techniczny, ale tak naprawdę jest to problem lingwistyczny, a w dalszym porządku socjologiczny.
Ze stworzeniem superinteligencji nie ma problemu, ale trzeba wiedzieć co to jest inteligencja. Inteligencja w powszechnym, a także naukowym mniemaniu jest zdolnością obliczeniową, jednym z komponentów umysłu. Z tym komponentem nie powinno być klopotów technicznych, jego stworzenie jest w naszym zasięgu.
Ale jeden komponent to nie cały umysł, umysł posiada także inne komponenty, których stworzyć się nie da.
Zawieśmy tę kwestię na chwilę i przejdźmy do kolejnej kwestii lingwistycznej: "uwolnić AI". Sugeruje to sformułowanie i inne formułki, że albo ją uwolnimy albo sama się uwolni. To znaczy będzie wolna ? Wolna od naszego wpływu ? Albo, co jest bardziej precyzyjne, będzie posiadała własną wolę i będzie się nią kierować ?
Żeby tak się rzeczywiście mogło stać, muszą być spełnione dwa warunku i tu wróćmy do zawieszonej wyżej kwestii pozostałych komponentów umysłu. Żeby umysł był wolny i dzialał racjonalnie musi posiadać komponent wolicjonalny i komponent emocjonalno-uczuciowy, które ukierunkowują działania na działania korzystne i pozwalają uniknąć bodźców niekorzystnych.
No to jest poważny problem: jak nauczyć AI żeby się bała lub cieszyła ? Jak nauczyć ją strachu i radości ? Do tego potrzeby jest mechanizm emocjonalny zakotwiczony w ciele i w realnej mozliwości poniesienia śmierci, której każdy żywy organizm stara się uniknąć. Strach przed utratą życia.
Tak więc najpierw mamy problem lingwistyczny, a dopiero potem techniczny. A w kwestii niebezpieczeństwa związanego z AI - z tego co dotychczas napisałem, wynika, że nie ma tu żadnego nowego niebezpieczeństwa. Jest to samo, stare ryzyko, że dostanie się w niepowołane ręce.
Jest jeszcze jedna bardzo interesująca kwestia, bo specjaliści twierdzą wg Zybertowicza, że w toku uczenia się tej AI pojawiają się zjawiska emergentne, ale nie wiadomo, co oni dokładnie mają na myśli. I tu może kryć się pewne ryzyko.
W natłoku rozważań ściśle technicznych umyka nam problem znacznie poważniejszy: nieznajomość rzeczywistości nas otaczającej, o której piszę od dawna, i którą potwierdza Leszek Ślazyk. Jeżeli mówimy o ludzkich cechach, to zawsze musimy pamiętać, że każdy kij ma dwa końce i te ludzkie cechy muszą być rozpatrywane w dwóch aspektach - zbiorowym i jednostkowym, ze świadomością, że to aspekt społeczny dominuje. Badając umysł, tak naprawdę musimy badać dwa umysły w interakcji w kontekście współpracy.
Jeżeli teraz, pamiętając o tej koniecznej interakcji, rozważymy kwestię AI, to musielibyśmy przeprowadzić eksperyment z dwiema co najmniej sztucznymi inteligencjami, które by weszły w interakcje ze sobą. Bardzo ciekawe byłoby monitorowanie przebiegu takich interakcji.
Ale wróćmy teraz do początku i postawmy kwestię jasno: mamy do czynienia z błędem poznawczym, ignorującym, jak zwykle, sferę zbiorową.
Przecież już dysponujemy superinteligencją, a jest nią, nie jednostkowa, lecz zbiorowa inteligencja społeczeństwa jako całości, jako pewnego superorganizmu. Mamy więc do czynienia ze zbiorową supeinteligencją, która pozwoliła ludzkości na taki szybki rozwój. A tego nie ogarniamy i mamy poważny problem ze zrozumieniem ewolucyjnego kształtowania się ludzkiej umysłowości w przestrzeni społecznej i jej kluczowych wymiarów/składników: relacji społecznych. Poza tym, ta superinteligencja zbiorowa, jak wszyscy widzimy, w liberalnym wcieleniu działa kulawo i cierpi na powszechnie uświadamiany problem umysłowego komponentu poznawczego pozbawionego łączności z pozostalymi komponentami.
Inne tematy w dziale Społeczeństwo