#prawo-cytatu
#prawo-cytatu
Waldemar Żyszkiewicz Waldemar Żyszkiewicz
1400
BLOG

Sztuczna (nie)Inteligencja

Waldemar Żyszkiewicz Waldemar Żyszkiewicz Badania i rozwój Obserwuj temat Obserwuj notkę 94
Idee mają konsekwencje, a błędne nazwy wiodą na manowce.

W jednym z newsletterów, które regularnie dostaję w pewnym wręcz nadmiarze, moją uwagę zwróciła ostatnio wiadomość, a może raczej wiadomostka, że niejaki Joe Rogan wystosował ostatnio do odbiorców swego podkastu w serwisie Spotify dość niezwykłe ostrzeżenie…

Najpierw może, dla ułatwienia lektury, kilka wyjaśnień. Joe Rogan,  dla nas niejaki, jest w Stanach niezmiernie popularnym komentatorem sportowym, zwłaszcza od sportów walki (MMA), komikiem (stand upperem), telewizyjnym prezenterem i aktorem. Ponadto ten dobrze umięśniony i wytatuowany syn policjanta, posiadacz kilku tzw. czarnych pasów w różnych stylach, od 2009 roku prowadził w serwisie YouTube swój podkast, czyli rodzaj przekazu audio/video, pod nazwą Joe Rogan Experience (JRE).

Rogan, jeden z pierwszych prowadzących tego rodzaju program w sieci, zaprasza do rozmowy znane, popularne, ale także budzące kontrowersje postaci ze świata sportu, popkultury oraz obrzeży polityki i umożliwia im swobodne przedstawienie swoich poglądów, co sprawiło, że jego podkasty gromadziły nieraz wielomilionową rzeszę odbiorców. Ale budziły też zrozumiałą złość dysponentów narracji oficjalnej. W roku 2020 podcast JRE został przeniesiony z YT do serwisu Spotify. A teraz pora na najlepsze…

Hi-Tech dogonił koncept Baudrillarda

„Wkraczamy, dzieciaki, na bardzo zdradliwy teren” -  tak właśnie 11 kwietnia br. do odbiorców podkastu napisał na swym twitterowym  koncie Joe Rogan z właściwą temu medium lapidarnością. O co poszło? Otóż, wytwórca tzw. treści do sieci Farzad Mesbahi, który po czterech latach współpracy rozstał się jakiś czas temu z Teslą Elona Muska, dzięki technologii Artificial Intelligence (AI), czyli Sztucznej Inteligencji (SI) wyprodukował symulację podkastu Joego Rogana zupełnie bez jego udziału. Co lepsze, w trwającym blisko godzinę nagraniu fikcyjny Joe Rogan rozmawia z równie fikcyjnym Samem Altmanem, współzałożycielem, a także obecnym prezesem firmy OpenAI, z której kierownictwa w roku 2018 odszedł Elon Musk, również jeden ze współzałożycieli tego przedsięwzięcia.

Rogan i Altman (widać tylko ich statyczne wizerunki) rozmawiają o dość rozmaitych rzeczach: o możliwościach i zagrożeniach płynących ze stosowania burzliwie rozwijającej się SI, o istotach pozaziemskich, o androidach wyposażonych w sztuczną inteligencję, o rozwoju ChatGPT, o programach SI, które opis obiektu w języku naturalnym potrafią przełożyć na jego wizualizację, a nawet o tym, jaki jest Elon Musk jako człowiek oraz jak się z nim współpracuje. Wprawdzie Mesbahi, autor fejkowej edycji programu Rogana, kilkakrotnie  podkreśla fikcyjność przywołanych tutaj postaci, brak związku ich świetnie imitowanych głosów i sposobów używania języka z realnymi osobami, ich faktycznymi poglądami czy wypowiedziami na te tematy, ale w sieci i tak zawrzało.

Nic dziwnego: gdy technologia umożliwi już tworzenie pełnych wizualno-dźwiękowych przedstawień całkowicie oderwanych od rzeczywistości, czyli tzw. symulakrów, których praktycznie nie da się odróżnić od filmowej rejestracji faktycznych wypowiedzi i zachowań realnych postaci, to wtedy publiczne unicestwienie bądź wykreowanie dowolnej osoby przez dyspozycyjne media stanie się zwykłą igraszką. Wymagającą jedynie rozwiniętej technologii oraz poczucia bezkarności przy fałszowaniu prawdy. Aż strach pomyśleć, że takie narzędzia mogłyby zostać użyte przez grupy bezwzględnych fakt-czekistów, czujących instytucjonalne wsparcie agend państwowych lub ponadpaństwowych, w rodzaju WHO.   

Ideologiczne nowinkarstwo w USA
Co nas obchodzą Rogan, Mesbahi, Altman czy Musk? Bez wątpienia więcej niż można by sądzić na pierwszy rzut oka. Stany Zjednoczone od dłuższego czasu pozostają poligonem wszelkiego nowinkarstwa. Nie tylko technologicznego, ale zwłaszcza w zakresie nowych mód ideologicznych, takich jak do niedawna panaborcjonizm (program depopulacyjny), polityczne słuszniactwo (oczywista forma cenzury), genderyzm (kontestacja tradycyjnych ról biologicznych), LGBTQ+ (promocja dewiacyjnych, antynatalistycznych form realizacji libido), wokizm (czyli fanatyczne, zsakralizowane unieważnianie historii). To wprawdzie nie daje jeszcze pełnego przeglądu obecnej sytuacji, wiąże się jednak z daleko już posuniętą próbą wymiany struktury etnicznej, ale także kulturowej przemiany społeczeństwa w USA oraz z chęcią zakwestionowania republikańskiego charakteru tego państwa.

Całkiem szeroki temat, wart kontynuacji, tymczasem jednak wróćmy do wspomnianego wcześniej symulakrum, czyli fejkowego programu Joe Rogan Experience. Szczerze mówiąc, zupełnie nie rozumiem tych wszystkich zachwytów nad SI. Owszem, naśladowanie barwy głosu czy niezła imitacja formy wypowiedzi językowych mogą być (dla odbiorcy) całkiem przekonujące, ale już przekazywane treści grzeszą schematyzmem, ogólnikowością, ostrożnością w formułowaniu sądów albo wręcz nijakością przekazu. Śladu oryginalności czy odwagi myślowej brak, słowem – zwyczajny rubbish talk, jak się przed laty mawiało na Wyspach. I nie idzie tu wcale o procesową ostrożność Mesbahiego, lecz raczej o możliwości systemu sztucznej inteligencji opartego o modelowanie językowe, który wystartował jesienią 2022 roku. Jego twórcy, czyli właśnie firma OpenAI, nazwała to ChatGPT, czyli po polsku Czat (Pogawędka w sieci) GPT.

Symulowana rozmowa Rogana z Altmanem najbardziej przypomina mi wypowiedzi polityków, mówiących o rzeczach, na których wcale się nie znają, do czego jednak nie wypada im się przed elektoratem przyznać… Toteż rekomendacja polskiej wersji Czatu GPT w witrynie promującej sieciowe gry komputerowe wydaje się mocno ponad stan: „Czat OpenAI ma szerokie spektrum zastosowań, dzięki czemu może być wykorzystywany w wielu różnych dziedzinach życia. Za jego pomocą możliwe jest wygenerowanie tekstu, który łudząco przypomina treści tworzone przez prawdziwe osoby, posiadając jednocześnie wiedzę i możliwości obejmujące dane zawarte w całym internecie”. Ho, ho, naprawdę? Łącznie z idiotyzmami oraz licznymi  szkodliwymi treściami, które tam można znaleźć?

Rozmawiać jak GPS z GPT

Inteligentny bloger Salonu24, zresztą informatyk z zawodu, jeden z niewielkiej grupki tych, którzy nie dali się jeszcze stamtąd przepędzić nowym (nie)porządkom wprowadzonym przez Bicepsa z Bałut, zaraz zaczął testować kolejne wersje systemu Czat GPT, dzieląc się różnymi ciekawymi spostrzeżeniami. A to, że gdy np. udało mu się podczas pogawędki ze „sztuczną inteligencją” wykazać sprzeczność między jej różnymi odpowiedziami w tej samej kwestii, to system kokieteryjnie wytłumaczył się, że stanowi dopiero wersję Beta… Co więcej, według tego samego testującego blogera o nicku GPS, niska bezpłatna wersja programu „jest humanistką”, bo nie potrafiła uporać się z zagadką: cegła waży kilo i pół cegły; ile waży cegła? Inna sprawa, że wielu ludzi, przecież bystrych, przytomnych i nieźle wykształconych, na tym akurat zadaniu zaskakująco często się „łamie”.

Bloger – skądinąd naprawdę błyskotliwy, ale i kapryśny – wyższą, matematycznie sprawną już wersję systemu skrytykował np. za brak „duszy”. Cóż, akurat u „sztucznej inteligencji” duszy bym się raczej nie spodziewał, ani nie domagał. Zastanawiać może jednak fakt, że nikt w tych zachętach do początkowo darmowego użytkowania aplikacji SI do rozmowy z doskonalonym dopiero chatbotem nie widzi próby pozyskania przez firmę OpenAI ogromnej (Big Data) liczby wypowiedzi w różnych językach narodowych bez konieczności ponoszenia przez nią jakichkolwiek kosztów. A przecież „mięsem”, czyli tworzywem tego systemu jest właśnie modelowanie językowe. Zresztą po krótkim okresie bezpłatnym firma wprowadziła już płatne abonamenty w wysokości 20 USD za miesiąc. Niby niedużo, ale przy ogromnej liczbie chętnych, coś tam się zawsze da uskładać.

Choć może z tym, że nikt – trochę przesadziłem, na co wskazuje choćby krytyczny w wymowie list m.in. Elona Muska do środowisk zajmujących się tworzeniem sztucznej inteligencji. Szef firm SpaceX i Tesla oraz blisko pół setki poważnych postaci ze świata IT skrytykowali m.in. OpenAI, czyli właśnie Sama Altmana za żywiołowe, nieprzemyślane, abstrahujące od możliwych negatywnych dla rodzaju ludzkiego konsekwencji rozwijanie systemów AI/SI, proponując wstrzymanie tych prac na pół roku. Musk przypomniał, że inicjatywa OpenAI miała być z założenia niekomercyjna, a jej wytwory przyjazne człowiekowi. Tymczasem masowe zastosowanie algorytmów typu BSL (oDMO), według już istniejących prognoz w samych tylko Stanach Zjednoczonych może skutkować likwidacją od 15 do nawet 40 proc. obecnych miejsc pracy. Warto zatem mieć na uwadze fakt, że Microsoft Billa Gatesa zapowiedział nowe inwestycje w OpenAI. Tym razem mowa już o kwocie rzędu 10 mld dolarów.  

Sztuczna Inteligencja nie jest sexy
    
Atrakcyjny popkulturowo (zwłaszcza w beletrystyce czy produkcji filmowej, które eksploatują wątki Science-Fiction) bunt androidów wyposażonych w sztuczną inteligencję przewyższającą możliwości ludzkiego umysłu w rzeczywistości raczej nam nie grozi. Choć trzeba przyznać, że w prozie Phillipa K. Dicka lub w reżyserskiej wersji Blade Runnera (pol. Łowca androidów) Ridleya Scotta przygody takich właśnie bohaterów osiągają poziom artystycznej maestrii, szczególnie w wymiarze wizualnym oraz emocjonalnym. No, ale to właśnie fikcja i raczej niespecjalnie naukowa.

Już sama nazwa „sztuczna inteligencja” prowadzi na manowce. Bo wprawdzie zarówno te informatyczne algorytmy, jak i złożone klastry mechanicznych urządzeń obliczeniowych pozostają, owszem, dziełem ludzkiego kunsztu (artificial), ale z inteligencją w ludzkim rozumieniu terminu nie mają w zasadzie nic wspólnego. Przede wszystkim, one nie myślą, nie uprawiają heurezy, nie tworzą niczego, jedynie liczą, liczą, liczą, wykonując zadane polecenia. Są to, rozwijając podany wyżej skrót: Bardzo Szybkie Liczydła (o Dużej Mocy Obliczeniowej). Ale zaraz, powie ktoś, programy takie jak np. Dall-E czy Midjourney kreują fantastyczne prace plastyczne godne dobrych galerii czy innych przestrzeni wystawienniczych… Zgoda, ale robią to wszystko według przepisów (algorytmów), które jakiś człowiek, ich twórca, wcześniej im zaimplementował.

Sztuczna inteligencja nie jest „inteligentna” w ludzkim rozumieniu. Nie ma też żadnej samowiedzy, niezbędnej, by zdefiniować własne położenie i jakoś się do tego odnieść. A to przecież właśnie warunek konieczny wszelkiego buntu… AI/SI to super szybkie liczydło o mocy obliczeniowej znacznie przekraczającej możliwości człowieka, więc przydatne przy opracowywaniu wniosków z analizy ogromnej liczby danych (Big Data), ale nic więcej. Mówiąc wprost, każda tzw. sztuczna inteligencja z założenia musi być „głupsza” od człowieka, który ją stworzył. Potrafi szybciej i lepiej od niego wykorzystać swe możliwości, ale tylko te, które od niego otrzymała. Najdoskonalszy produkt cyfrowy nie stworzy człowieka, tak jak sam został przez niego stworzony. Nie stworzy też własnej poprawionej wersji. Cała reszta, czyli bajki o robotach i zbuntowanych androidach, to taki współczesny zabobon. Tyle że w pozornie naukowym sztafażu.

Od pewnego czasu stale, niemal codziennie, dostaję angielskojęzyczne oferty wykorzystania jakiejś aplikacji AI do wzbogacenia swej strony. Za niewielką opłatą, kuszą, mogę mieć codziennie nowe ciekawe teksty, żarty, ogłoszenia, blogerskie posty, które przyciągną klientów, a które to materiały wykona za mnie ten fantastyczny programik… Mniejsza już o to, że oferenci chyba nie odróżniają witryny autorskiej od sieciowego sklepiku, że niepotrzebnie wzbudzają zbędny ruch w i tak już przeciążonej poczcie elektronicznej. Ale zawsze przy tej okazji zastanawiam się, kto by chciał i po co miałby się zaczytywać w standardowej, czyli nudnej, bo przewidywalnej produkcji tekstów, które „łudząco przypominają teksty tworzone przez człowieka”.

Sam Altman też chyba już o tym wie, gdyż jego OpenAI zamierza wypuścić nowy programik, który będzie identyfikował „ryż dęty” produkowany przez wyższe wersje czatbota GPT. Wąż rewolucji informatycznej pożera swój własny ogon… Więc to raczej Elon Musk ma w tym przypadku rację.  

Waldemar Żyszkiewicz
16 kwietnia 2023

pierwodruk: Prawda jest ciekawa. Gazeta obywatelska założona w 2011 roku przez Kornela Morawieckiego, przywódcę Solidarności Walczącej, nr 8 (294) z 18 kwietnia 2023 roku
 

Nagroda czasopisma „Poetry&Paratheatre” w Dziedzinie Sztuki za Rok 2015 Kategoria - Poezja

Nowości od blogera

Komentarze

Inne tematy w dziale Technologie