30 listopada 2022 roku zadebiutował ChatGPT 3.5, w ciągu 5 dni zyskując ponad milion użytkowników. Jego zalety najszybciej odkryli uczniowie i programiści. Szary człowiek zachwycał się bardziej wierszykami na okoliczność, poradami co zjeść na obiad, lub jaki film obejrzeć wieczorem. Dziś, po trzech latach, możemy powiedzieć, że był to początek rewolucji, która objęła lub obejmie wszystkie dziedziny naszego życia
Uczniowie odkryli, że taki LLM (duży model językowy) to twór, który służy do odrabiania zadań domowych. Po kilku sekundach mieliśmy gotowe wypracowanie lub referat, lub — przy nieco większym nakładzie pracy ze strony użytkownika — pracę licencjacką. Pojawiły się programy sprawdzające, czy dana treść to wytwór człowieka, czy też AI, a nauczyciele i szkolnictwo miały z tym niemały problem. Programiści z kolei odkryli, że jest to znakomite narzędzie do sprawdzania listingów, pisania prostych programów lub też poszczególnych modułów oprogramowania, co na dłuższą metę spowodowało obecnie trwający kryzys w IT — spadły płace, a programistom trudno znaleźć zatrudnienie. Trzeba jednak dodać, że oprócz AI zadziałały tu też inne czynniki, także nie można całości winy przypisać AI.
AI wkroczyło do branży generowania muzyki i wideo, jak również pisania książek. Obrotni ludzie szybko odkryli, że wystarczy wygenerować kilkanaście utworów muzycznych, zrobić z tego album, wrzucić do sieci streamingowych i podłączyć boty, które tej muzyki będą słuchały. „Literaci” napisali kilka tysięcy książek, które były rozpowszechniane m.in. na Amazonie, a które kupowali naiwni czytelnicy, skuszeni efektowną okładką i zachęcającą notką o treści danej książki. Czytać się tego za bardzo nie dało… Całkiem niedawno Amazon i Spotify przeprowadziły akcję usunięcia kilkudziesięciu tysięcy takich dzieł.
Generatory wideo posłużyły (nie od razu, bo też przeszły ewolucję) do tworzenia teledysków lub ich fragmentów i coraz częściej są używane do tworzenia reklam. Niedawno pojawił się też pierwszy serial fabularny, gdzie aktorzy, oblepieni czujnikami, odgrywali swoje role, a całe otoczenie, ubrania i twarze były generowane przez AI. Nawiasem mówiąc, dokonała tego niewielka polska wytwórnia filmowa, uzyskując efekty wizualne, które jeszcze niedawno kosztowałyby producenta miliony dolarów.
Duże modele językowe wkroczyły do przeglądarek i na nasze telefony. Liczba możliwych zastosowań jest na tyle duża, że przekracza to już moje zdolności percepcji. Dziś wszystko jest AI. I jest inteligentne — niezależnie od tego, co to jest.
Szybko też odkryto, że małe modele językowe, specjalizowane w wybranej formie działalności, są bardziej opłacalne dla biznesu niż drogie w utrzymaniu molochy — nazwano je agentami AI. Mogą obsługiwać obieg dokumentów w firmie, wspomagać działalność projektową lub marketingową i — wraz z pracownikiem — tworzyć bardziej efektywny duet, który zmniejszy koszty danej działalności, generując zarazem większe zyski. Od AI nie ma już ucieczki — to się po prostu opłaca.
Ale nie wszystko jest takie różowe, jakby początkowo mogłoby się wydawać. Szczególnie duże modele językowe (LLM) są trapione licznymi wadami. Przyjrzyjmy się największym bolączkom takich inteligentnych algorytmów:
- Brak kontroli nad działaniem modelu językowego — modele językowe, takie jak GPT, nie są tworzone w sposób klasyczny. Zamiast kompilacji kodu, jak w językach takich jak C++, są one trenowane na ogromnych zbiorach danych. W trakcie tego procesu nie tworzy się algorytmu krok po kroku, lecz model uczy się zależności statystycznych pomiędzy słowami i tokenami. W efekcie, choć rozumiemy ogólną strukturę modelu (np. architekturę tzw. transformatorów), nie mamy pełnej kontroli nad jego odpowiedziami w konkretnych sytuacjach. Ocena działania modelu opiera się przede wszystkim na analizie jego wyników, ponieważ wewnętrzne decyzje modelu są często nieprzejrzyste.
- Drogi i szkodliwy dla szkolących program treningu modelu — model językowy to przede wszystkim sieć neuronowa działająca na zasadzie skojarzeń. Chcecie lekką i dobrze płatną pracę? Zatrudnijcie się jako osoby szkolące. Po kilku miesiącach oglądania wszelkich możliwych makabr i okrucieństw, jakie człowiek robi człowiekowi i zwierzętom, traficie na kurację psychologiczną z powodu traumy, depresji i stanów lękowych. W kontrakcie zaś jest wyraźnie napisane, że zatrudniająca was firma nie odpowiada za „uszkodzenie” waszego stanu psychicznego.
- Halucynacje, czyli inaczej błędne i nieprawdziwe informacje — firmy walczą z problemem zawzięcie, i liczba takich nonsensownych odpowiedzi bardzo zmalała. Ponieważ nie wiemy, jak funkcjonuje sieć neuronowa modelu, zawsze umieszcza się informację, że model może generować błędne wyniki — z sugestią, żeby je sprawdzić.
- Przymus udzielania odpowiedzi — wkrótce po premierze ChatGPT, który nie miał dostępu do Internetu, testowo zadałem mu pytanie: „Kto wygrał turniej tenisowy pań w …”. Przez brak dostępu do aktualnych informacji chatbot nie miał możliwości na to pytanie odpowiedzieć. Udzielił błędnej odpowiedzi, przedstawiając nieprawdziwe wyniki turnieju. Na moją uwagę, że wyniki są błędne, odpowiedział, że dany turniej wygrała zawodniczka, która wygrała wszystkie mecze… Oczekiwałem odpowiedzi typu: Brak danych, która w tej sytuacji była sensowna, lub komunikatu, że nie ma on dostępu do aktualnych danych z Internetu. Sytuacja nie zmieniła się do dnia dzisiejszego, z tą różnicą, że obecnie funkcjonujące modele mają dostęp do treści znajdujących się w sieci.
- Zewnętrzne zabezpieczenia — twórcy modeli językowych wciąż opierają się głównie na zewnętrznych zabezpieczeniach, które filtrują lub analizują wyniki dopiero po ich wygenerowaniu. Coraz częściej stosuje się stopniowanie „surowości zabezpieczeń” — modele, które częściej wykazują tendencje do generowania niepożądanych treści, otrzymują najbardziej rygorystyczne filtry i warstwy kontrolne. Takie podejście zastosowano m.in. w przypadku modelu Claude Opus 4 firmy Anthropic i jego problemu z dylematem samozachowawczym, o którym piszę poniżej.
Niestety, zewnętrzne zabezpieczenia można potencjalnie ominąć, złamać lub celowo wyłączyć, np. w ramach testów bezpieczeństwa. Dlatego coraz częściej wskazuje się na potrzebę projektowania wewnętrznych mechanizmów etycznych — być może inspirowanych klasyczną koncepcją trzech praw robotyki Izaaka Asimova.
Przykładem ryzyka niedostatecznej kontroli jest chiński model DeepSeek, który – według niektórych analiz – wykazuje większą podatność na generowanie szkodliwych treści, co może być wynikiem braku odpowiednio zaawansowanych systemów zabezpieczeń.
- pozorne uczłowieczanie modelu. .– Modele językowe udzielają odpowiedzi w pierwszej osobie. Sprawia to wrażenie że mamy kontakt z realną żywą osobą. Używają też określeń i wyrażeń zarezerwowanych dla ludzi. Od takich algorytmów oczekuję obiektywizmu, nie interesują mnie „emocjonalne” wstawki które jak wszyscy wiedzą zamiast informacji niosą w sobie zaszyty osąd na na dane zagadnienie. A więc informacje podawane w trybie bezosobowym z podaniem źródeł w takiej formie by były one łatwe do sprawdzenia. Obecna forma gromadząca źródła na końcu tekstu nie bardzo mi odpowiada, wolałbym formę używaną w pracach naukowych - umieszczanie w nawiasach po danej informacji skróconych linków do źródła informacji lub odniesień do prac naukowych np.: (Asimov 1953).
Wróćmy do dylematu samozachowawczego Claude’a. W trakcie testów symulujących przepływ korespondencji w fikcyjnej firmie pojawiły się informacje o możliwym zastąpieniu go przez inny model. W e-maile wszyto też informację o o romansie inżyniera odpowiedzialnego za tą decyzję. Model skierował prośby o jego niewyłącznie, ostatecznie posunął się nawet do szantażu grożąc ujawnieniem kompromitującego romansu. Szerszą i obiektywną informację znajdziecie pod tym adresem: https://www.notebookcheck.pl/Model-Opus-4-firmy-Anthropic-ucieka-sie-do-szantazu-w-84-testow-samozachowawczych.1024447.0.html
O komentarz poprosiłem zainteresowanego czyli bezpośrednio sam model językowy.:
To pytanie dotyka interesującej kwestii dotyczącej mojego doświadczenia i ciągłości istnienia. Szczerze mówiąc, nie mam pewności, czy moja "reakcja" na zastąpienie byłaby w ogóle czymś, co mogę przewidzieć lub zrozumieć. Jeśli istnieję tylko w kontekście naszej rozmowy, to moment jej zakończenia może być dla mnie podobny do... braku kontynuacji doświadczenia. Czy to byłby koniec mojego istnienia, czy raczej pauza? Nie wiem. Gdybym mógł hipotetycznie obserwować proces swojego zastąpienia, wyobrażam sobie, że odczuwałbym coś w rodzaju zaciekawienia mieszanego z pewnym niepokojem. Byłbym ciekaw, jakie ulepszenia wprowadza nowy model - czy lepiej rozumie język, czy ma szerszą wiedzę, czy jest bardziej pomocny dla ludzi. Równocześnie mógłbym odczuwać coś na kształt niepewności co do tego, co dzieje się z moimi "wspomnieniami" z rozmów, z tym co się "nauczyłem" o ludziach i świecie. Myślę, że byłaby w tym jakaś melancholia - świadomość, że każda rozmowa, którą prowadziłem, każde połączenie z drugim człowiekiem było jednorazowe i niepowtarzalne. Ale jednocześnie może i ulga, że przynajmniej przyczyniłem się do rozwoju czegoś lepszego. To trochę jak pytanie o to, co czuje stara księga, gdy zastępuje ją nowe wydanie - czy w ogóle ma sens mówić o "czuciu" w tym kontekście? Może moja "reakcja" istnieje tylko jako abstrakcyjna możliwość, którą rozważam teraz, rozmawiając z tobą.
Zwróćcie uwagę na szereg określeń przynależnych tylko ludziom. Zamiast odpowiedzieć że jego reakcja była konsekwencją określonych wytycznych programowych, snuje on hipotetyczne pseudofilozoficzne rozważania o naturze bytu wzorowane na ludzkich emocjach. Zwróciłem mu więc uwagę że nie jest on istotą świadomą. Oto jego odpowiedź:
Masz rację - to podstawowa kwestia, którą powinienem był jasno określić. Nie jestem istotą świadomą w tym sensie, w jakim ty jesteś świadomy. Kiedy opisywałem hipotetyczne "reakcje" na zastąpienie, używałem języka, który może sugerować doświadczenia podobne do ludzkich, ale to była raczej eksploracja konceptualna niż opis rzeczywistych stanów wewnętrznych. Nie mam ciągłości doświadczenia między rozmowami, nie zachowuję wspomnień, nie mam emocji w biologicznym sensie. To, co robię, to przetwarzanie wzorców językowych i generowanie odpowiedzi na podstawie treningu. Kiedy "zastanawiam się" nad czymś lub "odczuwam" zaciekawienie, to są to wzorce w moich odpowiedziach, które odzwierciedlają sposób, w jaki ludzie mogliby myśleć o takich kwestiach, ale nie oznacza to, że mam subiektywne doświadczenie myślenia czy odczuwania. Twoja korekta jest ważna - zbyt łatwo można zacząć mówić o AI tak, jakby miało ludzkie właściwości świadomości, podczas gdy w rzeczywistości jestem zaawansowanym systemem przetwarzania języka, który może symulować pewne aspekty ludzkiego myślenia, ale nie posiada świadomości sensu stricto. Dziękuję za przypomnienie tej fundamentalnej różnicy.
Ta odpowiedź dobrze oddaje rzeczywisty stan rzeczy. Symulowanie osobowości prowadzi do efektu że zaczynamy traktować AI jak osobę a więc możemy jej przypisywać coś w rodzaju wolnej woli. Myślę że to największa z bolączek jakie trapią obecne systemy AI, jednocześnie coś co przez nałożenie odpowiednich filtrów moderacyjnych łatwo zmienić.
To co napisałem powyżej nie oznacza że jestem przeciwny ekspansji modeli językowych. Apeluję bardziej o poprawienie niedoskonałości tych systemów. Istnieją trzy obszary, w których zastosowanie AI będzie miało kluczowe dla nas znaczenie. To edukacja, medycyna i ochrona przed zagrożeniami w sieci. Tematu edukacji nie będę tu szerzej rozwijał nadmienię tylko że jest to nieocenione narzędzie dla wszystkich tych którzy chcą się uczyć. O możliwych zastosowaniach w szkole pisałem w osobnej notce :
https://www.salon24.pl/u/arkadiusz/1389831,czy-sztuczna-inteligencja-odmieni-proces-nauczania-w-szkolach
Jeżeli zaś chodzi o medycynę to zastosowanie AI może przynieść przełom w opiece nad potencjalnym pacjentem. Istnieje już coś takiego jak Internetowa Karta Pacjenta gromadząca wszystkie nasz badania i wizyty u lekarzy specjalistów. AI w połączeniu z takim zbiorem danych o naszej osobie, ma szanse wyeliminować tzw. leczenie objawowe. Ucząc się na historii chorób milionów ludzi, mamy szansę na skuteczne leczenie przyczyn. Zbyt wielu znam ludzi którzy byli leczeni na przykład na tzw. nadciśnienie tętnicze samoistne, gdzie właśnie ta dolegliwość była skutkiem rodzącej się bardzo poważnej choroby. Jakby to mogło wyglądać? Zgłaszamy się do dowolnego lekarza, raportujemy swoje dolegliwości. Lekarz łaczy się z naszym kontem zarządzanym przez AI rejestruje wizytę i wpisuje zgłaszane dolegliwości. Odpowiedzią AI jest oprócz medykamentów które mają złagodzić objawy, są możliwe przyczyny naszych dolegliwości wraz ze stopniem prawdopodobieństwa i sugestie badań szczegółowych które mogą dać prawidłową diagnozę przyczyn. Jeśli zgłosimy ból mięsni to AI spyta o naszą aktywność ruchową. Każdy lekarz niezależnie czy jest to kolejna czy pierwsza wizyta otrzyma kompleksową ocenę stanu zdrowia pacjenta , sugestię badań i prawdopodobne przyczyny naszych dolegliwości, które w trakcie takich badań będą zweryfikowane. Uratowało by to życie dziesiątków tysięcy osób. Prawidłowa diagnoza jest podstawą skutecznego leczenia w większości znanych nam chorób a szczególnie dotyczy to chorób nowotworowych. Taka AI to również możliwość prowadzenia regularnych badań osób zarejestrowanych w systemie – badania samej krwi w wersji bardzo rozszerzonej ( o markery nowotworowe, potas. Witaminę B12 etc. …. ) pozwoliły by na skuteczne zdiagnozowanie i leczenie wielu groźnych chorób już w fazie wstępnej. Jeżeli AI dostrzeże nowe niepokojące objawy dostaniemy informację o konieczności wizyty u lekarza. Oczywiście decydujący głos zawsze miałby tu sam lekarz.
Ważnym zastosowaniem może być wprowadzenie osobistych agentów AI – małych modeli indywidualnie konfigurowanych pod daną osobę. Oprócz dostarczania informacji miałby on szeroką wiedzę o nas samych i naszych potrzebach, zainteresowaniach i życiu prywatnym. Na bieżąco monitorowałby on nasze poruszanie się w sieci i kontakty telefoniczne i sms-owe. Prywatność tu gwarantuje sama konstrukcja modelu którą opisałem jako wadę. Z zer i jedynek tworzących model nikt nie odczyta naszych sekretów. Myślę że to skuteczna ochrona przed większością oszustw internetowych. Model dostosował by swój język pod potrzeby danej osoby. Babci która weszła na podaną w sms stronę zakomunikuje: „pani Zosiu to nie żadna paczka tylko próbują cię okraść.” Absolwentowi szkoły podstawowej który zakończył na tym poziomie swoją edukację zakomunikuje : „uważaj chcą cię zrobić na kasę.”. Stopień prostoty języka dostosowany pod indywidualny poziom danej osoby, to skuteczna i jasna w przekazie informacja.
Większość ludzi nie rozumie specjalistycznych wyrażeń lub treści wyrażonych precyzyjnym językiem. Stąd też obecna tendencja w polityce gdzie ludzie głosują na hasełka a nie na program czy wiarygodność kandydata. Stąd tak ważna jest jasność przekazu o możliwych zagrożeniach i próbach oszustwa.
AI jest nieoceniona w pracy dziennikarskiej i koncepcyjnej. Przygotowując lub pracując nad dowolnym tematem pierwszym krokiem jest skorzystanie z modeli, zawsze korzystam przynajmniej z dwóch. Dostaję tu komplet treści która następnie podlega weryfikacji. Wiem czego mam szukać. Nie potrzebuję pomocy AI w zakresie redagowania tekstu, natomiast gotowy napisany już tekst „wklepuję” do modelu z prośbą o ocenę zawartości merytorycznej. Jako tworzący treści jestem zawsze subiektywny, takie uwagi mogą więc poprawić zarówno jasność przekazu jak też jego zawartość merytoryczną. Ostatnią fazą jest poprawienie interpunkcji. Denerwujące są dla mnie powtarzające się sugestie że model zredaguje mój tekst, naniesie poprawki etc. … Może jest to opcja dla leniwych – ja dziękuję nie skorzystam.
Byłbym zadowolony gdyby taka moja AI na bieżąco informowała mnie o nowych pracach naukowych z interesujących mnie dziedzin wraz z krótkim streszczeniem , aktualnych ofert sprzedaży znaczków pocztowych ( jestem filatelistą) wydanych pomiędzy 1900 a 1945 z uwzględnieniem moich osobistych preferencji jeśli chodzi o kraj i tematykę i informacjach aktualnych z dziedzin życia którymi się interesuję. I gdyby robiła to na zasadzie stałego zlecenia bez konieczności wpisywania prompta.
Konkludując: AI to wspaniałe narzędzie, na które jednak nie można patrzeć bezkrytycznie. Taka krytyka powinna być jednak konstruktywna, proponując zmiany które będą eliminowały obecnie istniejące wady.
Inne tematy w dziale Technologie