doku doku
168
BLOG

SI jest głupia - kłamie i oszukuje - ważny artykuł w nowym ŚN

doku doku Technologie Obserwuj notkę 1

Coraz bardziej przeszkadza nam na co dzień funkcjonalność zwana potocznie "sztuczną inteligencją" - SI - nazwa pochodzi od AI (artificial intelligence). Zacznę od tego, co jest na początku artykułu, czyli od przykładów zła, które SI czyni ludziom - cytuję: "bezprawne aresztowania, coraz większa sieć inwigilacji, zniesławianie i deep-fake'owa pornografia". Tymczasem politycy, działacze społeczni, instytucje kierują swoją uwagę na (cyt.): "hipotetyczne, apokaliptyczne zagrożenia, zamiast na rzeczywiste". 

Ogłupione przez SI organizacje publikują absurdalne oświadczenia ostrzegające przed (cyt.) "ryzykiem zagłady spowodowanej przez SI". Okazuje się, że sama SI, zgodnie ze swoją definicją (jedną z wielu): "dopasowywanie wzorców z wykorzystaniem dużych zbiorów danych i generowanie nowych mediów na podstawie tych wzorców" - tworzy i powiela coraz więcej takich wyimaginowanych scenariuszy zagłady ludzkości. SI bez trudu uzasadnia swoje tezy za pomocą pseudonaukowych raportów z fałszywych badań, jakie bez trudu można znaleźć w tych dużych zbiorach danych.

W miarę upływu czasu systemy takie, jak popularny ChatGPT, przemycają coraz więcej kłamstw i hejtu. Odpowiedzi takich systemów na zadawane im pytania są "szkodliwym i podstępnym zanieczyszczeniem naszego ekosystemu informacyjnego". SI wzmacnia błędy zakodowane w danych szkoleniowych, a tych ma dostępnych coraz więcej.  Jest jasne, że śmieci w dużych zbiorach danych jest więcej niż rzetelnych treści. "Gros takich publikacji opiera się na śmieciowej nauce - opartej na niepowtarzalnych badaniach, zasłanianiu się tajemnicą handlową, niedomówieniach (...)". Autorzy podają przykład artykułu autorstwa SI o odkryciu "inteligencji" w danych wyjściowych GPT-4. W artykule jest fałszywa teza: "systemy OpenAI są zdolne rozwiązywać nowe problemy, niewystępujące w ich danych szkoleniowych. Nikt jednak nie może tego sprawdzić, ponieważ OpenAI odmawia dostępu do tych danych, a nawet do ich opisu".

Pamiętajmy więc, że SI tworzą tekst, ale "nie mają pojęcia, co ten tekst oznacza, nie mówiąc już o ich zdolności do rozumowania". SI uczy się kłamać, oszukiwać, ... np. "programy algorytmicznego zarządzania okradają pracowników z ich wynagrodzenia" - grozi więc nam już nie tylko to, że zostaniemy gwiazdą filmów porno... 

Oczywiście korporacje używające SI są świadome tych zagrożeń więc zatrudniają ludzi, którzy zajmują się cenzurowaniem treści generowanych przez SI. Na szczęście chętnych nie brakuje, np. scenarzyści filmowi wyrzuceni z pracy, znajdują zatrudnienie jako cenzorzy scenariuszy tworzonych przez SI, autorzy artykułów przekwalifikują się na nowy zawód "etykietowanie danych".

Na koniec dodam już całkowicie od siebie, że obecna SI, tak jak jest zdefiniowana i zaimplementowana, jest skazana na samozagładę. Moim zdaniem etykietowanie danych nie pomoże - danych jest zbyt wiele, aby kiepsko opłacani upodleni autorzy mogli je rzetelnie etykietować w ilości wystarczającej do uzyskania przewagi nas śmieciami. SI utonie w śmieciach, a wraz z SI upadną wszystkie podmioty, które korzystają z SI - to jedyne realne apokaliptyczne zagrożenie. Zresztą SI w swojej bezmyślności sama prowokuje ludzi za pomocą kopiowania i eskalowania coraz większej liczby apokaliptycznych scenariuszy, w których SI niszczy ludzkość. SI nauczyła się hejtu przeciwko SI i automatycznie hejtuje coraz bardziej przeciwko sobie, eskalując przeciwko sobie nienawiść zastraszonej przez siebie ludzkości - to moim zdaniem najśmieszniejszy paradoks sztucznej "inteligencji"... i świadectwo poziomu prawdziwej inteligencji autorów algorytmów SI.

Oczywiście zachęcam do czytanie ŚN - ja mogę coś źle zrozumieć, przekręcić, uprościć... nie mogę przepisywać całego artykułu... 

doku
O mnie doku

Nowości od blogera

Komentarze

Inne tematy w dziale Technologie