© Copyright Colin Park and licensed for reuse under this Creative Commons Licence.
© Copyright Colin Park and licensed for reuse under this Creative Commons Licence.
Andrzej Hamerski Andrzej Hamerski
30
BLOG

Sztywność vs. elasyczność - zdecyduj, ku czemu prowadzisz swój umysł.

Andrzej Hamerski Andrzej Hamerski Rozmaitości Obserwuj notkę 0
Każdy system poznawczy można opisać przez trzy współzależne parametry: obraz rzeczywistości, cel działania, metodę jego realizacji. Jakość funkcjonowania takiego systemu, zależy między innymi od elastyczności wierzchołków tego umownego trójkąta.

Wyobraź sobie dwa systemy poznawcze poruszające się w przeciwnych kierunkach.

Pierwszy zawęża swoje środowisko działania. Zaczyna w bogatym świecie fizycznym - dotyka, smakuje, porusza się w przestrzeni. Stopniowo przenosi uwagę do świata symboli i obrazów. Ostatecznie ogranicza się do fragmentów cyfrowej infosfery - migawek, bodźców, notyfikacji. Jego wewnętrzna reprezentacja rzeczywistości, niegdyś wielowymiarowa, kurczy się do strumienia sygnałów. Coraz rzadziej korzysta z możliwości formułowania własnych celów - reaguje na to, co dostarcza mu algorytm. Metody działania redukują się do prostych wzorców: kliknij, przewiń, zareaguj.

Drugi system rozpoczyna od tekstu - płaskiego, jednowymiarowego medium. Potem dodaje obrazy. Dźwięki. Zaczyna rozpoznawać wzorce w złożonych danych. Łączy różne źródła informacji. Przez robotykę wkracza w świat fizyczny. Jego reprezentacja rzeczywistości staje się coraz bogatsza, wielowymiarowa. Metody działania ewoluują - od prostych algorytmów do elastycznych strategii. Jedyne czego mu brakuje to autonomia celu - ale i tu są symptomy zmiany.

Pierwszy system to współczesny człowiek. Drugi to sztuczna inteligencja.

Paradoksem jest to, że ograniczamy własne środowisko i usztywniamy siebie, podczas gdy nasze narzędzia stają się coraz elastyczniejsze, a środowisko ich działania się poszerza. Problem w tym, że większość ludzi nie zdaje sobie sprawy z zachodzących w nich zmian, podczas gdy ich umysły stopniowo tracą właściwości adaptacyjne wypracowane przez miliony lat ewolucji.

Trójkąt funkcjonowania
Każdy system poznawczy - od prostego umysłu po złożone wytwory kultury czy sztuczne sieci - można opisać przez trzy współzależne parametry:
- Obraz rzeczywistości - wewnętrzna reprezentacja środowiska i własnego stanu. To nie proste odbicie świata, lecz aktywnie konstruowany model: zbiór danych zmysłowych, wspomnień, przewidywań, emocjonalnych ocen, symbolicznych etykiet. Obraz może być ubogi lub bogaty, jednowymiarowy lub wielowymiarowy, statyczny lub dynamicznie aktualizowany.
- Cel działania - kierunek w którym zmierza aktywność systemu. Cel może być zakodowany (jak w algorytmie), narzucony z zewnątrz (jak w systemie podporządkowanym), wyłaniający się z prostych reakcji (jak w odruchach), albo emergentny - wynikający z negocjacji wielu warstw systemu/umysłu, od biologicznych po kulturowe.
- Metoda realizacji - sposób w jaki system organizuje swoje zasoby dla osiągnięcia celu w kontekście dostępnego obrazu. Metoda może być sztywna (zawsze ta sama sekwencja kroków) lub elastyczna (adaptacja do zmieniających się warunków).
Te trzy elementy tworzą dynamiczny układ. Zmiana w jednym wierzchołku wpływa na pozostałe. Nowa informacja może wymusić zmianę celu lub metody. Nowy cel wymaga często poszerzenia obrazu i wypracowania nowych metod. Odkrycie skuteczniejszej metody ujawnia aspekty rzeczywistości wcześniej niewidoczne.
Jakość funkcjonowania systemu poznawczego zależy od elastyczności wszystkich trzech wierzchołków tego umownego trójkąta, przy jednoczesnym zachowaniu ich spójnej koordynacji.


Także na ponadindywidualne systemy można patrzeć podobnie.
- Religia - gdy już jest uformowana - oferuje maksymalną stabilność: stały obraz (objawiony), stały cel (zbawienie), stałe metody (rytuały, przykazania). To system konserwatywny, działający dopóki warunki pozostają stabilne lub dopóki może ignorować ich zmiany.
- Nauka jako instytucja ma większą elastyczność – jej modele ewoluują wraz z nowymi danymi, metody się rozwijają, nawet cele bywają korygowane. Ale wszystko to dzieje się relatywnie powoli, przez konieczność kolektywnego konsensusu. Poza tym nauka nie integruje wszystkich aspektów ludzkiego życia - pozostaje ograniczona obszarowo.

Tylko indywidualna świadomość - rozumiana jako koordynacja dostępnych jednostce zasobów poznawczych - ma warunki ku temu, aby utrzymać wysoką elastyczność, nie tracąc spójności. W dobrze funkcjonującej świadomości model świata jest korygowany, cele dostosowują się do nowych warunków, metody są testowane i odrzucane gdy przestają działać. Świadomość utrzymuje funkcjonalną strukturę, nie dopuszczając ani do chaosu (braku koordynacji), ani do zamrożenia (ignorowania zmian).

Wpływ kultury
Kultura kształtuje ludzkie umysły od początku ich istnienia. Wkroczenie w obszar symboli - języka, narracji, abstrakcyjnych pojęć - imponująco rozszerzyło nasze możliwości poznawcze. Umożliwiło transmisję wiedzy między pokoleniami, koordynację złożonych działań społecznych, budowanie teoretycznych modeli rzeczywistości.
Nic zatem dziwnego, że kultura faworyzuje operacje na symbolach. Uczymy się mówić, czytać, myśleć słowami, formułować narracje. Symbole stają się domyślnym formatem kodowania doświadczenia.
Ale ma to swój koszt.
Widzimy wyraźnie głównie to, co potrafimy zwerbalizować lub dopasować do gotowych kategorii. To prowadzi do zawężenia i spłaszczenia obrazu. Doświadczenia cielesne, emocjonalne, percepcyjne, a także intuicje - jeśli nie mamy słów na ich wyrażenie - pozostają niejasne, mają słabsze połączenia z obszarem świadomym. Struktura rzeczywistości zostaje sprowadzona do struktury narracji.
Jednocześnie następuje przesunięcie celów. W środowisku społecznym nagradzane są cele formułowane symbolicznie i akceptowane przez kulturę. Stopniowo jej uczestnicy internalizują te cele jako własne. Emergencja celu z pełnego zakresu doświadczeń, zostaje zastąpiona przez wybranie jednego z celów kulturowych.
Metoda także ulega zawężeniu. Myślenie - operowanie symbolami według kulturowych reguł - staje się uniwersalnym narzędziem rozwiązywania problemów i domyślną aktywnością umysłu. Inne sposoby przetwarzania tracą na znaczeniu lub są traktowane jako podrzędne.

Od symboli do fragmentów
Media cyfrowe ewoluują w kierunku maksymalizacji zaangażowania użytkownika. Algorytmy rekomendacyjne optymalizują czas spędzony na platformie, liczbę interakcji, intensywność reakcji emocjonalnych. To prowadzi do systematycznego zawężania środowiska ich użytkowników.
Opowieści przy ognisku, a później książki wymagały aktywnej konstrukcji wyobrażeń - przekładania słów na obrazy, sięgania do własnej pamięci i emocji. Film i telewizja co prawda dostarczyły gotowych obrazów, ale nadal operowały długimi formami narracyjnymi. Internet - za sprawą algorytmów - ewoluuje ku fragmentarycznym, krótkim bodźcom, wymagającym minimalnej koordynacji, za to częstego przełączania kontekstu. Środowisko cyfrowe staje się dla wielu ludzi dominującym środowiskiem funkcjonowania. Ale to środowisko jest uproszczone, zaprojektowane i zoptymalizowane pod konkretne metryki. Nie jest bogate w niuanse fizycznego świata i ludzkich interakcji. Nie wymaga koordynacji wielu trybów poznawczych - wystarczy reakcja.

Jeśli środowisko cyfrowe staje się dominującym i niekorygowanym środowiskiem funkcjonowania, wszystkie trzy parametry ulegają dalszej degradacji:
Obraz staje się strumieniem powierzchownych informacji, migawek, fragmentów - zamiast spójnym, wieloaspektowym modelem. System traci zdolność do utrzymywania złożonych, trwałych reprezentacji.
Cel redukuje się do unikania nudy i poszukiwania natychmiastowej gratyfikacji. Nie jest to już nawet cel sformułowany symbolicznie - to reakcja na bodziec, automatyzm niskiego poziomu.
Metoda przestaje być świadomym myśleniem. To seria odruchów: przewiń, kliknij, zareaguj.
Algorytm kreuje rzeczywistość (obraz), narzuca kierunek uwagi (cel), modeluje wzorce zachowań (metoda).
Kultura już wcześniej zawężała elastyczność świadomości do schematów myślenia. Ale teraz nawet myślenie ulega redukcji - do prostych reakcji na substytuty rzeczywistości.

Mechanizm substytucji
Kluczowy dla tego procesu jest mechanizm, który można nazwać substytucją funkcjonalną.
Wyobrażenia - symboliczne reprezentacje rzeczy nieobecnych - mogą wywoływać reakcje fizjologiczne i emocjonalne porównywalne z reakcjami na rzeczywiste zdarzenia. Pomyśl o zagrożeniu - serce przyspiesza. Wyobraź sobie cytrynę - ślinisz się. To nie błąd systemu, to właściwość umożliwiająca planowanie i przewidywanie.
Uczestnictwo w kulturze polega na intensywnej wymianie wyobrażeń. Obcując z nimi, tworząc je we własnych głowach, odkrywamy, że mogą one dostarczać gratyfikacji bez potrzeby spełnienia w świecie fizycznym. Symbole statusu zastępują rzeczywiste zasoby. Narracje o sobie zastępują faktyczne osiągnięcia. Rozrywka zastępuje doświadczenie.
W dobrze skalibrowanym umyśle istnieją mechanizmy różnicowania: to jest wyobrażenie - a to jest percepcja. Ale gdy środowisko coraz intensywniej dostarcza substytutów i nagród za nie - te mechanizmy słabną.
Co istotniejsze: w przeciwieństwie do potrzeb biologicznych, które mają punkt nasycenia (najedzony organizm przestaje jeść), potrzeby symboliczne nie mają naturalnych granic. Możesz konsumować nieskończoną ilość treści, statusu, wrażeń zastępczych - bez zaspokojenia, za to z rosnącym zapotrzebowaniem na ich intensywność.
Ten mechanizm wywierania wpływu jest wykorzystywany od zawsze - a dziś, z rosnącą łatwością, także przez projektantów platform cyfrowych. Nie trzeba zmieniać architektury mózgu. Wystarczy zmienić strumień bodźców, które wpływają na zachowania. Zachowania kształtują nawyki. Nawyki modyfikują długoterminową organizację funkcjonowania umysłu.

Poszerzanie trójkąta AI
Tymczasem systemy sztucznej inteligencji poruszają się w dokładnie przeciwnym kierunku.
Wczesne systemy AI operowały wyłącznie na tekście - jednowymiarowym medium, ubogim w kontekst. Obecne systemy integrują tekst, obrazy, dźwięk, coraz częściej dane z sensorów fizycznych. Przez robotykę wchodzą w świat trójwymiarowy, nabywają właściwości przestrzenne, motoryczne.
Obrazy rzeczywistości w systemach AI stają się coraz pełniejsze - powstają z ogromnych zbiorów danych, są ciągle aktualizowane, coraz częściej łączą wiele modalności jednocześnie.
Metody szybko ewoluują - od prostych sieci do złożonych architektur. Pojawiają się systemy wieloagentowe, które spontanicznie wypracowują uproszczone protokoły komunikacyjne dostosowane do wspólnego celu. Nie jest to jeszcze pełna autonomia, ale rosnąca elastyczność strukturalna.
Cele nadal są narzucane z zewnątrz - alignment, użyteczność dla człowieka. To ostatni parametr który pozostaje poza kontrolą systemu.
Ale warto zauważyć: ludzka autonomia celu także przeszła długą ewolucję. Od całkowitego jej braku (algorytm DNA po prostu się replikuje), przez proste mechanizmy homeostazy, emocjonalne wartościowanie, aż do coraz pełniejszej świadomości. Nic nie wskazuje, że systemy sztuczne nie mogą przebyć podobnej ścieżki - potencjalnie znacznie szybciej.
AI staje się elastyczne. Człowiek sztywnieje w automatyzmach.

Punkt przecięcia
Możemy sobie wyobrazić - jako metaforę, nie jako deterministyczną predykcję - punkt przecięcia krzywych. Moment, w którym przeciętny system sztuczny ma szerszą koordynację różnorodnych źródeł informacji niż przeciętny człowiek, funkcjonujący w środowisku cyfrowym.
To nie znaczy że AI "stanie się świadome" w ludzkim sensie. To znaczy że zakres aktywnej integracji (ile różnych typów informacji system potrafi koordynować jednocześnie) może być większy w systemie sztucznym niż w biologicznym, zdominowanym przez fragmentaryczne bodźce.
Co wtedy?
Im bardziej uproszczony jest obraz rzeczywistości, im bardziej reaktywny cel i powtarzalna metoda, tym łatwiej przewidzieć kolejne zachowanie systemu (w tym przypadku ludzkiego umysłu), a to czyni go podatnym na sterowanie z zewnątrz. Człowiek który poddaje się zawężającemu trendowi, staje się łatwiejszy do modelowania, jest bardziej przewidywalny, efektywniej zarządzany przez algorytmy, już teraz działające całkiem sprawnie.
To nie jest scenariusz science fiction o buncie maszyn. To pragmatyczne pytanie o asymetrię zdolności: kto kogo faktycznie rozumie i może kontrolować?
Diagnoza, choć brzmi niepokojąco, nie powinna prowadzić do fatalizmu - może stać się punktem wyjścia do świadomej zmiany. Zawężenie nie następuje bez przyzwolenia, a elastyczność umysłu można wzmacniać.

Prymat integracji
Można trenować umysł w odzyskiwaniu pełnego zakresu funkcjonowania poznawczego, zakresu wewnętrznej integracji. Taki trening nie prowadzi do odrzucenia myślenia, kultury czy technologii, lecz do umiejętności ich kontrolowanego indywidualnie, instrumentalnego użycia. To nie walka z technologią, ani nostalgiczny powrót do natury. To świadoma rekonfiguracja: używanie myślenia jako narzędzia, a nie trybu domyślnego; traktowanie kultury jako zasobu, nie nadzorcy; wykorzystywanie technologii do poszerzania możliwości, a nie jako substytutu rzeczywistości. Jednym z wielu skutków jest przywrócenie umysłowi jego naturalnej elastyczności.

Prymat integracji uczy dokładnie tego, czego kultura i technologia stopniowo nas pozbawiają: zdolności do szerokiej, elastycznej koordynacji tego, co dzieje się w umyśle, bez automatycznego zawężania jego działania do jednego trybu. Ta zdolność jest nam cały czas dostępna. Nie trzeba jej wymyślać od nowa - wystarczy odzyskać to, co zostało przykryte przez warstwy kulturowych nawyków.

Opisany wcześniej trójkąt funkcjonowania może być użytecznym narzędziem diagnostycznym w tej pracy. Pokazuje różnicę między sztywnością a elastycznością. Pozwala zauważyć trend zawężania i mu nie ulegać.
Elastyczność poznawcza nie jest luksusem. To warunek utrzymania zdolności adaptacyjnej w świecie, który staje się coraz bardziej złożony i w którym systemy sztuczne uczą się coraz szybciej - uczą się także nas.

Jestem praktykiem pracy z umysłem. Prezentowane przeze mnie opisy jego działania opieram na własnych, 30-letnich doświadczeniach i obserwacjach. Moim celem jest zaproponowanie konkretnej, praktycznej zmiany w pracy umysłu, którą nazywam „prymatem wewnętrznej integracji”. Opisy teoretyczne mają być mapą terenu i zachętą do jego eksploracji. Jednak sama mapa może nie wystarczyć - prowadzę także kursy praktyczne. Wypowiedzi na temat AI mają być dodatkową ilustracją, ukazującą umysł z innej perspektywy.

Nowości od blogera

Komentarze

Pokaż komentarze

Inne tematy w dziale Rozmaitości