Bo jeśli tysiąc kont robi dokładnie to samo, w tym samym czasie, z tym samym skutkiem społecznym, to z punktu widzenia porządku informacyjnego ma drugorzędne znaczenie to, czy robią to serwery, telefony, emulator czy stado opłaconych ludzi. Skutek jest ten sam: sztuczne pompowanie widoczności, sztuczne wrażenie poparcia, sztuczna presja społeczna i sztuczne kształtowanie percepcji rzeczywistości.
Na tym polega podstawowy błąd całej tej debaty. Nie chodzi o boty. Chodzi o skoordynowaną nieautentyczność. Meta nazywa to "coordinated inauthentic behavior", czyli skoordynowanym nieautentycznym działaniem służącym manipulacji debatą publiczną przy użyciu fałszywych kont i ukrytych powiązań. To pojęcie jest ważniejsze niż analiza bot czy człowiek.
Istnieje tylko jeden powód, dla którego platformy chcą wiedzieć, kto jest kim. To pieniądze reklamodawców. Marka nie chce płacić za wyświetlenie reklamy botowi, nawet jeśli ten bot zachowuje się idealnie ludzko. Jednak to nie jest najważniejszy powód, by walczyć ze sztucznymi botami. Ludzcy trolle nadal pozostają problemem.
Internet lubi obrazki. Dlatego, kiedy ktoś pokazuje regał pełen telefonów, wszyscy wpadają w panikę: o, prawdziwa farma trolli! Tyle że fizyczny telefon niczego zasadniczo nie rozwiązuje. Za tym telefonem i tak stoi emulator.
Farma hardware’owa nadal jest emulacją. Nie emuluje telefonu, bo telefon jest prawdziwy. Emuluje człowieka. A to jest rzecz ważniejsza i trudniejsza. Badania nad dynamiką botów i ludzi pokazują, że różnice występują nie tylko w samej częstotliwości publikacji, lecz także w rytmie aktywności, wzorcach interakcji i strukturze relacji społecznych.
Wiele osób wyobraża sobie, że problemem jest to, czy system rozpozna emulator Androida albo sztuczny "browser fingerprint". Owszem, to jest pewna warstwa techniczna. Jednak warstwa ważniejsza jest wyżej: czy całe zachowanie kont i ich sieci relacji wygląda jak zjawisko organiczne, czy jak operacja wpływu.
Gdy systemy zaczynają wykrywać boty, twórcy botów uczą je lepiej udawać ludzi. Gdy uczą je lepiej udawać ludzi, systemy uczą się wykrywać bardziej subtelne wzorce. Tak powstaje klasyczny wyścig zbrojeń.
Czy taki wyścig zbrojeń nie ma końca? On ma granicę i to bardzo twardą. Tą granicą są prawdziwi ludzie. Im bardziej podkręca się czułość detekcji, tym bardziej rośnie liczba pomyłek. Badania problemu "false positives" w automatycznej detekcji botów pokazują wprost, że wraz ze zmianą progu system może klasyfikować coraz większą liczbę ludzi jako boty, zwłaszcza gdy działa poza populacją, na której był trenowany, albo w innych językach.
To oznacza, że żadna platforma nie może wygrać wojny z botami przez nieustanne zaostrzanie reguł. Bo w pewnym momencie zacznie karać realnych użytkowników bardziej niż szkodzić oszustom. Wtedy cała logika systemu się odwraca: obrona przed nieautentycznością zaczyna niszczyć autentyczność.
Dlatego obecny model jest filozoficznie kulawy. Próbuje odpowiedzieć na pytanie ontologiczne — kto jest człowiekiem, a kto nie jest — podczas gdy powinien odpowiadać na pytanie funkcjonalne: kto i co szkodzi systemowi.
W infrastrukturze technicznej ta prawda jest oczywista od dawna. Przy atakach DDoS nikt nie urządza śledztwa, czy pakiety pochodzą od botów, ludzi, źle napisanych klientów, czy nagłej eksplozji zainteresowania. System patrzy na skutek: czy ruch destabilizuje usługę. Potem stosuje "rate limiting", "throttling" i inne mechanizmy ograniczające szkodliwe natężenie działań.
W mediach społecznościowych powinno być podobnie, ale nie jest. Tu, zamiast pytać: „czy to szkodzi?”, często pyta się: „czy to bot?”. To jest błąd kategorii. Jeśli tysiąc kont jednocześnie produkuje spam, manipulację lub sztuczne wrażenie poparcia, to ich ontologia nie ma większego znaczenia. Liczy się skoordynowany skutek.
To samo dotyczy masowych reakcji ludzi. Jeśli milion osób w jednej chwili robi to samo dlatego, że zadziałał na nich mechanizm emocjonalnego wzbudzenia i algorytmiczne dopalanie wiralności, to efekt systemowy bywa bardzo podobny do zmasowanego ataku botów. Problemem nie jest już wtedy fałszywość, lecz destabilizacja poznawcza i przemoc skali. Ludzie bywają częściej głupsi niż boty, a ich reakcja bardziej szkodliwa. Bot jest po to, by jego farma zarobiła, a człowiek kieruje się emocjami i głupotą — zabija, niszczy, kradnie, oszukuje, nie tylko, by zarobić, ale dla zabawy, ze złośliwości czy z powodu zaburzeń psychicznych.
W istocie to masowość ludzka jest patologią! Demokratyczne wojny totalne pokazują, że wcale nie jest tak, że wszystko, co robią prawdziwi ludzie, jest z definicji dobre, a wszystko, co robią boty, jest z definicji złe. Tłum ludzki jest równie destrukcyjny, jak farma automatycznych trolli.
Jeden programista może napisać sprytnego bota (czy oprogramować ich farmę) i zdobyć wpływ taki, jaki ma wiele ludzi. Niemniej dokładnie to samo może zrobić spryty socjotechnik: puścić plotkę, na którą zareaguje tysiące głupków i zdobędzie tym też podobny wpływ.
Jeżeli platforma nagradza natychmiastowość, impulsywność i gwałtowne kaskady reakcji, to sama staje się maszyną do produkcji stadnych odruchów. Wtedy nie ma większego znaczenia, czy popyt na treść został wywołany przez boty, przez marketing czy przez autentyczny tłum rozgrzany do czerwoności. Mechanizm wzmacniania jest ten sam.
To właśnie dlatego ślepa wojna z botami jest bez sensu. Ona rozpoznaje aktora, a nie mechanizm szkody. Tymczasem szkoda polega nie na tym, że coś zostało zrobione przez automat, tylko że system premii i bodźców nagradza masową, gwałtowną, skoordynowaną reakcję niezależnie od jej jakości, prawdziwości i sensu.
Jaki jest więc sens całej obrony? Sensowna obrona nie powinna polegać przede wszystkim na odróżnianiu człowieka od bota. Powinna polegać na ograniczaniu tego, co psuje środowisko informacyjne. A więc: tłumić spam, flood i sztuczne skoki aktywności, ograniczać wpływ nagłych kaskad na ranking i widoczność, wykrywać ukryte sieci koordynacji, a nie tylko pojedyncze podejrzane konta — i akceptować fakt, że pewnej części botów nie da się usunąć bez krzywdzenia ludzi.
To nie jest kapitulacja. To jest dojrzalsza teoria systemu. Nie wszystko, co nieautentyczne, da się wykryć. Nie wszystko, co wykrywalne, da się usunąć bez szkody ubocznej. A nie wszystko, co autentyczne, jest cenne.
Wojna z botami jest źle nazwana. To nie jest wojna z botami. To jest wojna o to, czy przestrzeń publiczna ma nagradzać prawdę, sens i organiczność, czy masę, tempo i emocjonalny impet.
Bot jest tylko jednym z narzędzi. Człowiek w stadzie bywa drugim. Algorytm wzmacniający bywa trzecim. Prawdziwy problem nie siedzi więc w telefonie, serwerze ani emulatorze. Prawdziwy problem siedzi w architekturze systemu, który nie rozróżnia między zainteresowaniem a naporem, między poparciem a synchronizacją, między życiem społecznym a techniką manipulacji.
__________________
Jak jeszcze w tym roku upadnie Tusk<- poprzednia notka
następna notka -> Finanse obronne bez darmowych obiadów
__________________
Tagi: gps65, AI, Farma Trolli, Media społecznościowe,.


Komentarze
Pokaż komentarze