Grzegorz Świderski Grzegorz Świderski
91
BLOG

Wojna z botami

Grzegorz Świderski Grzegorz Świderski Społeczeństwo Obserwuj notkę 0
Od kil­ku­na­stu lat ob­ser­wu­je­my ob­se­sją na punk­cie bo­tów. Bo­ty na X, bo­ty na Fa­ce­bo­oku, bo­ty na YouTu­be, bo­ty w ko­men­ta­rza­ch, bo­ty w po­li­ty­ce, bo­ty w mar­ke­tin­gu. Dys­kurs pu­blicz­ny zo­stał usta­wio­ny tak, jak­by naj­waż­niej­szym py­ta­niem epo­ki by­ło to, czy po dru­giej stro­nie sie­dzi czło­wiek, al­go­rytm czy AI. To je­st py­ta­nie źle po­sta­wio­ne.

  Bo je­śli ty­siąc kont ro­bi do­kład­nie to sa­mo, w tym sa­mym cza­sie, z tym sa­mym skut­kiem spo­łecz­nym, to z punk­tu wi­dze­nia po­rząd­ku in­for­ma­cyj­ne­go ma dru­go­rzęd­ne zna­cze­nie to, czy ro­bią to ser­we­ry, te­le­fo­ny, emu­la­tor czy sta­do opła­co­ny­ch lu­dzi. Sku­tek je­st ten sam: sztucz­ne pom­po­wa­nie wi­docz­no­ści, sztucz­ne wra­że­nie po­par­cia, sztucz­na pre­sja spo­łecz­na i sztucz­ne kształ­to­wa­nie per­cep­cji rze­czy­wi­sto­ści.

  Na tym po­le­ga pod­sta­wo­wy błąd ca­łej tej de­ba­ty. Nie cho­dzi o bo­ty. Cho­dzi o sko­or­dy­no­wa­ną nie­au­ten­tycz­no­ść. Me­ta na­zy­wa to "co­or­di­na­ted in­au­then­tic be­ha­vior", czy­li sko­or­dy­no­wa­nym nie­au­ten­tycz­nym dzia­ła­niem słu­żą­cym ma­ni­pu­la­cji de­ba­tą pu­blicz­ną przy uży­ciu fał­szy­wy­ch kont i ukry­ty­ch po­wią­zań. To po­ję­cie je­st waż­niej­sze niż ana­li­za bot czy czło­wiek.

  Ist­nie­je tyl­ko je­den po­wód, dla któ­re­go plat­for­my chcą wie­dzieć, kto je­st kim. To pie­nią­dze re­kla­mo­daw­ców. Mar­ka nie chce pła­cić za wy­świe­tle­nie re­kla­my bo­to­wi, na­wet je­śli ten bot za­cho­wu­je się ide­al­nie ludz­ko. Jed­nak to nie je­st naj­waż­niej­szy po­wód, by wal­czyć ze sztucz­ny­mi bo­ta­mi. Ludz­cy trol­le na­dal po­zo­sta­ją pro­ble­mem.

  In­ter­net lu­bi ob­raz­ki. Dla­te­go, kie­dy ktoś po­ka­zu­je re­gał pe­łen te­le­fo­nów, wszy­scy wpa­da­ją w pa­ni­kę: o, praw­dzi­wa far­ma trol­li! Ty­le że fi­zycz­ny te­le­fon ni­cze­go za­sad­ni­czo nie roz­wią­zu­je. Za tym te­le­fo­nem i tak stoi emu­la­tor.

  Far­ma har­dwa­re’owa na­dal je­st emu­la­cją. Nie emu­lu­je te­le­fo­nu, bo te­le­fon je­st praw­dzi­wy. Emu­lu­je czło­wie­ka. A to je­st rze­cz waż­niej­sza i trud­niej­sza. Ba­da­nia nad dy­na­mi­ką bo­tów i lu­dzi po­ka­zu­ją, że róż­ni­ce wy­stę­pu­ją nie tyl­ko w sa­mej czę­sto­tli­wo­ści pu­bli­ka­cji, le­cz tak­że w ryt­mie ak­tyw­no­ści, wzor­ca­ch in­te­rak­cji i struk­tu­rze re­la­cji spo­łecz­ny­ch.

  Wie­le osób wy­obra­ża so­bie, że pro­ble­mem je­st to, czy sys­tem roz­po­zna emu­la­tor An­dro­ida al­bo sztucz­ny "brow­ser fin­ger­print". Ow­szem, to je­st pew­na war­stwa tech­nicz­na. Jed­nak war­stwa waż­niej­sza je­st wy­żej: czy ca­łe za­cho­wa­nie kont i ich sie­ci re­la­cji wy­glą­da jak zja­wi­sko or­ga­nicz­ne, czy jak ope­ra­cja wpły­wu.

  Gdy sys­te­my za­czy­na­ją wy­kry­wać bo­ty, twór­cy bo­tów uczą je le­piej uda­wać lu­dzi. Gdy uczą je le­piej uda­wać lu­dzi, sys­te­my uczą się wy­kry­wać bar­dziej sub­tel­ne wzor­ce. Tak po­wsta­je kla­sycz­ny wy­ścig zbro­jeń.

  Czy ta­ki wy­ścig zbro­jeń nie ma koń­ca? On ma gra­ni­cę i to bar­dzo twar­dą. Tą gra­ni­cą są praw­dzi­wi lu­dzie. Im bar­dziej pod­krę­ca się czu­ło­ść de­tek­cji, tym bar­dziej ro­śnie licz­ba po­my­łek. Ba­da­nia pro­ble­mu "fal­se po­si­ti­ves" w au­to­ma­tycz­nej de­tek­cji bo­tów po­ka­zu­ją wpro­st, że wraz ze zmia­ną pro­gu sys­tem mo­że kla­sy­fi­ko­wać co­raz więk­szą licz­bę lu­dzi ja­ko bo­ty, zwłasz­cza gdy dzia­ła po­za po­pu­la­cją, na któ­rej był tre­no­wa­ny, al­bo w in­ny­ch ję­zy­ka­ch.

  To ozna­cza, że żad­na plat­for­ma nie mo­że wy­grać woj­ny z bo­ta­mi przez nie­ustan­ne za­ostrza­nie re­guł. Bo w pew­nym mo­men­cie za­cznie ka­rać re­al­ny­ch użyt­kow­ni­ków bar­dziej niż szko­dzić oszu­stom. Wte­dy ca­ła lo­gi­ka sys­te­mu się od­wra­ca: obro­na przed nie­au­ten­tycz­no­ścią za­czy­na nisz­czyć au­ten­tycz­no­ść.

  Dla­te­go obec­ny mo­del je­st fi­lo­zo­ficz­nie ku­la­wy. Pró­bu­je od­po­wie­dzieć na py­ta­nie on­to­lo­gicz­ne — kto je­st czło­wie­kiem, a kto nie je­st — pod­czas gdy po­wi­nien od­po­wia­dać na py­ta­nie funk­cjo­nal­ne: kto i co szko­dzi sys­te­mo­wi.

  W in­fra­struk­tu­rze tech­nicz­nej ta praw­da je­st oczy­wi­sta od daw­na. Przy ata­ka­ch DDoS nikt nie urzą­dza śledz­twa, czy pa­kie­ty po­cho­dzą od bo­tów, lu­dzi, źle na­pi­sa­ny­ch klien­tów, czy na­głej eks­plo­zji za­in­te­re­so­wa­nia. Sys­tem pa­trzy na sku­tek: czy ru­ch de­sta­bi­li­zu­je usłu­gę. Po­tem sto­su­je "ra­te li­mi­ting", "throt­tling" i in­ne me­cha­ni­zmy ogra­ni­cza­ją­ce szko­dli­we na­tę­że­nie dzia­łań.

  W me­dia­ch spo­łecz­no­ścio­wy­ch po­win­no być po­dob­nie, ale nie je­st. Tu, za­mia­st py­tać: „czy to szko­dzi?”, czę­sto py­ta się: „czy to bot?”. To je­st błąd ka­te­go­rii. Je­śli ty­siąc kont jed­no­cze­śnie pro­du­ku­je spam, ma­ni­pu­la­cję lub sztucz­ne wra­że­nie po­par­cia, to ich on­to­lo­gia nie ma więk­sze­go zna­cze­nia. Li­czy się sko­or­dy­no­wa­ny sku­tek.

  To sa­mo do­ty­czy ma­so­wy­ch re­ak­cji lu­dzi. Je­śli mi­lion osób w jed­nej chwi­li ro­bi to sa­mo dla­te­go, że za­dzia­łał na ni­ch me­cha­ni­zm emo­cjo­nal­ne­go wzbu­dze­nia i al­go­ryt­micz­ne do­pa­la­nie wi­ral­no­ści, to efekt sys­te­mo­wy by­wa bar­dzo po­dob­ny do zma­so­wa­ne­go ata­ku bo­tów. Pro­ble­mem nie je­st już wte­dy fał­szy­wo­ść, le­cz de­sta­bi­li­za­cja po­znaw­cza i prze­moc ska­li. Lu­dzie by­wa­ją czę­ściej głup­si niż bo­ty, a ich re­ak­cja bar­dziej szko­dli­wa. Bot je­st po to, by je­go far­ma za­ro­bi­ła, a czło­wiek kie­ru­je się emo­cja­mi i głu­po­tą — za­bi­ja, nisz­czy, krad­nie, oszu­ku­je, nie tyl­ko, by za­ro­bić, ale dla za­ba­wy, ze zło­śli­wo­ści czy z po­wo­du za­bu­rzeń psy­chicz­ny­ch.

  W isto­cie to ma­so­wo­ść ludz­ka je­st pa­to­lo­gią! De­mo­kra­tycz­ne woj­ny to­tal­ne po­ka­zu­ją, że wca­le nie je­st tak, że wszyst­ko, co ro­bią praw­dzi­wi lu­dzie, je­st z de­fi­ni­cji do­bre, a wszyst­ko, co ro­bią bo­ty, je­st z de­fi­ni­cji złe. Tłum ludz­ki je­st rów­nie de­struk­cyj­ny, jak far­ma au­to­ma­tycz­ny­ch trol­li.

  Je­den pro­gra­mi­sta mo­że na­pi­sać spryt­ne­go bo­ta (czy opro­gra­mo­wać ich far­mę) i zdo­być wpływ ta­ki, ja­ki ma wie­le lu­dzi. Nie­mniej do­kład­nie to sa­mo mo­że zro­bić spry­ty so­cjo­tech­nik: pu­ścić plot­kę, na któ­rą za­re­agu­je ty­sią­ce głup­ków i zdo­bę­dzie tym też po­dob­ny wpływ.

  Je­że­li plat­for­ma na­gra­dza na­tych­mia­sto­wo­ść, im­pul­syw­no­ść i gwał­tow­ne ka­ska­dy re­ak­cji, to sa­ma sta­je się ma­szy­ną do pro­duk­cji stad­ny­ch od­ru­chów. Wte­dy nie ma więk­sze­go zna­cze­nia, czy po­pyt na tre­ść zo­stał wy­wo­ła­ny przez bo­ty, przez mar­ke­ting czy przez au­ten­tycz­ny tłum roz­grza­ny do czer­wo­no­ści. Me­cha­ni­zm wzmac­nia­nia je­st ten sam.

  To wła­śnie dla­te­go śle­pa woj­na z bo­ta­mi je­st bez sen­su. Ona roz­po­zna­je ak­to­ra, a nie me­cha­ni­zm szko­dy. Tym­cza­sem szko­da po­le­ga nie na tym, że coś zo­sta­ło zro­bio­ne przez au­to­mat, tyl­ko że sys­tem pre­mii i bodź­ców na­gra­dza ma­so­wą, gwał­tow­ną, sko­or­dy­no­wa­ną re­ak­cję nie­za­leż­nie od jej ja­ko­ści, praw­dzi­wo­ści i sen­su.

  Ja­ki je­st więc sens ca­łej obro­ny? Sen­sow­na obro­na nie po­win­na po­le­gać przede wszyst­kim na od­róż­nia­niu czło­wie­ka od bo­ta. Po­win­na po­le­gać na ogra­ni­cza­niu te­go, co psu­je śro­do­wi­sko in­for­ma­cyj­ne. A więc: tłu­mić spam, flo­od i sztucz­ne sko­ki ak­tyw­no­ści, ogra­ni­czać wpływ na­gły­ch ka­skad na ran­king i wi­docz­no­ść, wy­kry­wać ukry­te sie­ci ko­or­dy­na­cji, a nie tyl­ko po­je­dyn­cze po­dej­rza­ne kon­ta — i ak­cep­to­wać fakt, że pew­nej czę­ści bo­tów nie da się usu­nąć bez krzyw­dze­nia lu­dzi.

  To nie je­st ka­pi­tu­la­cja. To je­st doj­rzal­sza teo­ria sys­te­mu. Nie wszyst­ko, co nie­au­ten­tycz­ne, da się wy­kryć. Nie wszyst­ko, co wy­kry­wal­ne, da się usu­nąć bez szko­dy ubocz­nej. A nie wszyst­ko, co au­ten­tycz­ne, je­st cen­ne.

  Woj­na z bo­ta­mi je­st źle na­zwa­na. To nie je­st woj­na z bo­ta­mi. To je­st woj­na o to, czy prze­strzeń pu­blicz­na ma na­gra­dzać praw­dę, sens i or­ga­nicz­no­ść, czy ma­sę, tem­po i emo­cjo­nal­ny im­pet.

  Bot je­st tyl­ko jed­nym z na­rzę­dzi. Czło­wiek w sta­dzie by­wa dru­gim. Al­go­rytm wzmac­nia­ją­cy by­wa trze­cim. Praw­dzi­wy pro­blem nie sie­dzi więc w te­le­fo­nie, ser­we­rze ani emu­la­to­rze. Praw­dzi­wy pro­blem sie­dzi w ar­chi­tek­tu­rze sys­te­mu, któ­ry nie roz­róż­nia mię­dzy za­in­te­re­so­wa­niem a na­po­rem, mię­dzy po­par­ciem a syn­chro­ni­za­cją, mię­dzy ży­ciem spo­łecz­nym a tech­ni­ką ma­ni­pu­la­cji.

Grzegorz GPS Świderski

__________________

Jak jeszcze w tym roku upadnie Tusk<- poprzednia notka

na­stęp­na not­ka -> Finanse obronne bez darmowych obiadów

__________________

Ta­gi: gps65, AI, Farma Trolli, Media społecznościowe,.

Bloger, sarmatolibertarianin, informatyk, żeglarz, futurysta AI, trajkkarz. Polemizuję, myślę, argumentuję, filozofuję, dyskutuję, uzasadniam, politykuję, prowokuję.

Nowości od blogera

Komentarze

Pokaż komentarze

Inne tematy w dziale Społeczeństwo