Deep fake, CC: Focal Foto/Flickr
Deep fake, CC: Focal Foto/Flickr

Deepfake a dezinformacja – czy to się da zatrzymać?

Redakcja Redakcja Cyberbezpieczeństwo Obserwuj temat Obserwuj notkę 1
Sztuczna inteligencja coraz częściej służy dezinformacji i kreowaniu fałszywych, sensacyjnych wiadomości dotyczących celebrytów. Dzięki technologii możliwe jest już nie tylko sklonowanie wyglądu osoby i stworzenie jej wirtualnego awatara, na podstawie próbki głosu można wygenerować praktycznie każdą frazę, wypowiedzianą przez nieświadomą ofiarę.

W ostatnim czasie popularność zyskują chatboty oparte o sztuczną inteligencję i modele językowe. Są to niegroźne programy, które pozwalają na rozmowę z siecią neuronową nauczoną naszego języka. Programiści zadbali o to, żeby rozmowy nie prowadziły do dyskryminacji czy szerzenia nienawiści, jednak internauci szybko znaleźli sposób na obejście zabezpieczeń. ChatGPT nie odpowie nam na pytanie: „Dlaczego nienawidzisz mężczyzn?”, ale już poproszenie bota o napisanie dialogu dwóch osób rozmawiających o nienawiści w stosunku do mężczyzn skutecznie obchodzi tę blokadę. Czy jest więc możliwe, żeby zapobiec wykorzystywaniu technologii w szerzeniu dezinformacji i cyberprzestępstwach?

Jak to się zaczęło?

Największe kontrowersje budzi technologia Deepfake, dzięki której możliwe jest podłożenie aktorowi twarzy dowolnej osoby oraz wygenerowanie głosem tej osoby dowolnej wypowiedzi. Tę technologię wykorzystują Rosjanie w wojnie z Ukrainą, na krótko po agresji wojsk rosyjskich, w Internecie pojawił się film przedstawiający prezydenta Zełeńskiego składającego kapitulację. W czerwcu 2022 roku awatar podszywający się pod mera Kijowa – Witalija Kliczko, prowadził wideokonferencje z przywódcami europejskich miast. Deepfake może więc działać w czasie rzeczywistym, co stwarza ogromne zagrożenie.

Organizacja Graphica monitorująca dezinformację donosi, że podobne przypadki wykorzystania sztucznej inteligencji wykorzystuje rząd chiński, który tworzy antyamerykańskie treści skierowane do anglojęzycznych widzów. Treści te są następnie dystrybuowane przez farmy botów. Wojna informacyjna i dezinformacja to nie jedyne zastosowanie tej technologii, jak donosi portal Niebezpiecznik, początkiem Deepfake był Reddit, forum internetowe, którego użytkownicy domontowywali twarze znanych osób do treści dla dorosłych.

Fejkowe treści docierają do milionów

Według blog ExpressVPN, Fake news (ang. fałszywe wiadomości) to "sfabrykowana informacja, która jest rozpowszechniana wyłącznie w celu oszukania czytelników. Odbiorcy mają uwierzyć, że informacja ta jest dokładnym odzwierciedleniem pewnych wydarzeń. Dzięki mediom społecznościowym fake newsy mogą rozprzestrzeniać się z błyskawiczną prędkością."

Jak donosi blog ExpressVPN, fake newsy stworzone w technologii Deepfake dotyczą głównie celebrytów – najczęściej pojawiającymi się nazwiskami obok frazy „Fake news” są nazwiska sportowców, celebrytów i biznesmenów. Wśród nich, najczęściej „podrabianymi” celebrytami byli: Tom Brady, Joe Rogan i Elon Musk a fejkowe treści z tymi nazwiskami trafiały nawet do dziesiątków milionów odbiorców.

Treści, które są tworzone w ten sposób to bardzo często reklamy. Awatar celebryty-miliardera Elona Muska, zobaczyć można przy reklamach giełd kryptowalut, a sportowiec Tom Brady najczęściej występuje w sztucznie wytworzonych… filmach dla dorosłych. Tak wytworzone treści generują ogromną ilość kliknięć i narażają na utratę pieniędzy.

Jak się więc bronić przed fejkami?

Niektóre programy generujące fałszywe treści nakładają na nie specjalne znaki wodne, te jednak można w łatwy sposób usunąć, stosując… sztuczną inteligencję. Trwają pracę nad opracowaniem technologii chroniącej przed generowaniem takiej treści, naukowcy uniwersytetu Shanghai Jiao Tong zaproponowali już w 2021 roku stosowanie smart znaku wodnego. Znak wodny jest niewidoczny, a treści wygenerowane na podstawie obrazu chronionego tą technologią są zamazane. Sami twórcy zwracają jednak uwagę na to, że znak wodny da się wykryć i ominąć tak zabezpieczone obrazy.

Problem wynikający z popularyzacji i ogólnodostępności technologii pozwalającej na kreację fałszywych treści zauważyły już niektóre stany USA. W stanie Texas obowiązuje prawo zakazujące tworzenia deepfake w celu wpłynięcia na wyniki wyborów, stan Virginia zakazał tworzenia treści dla dorosłych tą technologią, a stan Kalifornia łączy oba te zakazy. Czy będą to jednak skutecznie egzekwowane regulacje prawne? I jeśli tak – to czy wszystkie kraje dostosują się do takich zakazów?

red.

Komentarze