Gem
Gem
Tymoteusz Bojczuk Tymoteusz Bojczuk
98
BLOG

Ujgurzy męczeni w Chinach

Tymoteusz Bojczuk Tymoteusz Bojczuk Polityka Obserwuj notkę 1
W kwestii przyszłego systemu nadzoru na ludźmi, warto się przyjrzeć jak robią to Chińczycy w wersji ostrej, czyli zawiadują Ujgurami (w wersji łagodnej zbierają informacje o nas, w Europie, poprzez np. TikToka).

"Wykorzystanie sztucznej inteligencji (AI) do kontroli i nadzoru nad mniejszością ujgurską w regionie Sinciang jest określane przez ekspertów ONZ i organizacje praw człowieka jako najbardziej zaawansowany system cyfrowego autorytaryzmu na świecie. System ten nie tylko śledzi ruchy obywateli, ale dąży do pełnej kontroli ich zachowań, emocji, a nawet myśli.

Oto kluczowe aspekty tego systemu:

1. Zintegrowana Platforma Wspólnych Operacji (IJOP)

To „mózg” całego systemu nadzoru. IJOP to algorytmiczny system typu Big Data, który gromadzi dane z niezliczonych źródeł:

Kamery z AI: Systemy rozpoznawania twarzy, które potrafią wyodrębnić Ujgurów z tłumu na podstawie cech etnicznych (tzw. „uyghur analytics”).

Analiza zachowań: Systemy wykrywające „anomalie”, takie jak używanie tylnych drzwi zamiast przednich, nagłe zaprzestanie palenia, posiadanie zbyt dużej ilości żywności lub zbyt częste kontakty z sąsiadami.

Dane cyfrowe: Skanowanie zawartości smartfonów (aplikacja Jingwang Weishi), monitorowanie transakcji bankowych oraz zużycia energii elektrycznej.

2. Zaawansowane technologie biometryczne

Chiny wdrożyły technologie, które wykraczają poza standardowe rozpoznawanie twarzy:

Rozpoznawanie chodu: Pozwala na identyfikację osób z dużej odległości, nawet jeśli mają zakrytą twarz, na podstawie unikalnego sposobu poruszania się.

Głos i DNA: Masowe pobieranie próbek DNA i nagrań głosu od mieszkańców regionu w celu stworzenia bazy danych umożliwiającej śledzenie biometryczne.

Analiza emocji: Testowane są systemy oparte na AI, które analizują mikroruchy twarzy i pory skóry, aby określić stan emocjonalny (np. stres lub strach) podczas przesłuchań na posterunkach policji.

3. Automatyzacja cenzury i kontrola języka

W latach 2024–2026 chińskie władze zaczęły intensywnie wykorzystywać wielkie modele językowe (LLM) do:

Monitorowania komunikacji: AI automatycznie tłumaczy i analizuje treści w języku ujgurskim w mediach społecznościowych, wykrywając najmniejsze przejawy „nielojalności” czy religijności.

Prewencyjnego tłumienia sprzeciwu: Algorytmy przewidują potencjalne ogniska niepokojów społecznych, zanim dojdzie do jakichkolwiek działań.

4. Skutki społeczne: "System Kredytu Społecznego" w praktyce

Dane zbierane przez AI służą do klasyfikowania obywateli na trzy kategorie: „bezpiecznych”, „neutralnych” i „budzących obawy”.

Osoby z niskim wynikiem mogą zostać automatycznie skierowane do obozów reedukacyjnych.

System ogranicza wolność przemieszczania się – inteligentne punkty kontrolne blokują przejście osobom oznaczonym przez system jako podejrzane.

Uwaga: Choć Pekin oficjalnie twierdzi, że technologie te służą walce z terroryzmem i modernizacji regionu, raporty ONZ (w tym te z 2024 i 2026 roku) wskazują na ich wykorzystanie do systematycznych naruszeń praw człowieka i pracy przymusowej.


--------------------

--------------------


1. Oficjalne raporty ONZ i organizacji międzynarodowych

Raport Wysokiego Komisarza NZ ds. Praw Człowieka (OHCHR) (2022/2024): Najważniejszy dokument ONZ stwierdzający, że działania Chin w Sinciangu mogą stanowić „zbrodnie przeciwko ludzkości”. W sierpniu 2024 r. komisarz Volker Türk potwierdził, że mimo upływu czasu wiele „problemowych przepisów i polityk” nadal obowiązuje.

Human Rights Watch (HRW) – „World Report 2024/2025”: HRW szczegółowo opisuje działanie systemu IJOP (Zintegrowana Platforma Wspólnych Operacji). Raport z 2024 r. wskazuje na dalsze zacieśnianie kontroli społecznej za pomocą algorytmów.

Strona HRW dot. nadzoru masowego w Chinach

Amnesty International (2025): Publikacja „Still no accountability for crimes against humanity” (sierpień 2025) podsumowuje brak postępów w rozliczaniu Chin z nadużyć technologicznych i obozów.

2. Analizy technologiczne i Big Data

Australian Strategic Policy Institute (ASPI) – Xinjiang Data Project: To najbardziej zaawansowane źródło danych mapujące infrastrukturę nadzoru. ASPI wykorzystuje zdjęcia satelitarne i wycieki danych do identyfikacji setek obiektów detencyjnych połączonych z systemami AI.

Genocide Watch (Grudzień 2025): Nowy raport tej organizacji stwierdza, że system nadzoru przeszedł w fazę „eksterminacji kulturowej” i pełnego zaprzeczenia, wspieranego przez technologie blokowania informacji.

Justice For All – Genocide Watch Report 2025

3. Dokumentacja systemów AI i sankcji

U.S. Department of State – 2024 Country Reports on Human Rights Practices: Raport Departamentu Stanu USA szczegółowo wymienia firmy zaangażowane w budowę „techno-autorytaryzmu”, w tym wykorzystanie AI do śledzenia zużycia prądu i ruchu w smartfonach.

China 2024 Human Rights Report

Lista Sankcji Departamentu Handlu USA: Na tzw. Entity List znajdują się firmy takie jak Hikvision, Dahua Technology, SenseTime czy Megvii, które dostarczają algorytmy rozpoznawania twarzy i analizy etnicznej.

--------------


Kluczowe pojęcia:

IJOP (Integrated Joint Operations Platform) – nazwa algorytmu sterującego nadzorem.

Karakax List – wyciek danych zawierający szczegółowe powody internowania Ujgurów (często błahe, wykryte przez AI).

China Cables – dokumenty ujawnione przez ICIJ, opisujące instrukcje operacyjne dla systemów nadzoru i obozów.

Tymoteusz Bojczuk jest filozofem kultury i cywilizacji, himalaistą i podróżnikiem. Publikował eseje w „Aspektach”, „AlboAlbo”, „Ibidem” "Londynek.net" i „Pulsie”. Absolwent filozofii na Uniwersytecie Śląskim. Autor książki Element Wmówiony oraz Słownika psycholingwistycznego języka polskiego z komentarzem.

Nowości od blogera

Komentarze

Pokaż komentarze (1)

Inne tematy w dziale Polityka