AI gebruiken om minderheden te profileren: de Oeigoerse minderheid in China

Dit artikel is geschreven door studenten van het Sustainable Media Lab van Hogeschool InHolland naar aanleiding van een gezamenlijk project met Just Peace. 

Schrijver: Danicha Kasanradji

De afgelopen jaren hebben Chinese start-ups algoritmen gebouwd die nu door de Chinese overheid worden gebruikt en zich grotendeels richten op islamitische minderheidsgroeperingen om deze onder streng toezicht te houden. Dit is een groot ethisch en moreel verval geassocieerd met de technologische vooruitgang.

Mensenrechtengroeperingen menen dat China de afgelopen jaren meer dan een miljoen Oeigoeren tegen hun wil heeft vastgehouden in een groot netwerk van wat de Chinese staat "heropvoedingskampen" noemt. Honderdduizenden Oeigoeren zijn tot gevangenisstraffen veroordeeld. Volgens gedetailleerde nieuwe verslagen die door de BBC zijn verkregen, zijn vrouwen systematisch verkracht, seksueel misbruikt, en gemarteld.

Nu blijkt uit documenten en interviews dat de autoriteiten gezichtsherkenningstechnologie gebruiken om de Oeigoeren op te sporen en onder strikt toezicht te houden. Deze technologie is geïntegreerd in China's snel groeiende netwerk van bewakingscamera's, zoekt uitsluitend naar Oeigoeren op basis van hun uiterlijk, en houdt hun komen-en-gaan bij voor verder onderzoek en staatscontrole.

Jonathan Frankle, een A.I.-onderzoeker aan het Massachusetts Institute of Technology, vertelde de Times: "Als een land eenmaal een dergelijk zwaar autoritair model hanteert, gebruikt het gegevens om gedachten en regels af te dwingen op een veel diepgaandere manier dan 70 jaar geleden misschien haalbaar was in de Sovjet-Unie. In dit opzicht is dit een urgente crisis waar we langzaam in slaapwandelen (...) Ik denk niet dat het overdreven is om dit te behandelen als een existentiële bedreiging voor de democratie."

In November 2019 onderzocht een documentaire genaamd 'In the Age of AI' hoe de Chinese regering, als onderdeel van haar optreden tegen de Oeigoeren, van Xinjiang een testproject heeft gemaakt voor vormen van extreme digitale surveillance. Onder die inspanningen, zo meldde de film, is een kunstmatig intelligentiesysteem dat volgens de regering personen kan voorspellen die vatbaar zijn voor "terrorisme" en personen kan opsporen die "heropvoeding" nodig hebben. Dat wil zeggen dat de taal die je thuis spreekt, hoe vaak je bidt, nu kan bepalen hoe "vatbaar" iemand is voor terrorisme, dit in plaats van iemands geestelijke gezondheid of jeugdervaringen, waar iedereen, ongeacht geloof of ethniciteit, door beïnvloed / het slachtoffer van kan worden.

Dit is geen gevecht tegen "terrorisme", dit is een autoritaire regering, die op weg is om haar burgers op een onmenselijke manier te controleren en te onderdrukken. Daar komt bij dat veel - misschien wel alle - van de in deze documenten beschreven massale surveillancepraktijken in strijd lijken te zijn met de Chinese wet. Zij schenden de gegarandeerde rechten op privacy, de veronderstelde onschuld totdat het tegendeel is bewezen, en de vrijheid van beweging om te gaan en staan waar men wil.

The Sustainable Media Lab brings together researchers, practitioners, and students to explore the rapidly changing technical environment we find ourself in. These articles were written by students in the Fall 2022 student cohort.