Algoritmen en Strafrecht: een Risicoanalyse

Dit is een artikel geschreven door studenten van het Sustainable Media Lab van Hogeschool InHolland, als onderdeel van een gezamenlijk project tussen Inholland Den Haag en Just Peace. 

Rekening houden met het algemeen belang is een van de belangrijkste waarden die ons als kind is bijgebracht. Maar als vrede en rechtvaardigheid ons zo dicht aan het hart liggen, waarom staan we dan toe dat het rechtssysteem voorspellende algoritmen gebruiken die gegevens misbruiken en daarbij racisme in stand houden?

Dankzij artificiële intelligentie worden er tegenwoordig steeds meer menselijke arbeidskrachten vervangen door technologische systemen. De politie en rechtbanken gebruiken localisatieg-ebaseerde analytische algoritmen zoals PredPol om criminele activiteiten in bepaalde gebieden te voorspellen. Twaalf steden in de VS gebruiken PredPol, die op basis van gebeurtenissen, misdaadcijfers, en locatie de kans op criminaliteit in een blok van 500 bij 500 voet kan detecteren (MIT Technology Review , 2020).

Andere algoritmen gebruiken gegevens over leeftijd, geslacht, strafblad, en drugsmisbruik om te beoordelen of een individu mogelijk een gevaar voor de samenleving zal zijn. Het staat buiten twijfel dat het gebruik van dergelijke gegeneraliseerde manieren van risicobeoordeling absurd is. Rechtbanken die op basis van kunstmatige algoritmen beslissen over iemands leven, of ze achter de tralies moeten of vrij kunnen blijven, kan niet humaan zijn.

Deze algoritmen worden gemakkelijk beïnvloed door gegevens over het arrestatieverleden. Als gevolg daarvan heb je in de Verenigde Staten twee keer zoveel kans om opgepakt te worden als je een donkere huidskleur hebt. Aangezien het algemeen bekend is hoeveel Afro-Amerikanen dagelijks ten onrechte worden opgesloten, kunnen we er logischerwijs van uitgaan dat systematische algoritmen niet altijd in het voordeel van de gerechtigheid werken. Maar zou dat een reden zijn om ze niet te gebruiken? (MIT Technology Review , 2020)?

Als respectabele burgers, moeten wij niet alleen de kwestie dat recht voor ons ligt erkennen, maar we moeten ook stelling nemen tegen de onrechtvaardigheid binnen dit systeem. Simpelweg vertrouwen op kunstmatige intelligentie is niet een ethische weg om te belopen. Zolang wij de programmeringen niet veranderen, zal de programmering niet onze bevooroordeelde en onrechtvaardige wereld veranderen.

Schrijver: Aylin Ewen

The Sustainable Media Lab brings together researchers, practitioners, and students to explore the rapidly changing technical environment we find ourself in. These articles were written by students in the Fall 2022 student cohort.