De politie en strafrechtelijke autoriteiten in heel Europa gebruiken gegevens, algoritmen en kunstmatige intelligentie (AI) om te “voorspellen” of bepaalde mensen het risico lopen om misdrijven te plegen of in de toekomst misdaden zullen plegen, en of en waar er in de toekomst in bepaalde gebieden misdrijven zullen plaatsvinden.
Bij Fair Trials eisen wij een verbod op “voorspellende” politie- en rechtssystemen. Doe de onderstaande quiz om te zien of u zou worden geprofileerd of gezien als een “risico” – en ontdek hoe u onze campagne kunt steunen.
In tegenstelling tot de autoriteiten zullen we natuurlijk geen informatie over u of uw antwoorden verzamelen of bewaren!
Deze geautomatiseerde en algoritmische systemen zijn vaak geheim en niet-transparant, waarbij autoriteiten weigeren informatie te verstrekken over hoe ze werken. Uiteraard zullen wij ons ‘algoritme‘ toelichten.
Alle vragen in onze voorbeeldprofileringstool worden rechtstreeks gekoppeld aan informatie die actief wordt gebruikt door rechtshandhavings- en strafrechtelijke autoriteiten in hun eigen versies van voorspellende en profileringssystemen en databases. De realiteit is dat als een persoon slechts aan een paar van de stukjes informatie voldoet (zoals gevraagd door onze vragen), het voldoende kan zijn om gemarkeerd te worden als een ‘risico’. En als een gebied aan een vergelijkbaar profiel beantwoordt, wordt het ook gemarkeerd als een ‘risico‘-gebied waar criminaliteit kan optreden. Deze beoordelingen zijn duidelijk discriminerend en onrechtvaardig – we hebben onze eigen transparante en verklaarbare versie gemaakt om te laten zien hoe discriminerend en onrechtvaardig deze systemen zijn.
0 - 3 'Ja'-antwoorden: 'Laag' risico-resultaat
4 - 5 'Ja'-antwoorden: 'Middelmatig' risico-resultaat
6 - 10 'Ja'-antwoorden: 'Hoog' risico-resultaat