Le forze di polizia e le autorità penali di tutta Europa utilizzano dati, algoritmi e intelligenza artificiale (IA) per “prevedere” se determinate persone sono a “rischio” di commettere reati o rischiano di commetterli in futuro e se un crimine si verificherà in aree specifiche.
Noi di Fair Trials chiediamo il divieto dei sistemi giudiziari e di polizia “predittivi”. Partecipa al questionario di seguito per vedere se anche tu saresti profilato o visto come a “rischio” e scopri come supportare la nostra campagna.
A differenza delle autorità, ovviamente, non raccoglieremo o conserveremo alcuna informazione su di te o sulle tue risposte!
Questi sistemi automatizzati e algoritmici sono spesso segreti ed opachi e le autorità rifiutano di fornire informazioni sul loro funzionamento. Ad ogni modo noi ovviamente spiegheremo il nostro "algoritmo".
Tutte le domande nel nostro strumento di profilazione di esempio rispecchiano le informazioni che vengono utilizzate dalle forze dell'ordine e dalle autorità di giustizia penale nelle loro versioni dei sistemi e dei database predittivi e di profilazione. La realtà è che se una persona rientra anche parzialmente in alcune delle informazioni (come chiesto dalle nostre domande), potrebbe essere contrassegnata come "a rischio". Allo stesso modo, se un'area rientra in un profilo simile, anch'essa sarà contrassegnata come "a rischio" di reato. Queste valutazioni sono ovviamente discriminatorie e ingiuste: abbiamo creato la nostra versione trasparente e comprensibile per dimostrare quanto questi sistemi siano discriminatori e ingiusti.
0 — 3 Risposte ‘Si”: risulti a rischio ‘Basso’
4 — 5 Risposte ‘Si”: risulti a rischio ‘Moderato’
6 — 10 Risposte ‘Si”: risulti a rischio ‘Elevato’