Parliamo di...

Il progetto di polizia predittiva mostra che anche i legislatori dell'UE possono essere bersagli

#22Febbraio  #Neural  #NextFeatured  #Governmentandpolicy 

Contenuto originale di The Next Web
La polizia predittiva ha smascherato un nuovo gruppo di futuri criminali: gli eurodeputati.
Un nuovo sistema di test ha messo in luce cinque politici dell'UE come "a rischio" di commettere reati futuri. Fortunatamente per loro, non è uno strumento utilizzato dalle forze dell'ordine, ma progettato per evidenziare i pericoli di tali sistemi.
Il progetto nasce da un'idea di Fair Trials, un cane da guardia della giustizia penale. L'ONG sta facendo una campagna per vietare la previsione della polizia, che utilizza l'analisi dei dati per prevedere quando e dove è probabile che si verifichino i crimini e chi potrebbe commetterli.
"Potrebbe sembrare incredibile che le forze dell'ordine e le autorità di giustizia penale facciano previsioni sulla criminalità in base al background, alla classe, all'etnia e alle associazioni delle persone, ma questa è la realtà di ciò che sta accadendo nell'UE", ha affermato Griff Ferris, Senior Legal and Policy Ufficiale ai processi equi.
In effetti, la tecnologia è sempre più popolare in Europa. In Italia, ad esempio, uno strumento noto come Dalia ha analizzato i dati sull'etnia per profilare e prevedere la criminalità futura. Nei Paesi Bassi, nel frattempo, la cosiddetta lista Top 600 è stata utilizzata per prevedere quali giovani commetteranno reati ad alto impatto. Una persona su tre nella lista - molte delle quali hanno riferito di essere stata molestata dalla polizia - è risultata di origine marocchina.
Per illustrare gli impatti, Fair Trials ha sviluppato una finta valutazione del futuro comportamento criminale.
A differenza di molti dei sistemi reali utilizzati dalla polizia, l'analisi è stata resa completamente trasparente. Il test utilizza un questionario per profilare ciascun utente. Più risposte "Sì" danno, maggiore è il loro risultato di rischio. Puoi provarlo tu stesso qui.
“Non dovrebbe esserci posto nell'UE per tali sistemi: sono inaffidabili, prevenuti e ingiusti.
La banda non dovrà affrontare conseguenze per i loro potenziali reati. Nella vita reale, tuttavia, tali sistemi potrebbero inserirli nei database della polizia e sottoporli a stretto monitoraggio, interrogatori casuali o arresti e perquisizioni. I loro punteggi di rischio possono anche essere condivisi con scuole, datori di lavoro, agenzie per l'immigrazione e servizi di protezione dell'infanzia. Gli algoritmi hanno persino portato le persone ad essere incarcerate con scarse prove.
"Sono cresciuto in un quartiere a basso reddito, in un paese povero dell'Europa orientale, e l'algoritmo mi ha definito un potenziale criminale", ha dichiarato Petar Vitanov, eurodeputato del Partito socialista bulgaro.
"Non dovrebbe esserci posto nell'UE per tali sistemi: sono inaffidabili, prevenuti e ingiusti".
Fair Trials ha rilasciato i risultati del test tra le crescenti richieste di bandire la polizia predittiva.
L'argomento si è dimostrato divisivo nelle proposte per l'AI Act, che è destinato a diventare il primo quadro giuridico in assoluto sull'intelligenza artificiale. Alcuni legislatori stanno spingendo per un divieto totale della polizia predittiva, mentre altri vogliono lasciare un margine di manovra alle forze dell'ordine.
Fair Trials ha dato ai sostenitori dei sistemi un nuovo motivo per riconsiderare le loro opinioni: la tecnologia può anche prenderli di mira.


RSS - Mastodon