Briefing 
 

Uso dell'intelligenza artificiale da parte della polizia: le linee guida del PE 

Per evitare discriminazioni e garantire la privacy, i deputati chiedono forti garanzie nei casi in cui gli strumenti di intelligenza artificiale sono utilizzati dalle forze dell'ordine.

Nel progetto di risoluzione in votazione, la commissione per le libertà civili sottolinea il rischio di utilizzo di algoritmi discriminatori nelle applicazioni di intelligenza artificiale (IA), e chiede che siano garantiti la supervisione umana e controlli giuridici efficaci per evitare discriminazioni. Le decisioni finali dovrebbero sempre essere prese da persone, dicono i deputati, e gli algoritmi dovrebbero essere trasparenti, tracciabili e sufficientemente documentati.


La bozza di testo chiede anche che i database privati di riconoscimento facciale (come il sistema Clearview AI, già in uso) siano vietati. Ci si oppone anche alla sorveglianza predittiva basata sui dati comportamentali.


Al fine di rispettare la privacy e il diritto alla dignità umana, i deputati chiedono di vietare in modo permanente il riconoscimento automatico degli individui negli spazi pubblici, così come qualsiasi sistema di punteggio sociale dei cittadini, in cui agli individui viene assegnato un rating basato sul loro comportamento, che potrebbe essere utilizzato per applicare premi o punizioni.



Dibattito: lunedì 4 ottobre

Risultati della votazione: mercoledì 5 ottobre

Procedura: risoluzione non legislativa