Intelligenza artificiale: contrastare i rischi per i consumatori 

Aggiornato il: 
 
Pubblicato:   
 

Condividi questa pagina: 

L’intelligenza artificiale e i processi decisionali automatizzati possono comportare dei rischi per i consumatori. Scopri in che modo il Parlamento intende proteggerli.

Lo sviluppo dei processi decisionali automatizzati presenta delle sfide per la tutela dei consumatori ©Vchalup/Adobe Stock  

Cos’è l’intelligenza artificiale e perché può essere pericolosa

Gli algoritmi di apprendimento sono in grado di elaborare serie di dati con una precisione e una velocità superiori alle capacità umane, ecco perché le applicazioni di intelligenza artificiale (IA) sono diventate sempre più comuni in tutti i settori: dalla finanza alla salute, dall’istruzione al sistema giuridico, e oltre.

Ma affidarsi all’intelligenza artificiale comporta dei rischi, specialmente quando questa ha la facoltà di prendere decisioni senza la supervisione umana. L’apprendimento automatico (noto in inglese come machine learning) si basa sul riconoscimento di modelli (tecnicamente chiamati pattern) all’interno di set di dati. I dati forniti dagli uomini alle macchine possono però riflettere pregiudizi sociali, e in quel caso l’intelligenza artificiale incorporerà gli stessi pregiudizi nel proprio processo decisionale.

L’intelligenza artificiale nei processi decisionali

L’intelligenza artificiale viene utilizzata sempre di più nella progettazione di algoritmi decisionali.
Le decisioni prese dagli algoritmi possono avere un impatto significativo nella vita dei cittadini: dalla concessione di credito, all’ottenimento di un lavoro o di cure mediche fino ad influire sull'esito di sentenze giudiziarie.

In alcuni casi i processi decisionali automatizzati rischiano di perpetuare il divario sociale.
Alcuni algoritmi, ad esempio, si sono dimostrati discriminatori nei confronti delle donne: si tratta di sistemi di intelligenza artificiale utilizzati negli uffici risorse umane di alcune aziende che a causa di distorsioni storiche nei dati che utilizzano per elaborare una decisione - privilegiano le assunzioni (o le promozioni) maschili rispetto a quelle femminili.

Proteggere i consumatori nell’era dell’intelligenza artificiale

Lo sviluppo dell’intelligenza artificiale e dei processi decisionali automatizzati presenta delle sfide anche per la fiducia e il benessere dei consumatori: quando interagiscono con questi sistemi, i consumatori dovrebbero essere adeguatamente informati sul loro funzionamento, per poter prendere decisioni consapevoli sul loro utilizzo.

La posizione del Parlamento

Il Parlamento chiede alla Commissione di valutare la necessità di attuare misure supplementari per garantire una tutela solida dei diritti dei consumatori nell’ambito dell’intelligenza artificiale e dei sistemi decisionali automatizzati.

La Commissione dovrà chiarire come prevede di: 
  • garantire la protezione dei consumatori da pratiche commerciali sleali e/o discriminatorie, o da rischi derivanti da servizi commerciali di intelligenza artificiale;  
  • garantire maggiore trasparenza in questi processi;  
  • assicurare che soltanto dati non discriminatori e di alta qualità vengano utilizzati nei sistemi decisionali automatizzati. 

Dobbiamo assicurarci che la protezione e la fiducia dei consumatori venga garantita, che le norme dell’UE in materia di sicurezza e responsabilità su prodotti e servizi siano adeguate all’era digitale

Petra De Sutter 

Presidente della Commissione per il mercato interno e la protezione dei consumatori

Condividi la citazione: 

Prossimi passi

La risoluzione è stata approvata in plenaria il 12 febbraio. Successivamente passerà al Consiglio europeo e alla Commissione, che dovrebbe presentare il piano per l’approccio europeo all’intelligenza artificiale il 19 febbraio 2020.