Normativa sull'IA: la prima regolamentazione sull'intelligenza artificiale
Nell'UE, l'uso dell'intelligenza artificiale è disciplinato dalla prima normativa mondiale dedicata, che orienta l'applicazione sicura ed etica dell'IA. Scopri come può esserti vantaggioso.
Come parte della sua strategia digitale, l'UE ha inteso regolamentare l'intelligenza artificiale (IA) al fine di garantire garantire migliori condizioni per lo sviluppo e l'uso di questa innovativa tecnologia.
L'IA può portare molti benefici, ad esempio una migliore assistenza sanitaria, trasporti più sicuri e puliti, una produzione più efficiente e un'energia più conveniente e sostenibile.
Regolamentazione dell'IA in Europa: il primo quadro completo
Nell'aprile 2021, la Commissione europea ha proposto la prima legge UE sull'intelligenza artificiale, che istituisce un sistema di classificazione dell'IA basato sul rischio. I sistemi di IA che possono essere utilizzati in diverse applicazioni vengono analizzati e classificati in base al rischio che rappresentano per gli utenti. I diversi livelli di rischio comportano più o meno requisiti di conformità dell'IA.
Scoprite di più su cos'è l'intelligenza artificiale e come viene utilizzata.
Quali sono gli obiettivi della normativa sull’IA del Parlamento
Nella stesura di questa misura, la priorità per il Parlamento è stata quella di assicurarsi che i sistemi di intelligenza artificiale utilizzati nell'UE siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell'ambiente. I sistemi di intelligenza artificiale dovrebbero essere supervisionati da persone, anziché da automazione, per evitare conseguenze dannose.
Il Parlamento premeva anche per stabilire una definizione tecnologicamente neutra e uniforme per l'IA che potrebbe essere applicata ai futuri sistemi di intelligenza artificiale.
Scoprite di più sui piani per il futuro dell'IA
La legge sull'IA: regole diverse per diversi livelli di rischio
Le nuove regole stabiliscono obblighi per fornitori e utenti a seconda del livello di rischio dell'IA. Molti sistemi di intelligenza artificiale comportano un rischio minimo, ma devono essere valutati.
Rischio inaccettabile
Le applicazioni legate all'intelligenza artificiale e vietate nell'UE includono:
- manipolazione comportamentale cognitiva di persone o gruppi vulnerabili specifici: ad esempio giocattoli attivati vocalmente che incoraggiano comportamenti pericolosi nei bambini
- classificazione sociale IA: classificazione delle persone in base al comportamento, al livello socio-economico, alle caratteristiche personali
- identificazione biometrica e categorizzazione delle persone fisiche
- sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale in spazi pubblici
Alcune eccezioni potrebbero tuttavia essere ammesse a fini di applicazione della legge. I sistemi di identificazione biometrica remota "in tempo reale" saranno consentiti in un numero limitato di casi gravi, mentre i sistemi di identificazione biometrica a distanza "post", in cui l'identificazione avviene dopo un significativo ritardo, saranno consentiti per perseguire reati gravi e solo previa autorizzazione del tribunale.
Alto rischio
I sistemi di intelligenza artificiale che influiscono negativamente sulla sicurezza o sui diritti fondamentali saranno considerati ad alto rischio e saranno suddivisi in due categorie:
1) I sistemi di intelligenza artificiale utilizzati in prodotti soggetti alla direttiva dell'UE sulla sicurezza generale dei prodotti. Questi includono giocattoli, aviazione, automobili, dispositivi medici e ascensori.
2) I sistemi di intelligenza artificiale che rientrano in otto aree specifiche dovranno essere registrati in un database dell'UE:
- identificazione e categorizzazione biometrica di persone naturali
- gestione e funzionamento di infrastrutture critiche
- istruzione e formazione professionale
- occupazione, gestione dei lavoratori e accesso all'autoimpiego
- accesso e fruizione di servizi privati essenziali e servizi pubblici e vantaggi • forze dell'ordine
- gestione delle migrazioni, asilo e controllo delle frontiere
- assistenza nell'interpretazione e applicazione legale della legge.
Tutti i sistemi di intelligenza artificiale ad alto rischio saranno valutati prima di essere messi sul mercato e durante tutto il loro ciclo di vita.
I cittadini avranno il diritto di presentare reclami sui sistemi di IA alle autorità nazionali designate.
Requisiti di trasparenza
L'IA generativa, come ChatGPT, non sarà classificata "ad alto rischio" ma dovrà comunque rispettare requisiti di trasparenza e la legge europea sul diritto d'autore dell'UE:
• rivelare se il contenuto è stato generato da un'intelligenza artificiale
• progettare il modello in modo da impedire la generazione di contenuti illegali
• pubblicare riepiloghi dei dati citando i diritti d'autore impiegati per l'addestramento
I modelli di IA ad alto impatto generale che potrebbero rappresentare un rischio sistemico, come il modello di IA più avanzato GPT-4, dovranno essere sottoposti a valutazioni approfondite e segnalare alla Commissione eventuali incidenti gravi.
Incoraggiare l'innovazione e le start-up nel settore dell'intelligenza artificiale in Europa
Questo provvedimento mira a offrire sostegno all'innovazione e alle start-up nel campo dell'IA in Europa, consentendo alle aziende di sviluppare e testare modelli di IA generici prima del rilascio pubblico.
Per questo motivo, viene richiesto che le autorità nazionali forniscano alle aziende la possibilità di effettuare test sull'IA in grado di simulare condizioni simili a quelle del mondo reale. Questo aiuterà le piccole e medie imprese (PMI) a competere nel crescente mercato dell'intelligenza artificiale dell'UE.
Implementazione delle misure normative
Il Parlamento ha creato un gruppo di lavoro per monitorare l'attuazione e l'applicazione della legge sull'intelligenza artificiale. Gli eurodeputati intendono verificare che le normative sull'IA favoriscano lo sviluppo del settore digitale in Europa.
Il gruppo collabora con l'Ufficio Europeo per l'IA, creato al fine di sviluppare i punti chiave della legislazione.
Cronologia per l'adeguamento al Regolamento UE sull'IA
Nel giugno 2024, l'UE ha adottato le prime regole al mondo sull'intelligenza artificiale. Il Regolamento sull'Intelligenza Artificiale sarà pienamente applicabile 24 mesi dopo la sua entrata in vigore, ma alcune sue parti saranno applicabili già da prima:
- il divieto per i sistemi di IA che presentano rischi inaccettabili è entrato in vigore il 2 febbraio 2025
- i codici di pratica si applicheranno nove mesi dopo l'entrata in vigore
- le regole sui sistemi di IA a uso generale, tenuti a rispettare i requisiti di trasparenza, si applicheranno dodici mesi dopo l'entrata in vigore
Per i sistemi ad alto rischio verrà fornito più tempo per conformarsi ai requisiti poiché gli obblighi che li riguardano diventeranno applicabili 36 mesi dopo l'entrata in vigore.
Ulteriori informazioni sull'azione digitale dell'UE:
- I pericoli delle criptovalute e i benefici della legislazione dell'UE
- Combattere la criminalità informatica: nuove leggi UE sulla cibersicurezza spiegate
- Promuovere la condivisione dei dati nell'UE: quali sono i benefici?
- Atto sui mercati digitali dell'UE e Atto sui servizi digitali
- Cinque modi in cui il Parlamento europeo intende proteggere i giocatori online