Accordo di partenariato e cooperazione UE/Thailandia
108k
43k
Risoluzione legislativa del Parlamento europeo del 14 giugno 2023 sul progetto di decisione del Consiglio relativa alla conclusione, a nome dell'Unione, dell'accordo quadro di partenariato globale e cooperazione tra l'Unione europea e i suoi Stati membri, da una parte, e il Regno di Thailandia, dall'altra (11908/2022 – C9-0429/2022 – 2022/0252(NLE))
– visto il progetto di decisione del Consiglio (11908/2022),
– visto il progetto di accordo quadro di partenariato globale e cooperazione tra l'Unione europea e i suoi Stati membri, da una parte, e il Regno di Thailandia, dall'altra(1),
– vista la richiesta di approvazione presentata dal Consiglio a norma dell'articolo 209 e dell'articolo 218, paragrafo 6, secondo comma, lettera a), punto iii), del trattato sul funzionamento dell'Unione europea (C9‑0429/2022),
– vista la sua risoluzione non legislativa del 14 giugno 2023(2) sul progetto di decisione,
– visti l'articolo 105, paragrafi 1 e 4, e l'articolo 114, paragrafo 7, del suo regolamento,
– vista la raccomandazione della commissione per gli affari esteri (A9-0191/2023),
1. dà la sua approvazione alla conclusione dell'accordo;
2. incarica la sua Presidente di trasmettere la posizione del Parlamento al Consiglio e alla Commissione nonché ai governi e ai parlamenti degli Stati membri e del Regno di Thailandia.
Accordo di partenariato e cooperazione UE/Thailandia (risoluzione)
151k
52k
Risoluzione non legislativa del Parlamento europeo del 14 giugno 2023 sul progetto di decisione del Consiglio relativa alla conclusione, a nome dell'Unione, dell'accordo quadro di partenariato globale e cooperazione tra l'Unione europea e i suoi Stati membri, da una parte, e il Regno di Thailandia, dall'altra (11908/2022 – C9-0429/2022 – 2022/0252M(NLE))
– visto il progetto di decisione del Consiglio (11908/2022),
– vista la richiesta di approvazione presentata dal Consiglio a norma dell'articolo 209 e dell'articolo 218, paragrafo 6, secondo comma, lettera a), punto iii), del trattato sul funzionamento dell'Unione europea (C9-0429/2022),
– visto il progetto di accordo quadro di partenariato globale e cooperazione tra l'Unione europea e i suoi Stati membri, da una parte, e il Regno di Thailandia, dall'altra(1),
– viste le comunicazioni congiunte della Commissione e dell'alto rappresentante dell'Unione per gli affari esteri e la politica di sicurezza, del 16 settembre 2021, dal titolo "La strategia dell'UE per la cooperazione nella regione indo-pacifica" (JOIN(2021)0024), e del 1° dicembre 2021, dal titolo "Il Global Gateway" (JOIN(2021)0030),
– viste le sue risoluzioni del 7 giugno 2022 sull'UE e le sfide in materia di sicurezza nella regione indo-pacifica(2) e del 5 luglio 2022 sulla strategia indo-pacifica nel settore del commercio e degli investimenti(3),
– vista la dichiarazione congiunta dei leader concordata in occasione del vertice commemorativo UE-ASEAN tenutosi a Bruxelles il 14 dicembre 2022,
– vista la sua risoluzione del 3 ottobre 2017 sulle relazioni politiche dell'UE con l'ASEAN(4),
– visto l'accordo di cooperazione tra la Comunità economica europea e l'Indonesia, la Malaysia, le Filippine, Singapore e la Tailandia, Stati membri dell'Associazione delle nazioni del sud-est asiatico, firmato il 7 marzo 1980, che costituisce il quadro giuridico per le relazioni UE-ASEAN(5),
– viste le sue risoluzioni dell'8 ottobre 2015 sulla situazione in Thailandia(6) e del 6 ottobre 2016 sulla Thailandia, segnatamente il caso di Andy Hall(7),
– viste le conclusioni del Consiglio del 14 ottobre 2019 sulla Thailandia,
– visto il 12° incontro interparlamentare UE-Thailandia, tenutosi l'8 dicembre 2022 a distanza,
– visti la Convenzione delle Nazioni Unite relativa allo status dei rifugiati del 1951 e il relativo protocollo del 1967,
– viste le convenzioni dell'Organizzazione internazionale del lavoro (ILO),
– visto il Patto internazionale relativo ai diritti civili e politici del 16 dicembre 1966, di cui la Thailandia è parte,
– visto il secondo protocollo facoltativo al Patto internazionale relativo ai diritti civili e politici, del 15 dicembre 1989, che mira ad abolire la pena di morte,
– vista la Convenzione internazionale per la protezione di tutte le persone dalle sparizioni forzate, del 23 dicembre 2010,
– visti la Convenzione contro la tortura ed altre pene o trattamenti crudeli, disumani o degradanti, del 10 dicembre 1984, e il suo protocollo facoltativo,
– vista la Convenzione sui diritti dell'infanzia e dell'adolescenza,
– visto lo Statuto di Roma della Corte penale internazionale, del 17 luglio 1998,
– vista la comunicazione della Commissione, del 22 giugno 2022, dal titolo "Il potere dei partenariati commerciali: insieme per una crescita economica verde e giusta" (COM(2022)0409),
– visto l'articolo 105, paragrafo 2, del suo regolamento,
– vista la lettera della commissione per l'agricoltura e lo sviluppo rurale,
– vista la relazione della commissione per gli affari esteri (A9-0193/2023),
A. considerando che nella regione indo-pacifica vi sono partner politici, commerciali e di sicurezza sempre più importanti per l'UE, compresa la Thailandia; che una regione indo-pacifica libera, connessa, stabile e basata su regole e sul rispetto del diritto internazionale, in linea con i principi e gli standard europei, presenta indubbi vantaggi per la sicurezza e gli interessi dell'UE;
B. considerando che la Thailandia è un membro fondatore dell'ASEAN; che il primo vertice in assoluto tra i leader degli Stati membri dell'UE e dell'ASEAN, tenutosi il 14 dicembre 2022, ha sancito 45 anni di relazioni diplomatiche tra l'UE e l'ASEAN e ha ribadito l'impegno reciproco a favore del loro partenariato strategico;
C. considerando che le relazioni UE-Thailandia si basano su legami politici, economici e culturali di lunga data;
D. considerando che l'attuale cooperazione tra l'UE e la Thailandia si fonda sull'accordo di cooperazione tra la CEE e l'ASEAN del 1980;
E. considerando che nel 2004 il Consiglio ha autorizzato la Commissione a negoziare un accordo di partenariato e cooperazione (APC) individuale con la Thailandia;
F. considerando che l'UE e la Thailandia hanno completato i negoziati per un APC nel marzo 2013, ma che il colpo di Stato militare in Thailandia del 2014 ha bloccato il processo ritardando l'elezione di un governo civile fino al 2019;
G. considerando che, a seguito delle elezioni in Thailandia del marzo 2019, il Consiglio ha dichiarato, nelle sue conclusioni dell'ottobre dello stesso anno, che era opportuno che l'UE adottasse misure per allargare il suo impegno con la Thailandia preparandosi alla firma tempestiva dell'APC;
H. considerando che i nuovi negoziati sull'APC si sono conclusi l'11 giugno 2022;
I. considerando che la Thailandia, da un lato, è altamente vulnerabile ai cambiamenti climatici e, dall'altro, contribuisce in misura relativamente importante alle emissioni globali; che, in occasione della 26a Conferenza delle parti sui cambiamenti climatici delle Nazioni Unite (COP26), la Thailandia si è impegnata a conseguire la neutralità in termini di emissioni di carbonio entro il 2050;
J. considerando che l'UE e la Thailandia mirano a istituire un partenariato moderno, ampio e reciprocamente vantaggioso, basato su interessi e principi condivisi; che, attraverso l'APC, esse riaffermano il rispetto dei principi democratici, dei diritti umani e delle libertà fondamentali, come sancito nella Dichiarazione universale dei diritti dell'uomo delle Nazioni Unite del 1948;
K. considerando che la Thailandia è stata tra i primi paesi a sottoscrivere la Dichiarazione universale dei diritti dell'uomo, ma che la sua situazione generale in materia di diritti umani resta problematica;
L. considerando che la Thailandia si è classificata al 79° posto nell'indice di disuguaglianza di genere 2021 e che le donne thailandesi continuano a essere fortemente sottorappresentate nel mondo del lavoro e in politica, sebbene il paese abbia registrato un'inversione del divario di genere nell'istruzione superiore e si sia collocato al primo posto a livello mondiale per il rapporto tra studenti di sesso femminile e studenti di sesso maschile;
M. considerando che il gruppo di lavoro delle Nazioni Unite sulle sparizioni forzate o involontarie ha registrato 76 casi aperti di sparizioni forzate in Thailandia;
N. considerando che la pena di morte continua ad essere applicata in Thailandia, sebbene il quarto piano nazionale per i diritti umani (2019-2023) del paese contenga un impegno a favore dell'abolizione della pena capitale; che la Thailandia non ha sottoscritto il secondo protocollo facoltativo al Patto internazionale relativo ai diritti civili e politici, che mira ad abolire la pena di morte;
O. considerando che la Thailandia non è firmataria della Convenzione delle Nazioni Unite del 1951 relativa allo status dei rifugiati né del suo protocollo del 1967, e non dispone di un quadro giuridico nazionale che riconosca in modo specifico i rifugiati e fornisca loro protezione, in particolare a quelli provenienti dal Myanmar/Birmania, che abitualmente sono confinati nei campi o rischiano l'arresto arbitrario, la detenzione o la deportazione forzata nel loro paese d'origine, in violazione del diritto d'asilo e del principio di non respingimento;
P. considerando che il governo thailandese ha recentemente limitato i diritti fondamentali, in particolare il diritto alla libertà di espressione e il diritto di riunione, anche arrestando arbitrariamente attivisti filodemocratici e leader dell'opposizione, e nel 2022 ha introdotto un progetto di legge per controllare rigorosamente tutte le organizzazioni della società civile;
Q. considerando che la Thailandia non ha ancora ratificato le convenzioni fondamentali dell'ILO, in particolare la Convenzione concernente la libertà sindacale e la protezione del diritto sindacale, e la Convenzione sul diritto di organizzazione e di negoziazione collettiva; che, nella pratica, i leader sindacali e i lavoratori spesso sono oggetto di accuse penali o di licenziamenti in ragione della loro attività sindacale; che più di due milioni di lavoratori migranti nel paese sono discriminati e non godono degli stessi diritti del lavoro di cui godono i lavoratori locali, compreso il diritto di organizzazione;
R. considerando che più della metà dei pescherecci mondiali opera nel Mar cinese meridionale, che da solo rappresenta circa il 12 % della pesca mondiale; che l'UE è impegnata in un dialogo con la Thailandia e ha istituito un gruppo di lavoro sulla pesca illegale, non dichiarata e non regolamentata (INN) nel paese; che, nonostante le riforme introdotte dal governo nel settore della pesca, molti lavoratori migranti in Thailandia continuano a essere soggetti al lavoro forzato;
S. considerando che la Thailandia è il primo produttore mondiale di conserve di tonno e il principale concorrente dell'UE in tale settore; che un accordo di libero scambio con la Thailandia potrebbe rappresentare una grave minaccia per l'industria delle conserve di pesce e molluschi dell'UE, che è fondamentale in diverse regioni costiere dato il suo importante ruolo nella creazione di posti di lavoro e di prosperità, e in quanto settore ad alta intensità di manodopera femminile;
T. considerando che l'UE e la regione ASEAN sono il terzo partner commerciale l'una dell'altra e che l'UE è il quarto partner commerciale della Thailandia nonché il secondo investitore nel paese;
U. considerando che i negoziati tra l'UE e la Thailandia su un accordo bilaterale di libero scambio (ALS) sono iniziati nel 2013, ma che l'UE li ha sospesi nel 2014; che l'UE e la Thailandia hanno riavviato i negoziati il 15 marzo 2023;
Impegno dell'UE nella regione indo-pacifica
1. sottolinea che la Thailandia è un importante partner nella regione indo-pacifica, che è diventata una delle priorità geopolitiche dell'UE;
2. evidenzia l'impegno dell'UE a favore di una regione indo-pacifica libera, aperta e basata su regole; ribadisce che la nuova strategia indo-pacifica dell'UE deve essere attuata rapidamente per dare ai partner dell'UE nella regione l'opportunità di affrontare insieme le sfide comuni e di difendere l'ordine internazionale basato su regole e i valori e i principi che l'UE e l'ASEAN condividono; sostiene una cooperazione più forte con i paesi della regione, in particolare con i paesi dell'ASEAN;
3. ribadisce il significato politico di relazioni bilaterali solide, basate su valori e principi condivisi, tra l'ASEAN e l'UE in generale e tra la Thailandia e l'UE in particolare; accoglie con favore il vertice UE-ASEAN del dicembre 2022 e l'impegno ad approfondire ulteriormente questo partenariato strategico;
4. ribadisce la sua richiesta di una rapida attuazione della strategia Global Gateway dell'UE in coordinamento con la strategia indo-pacifica; pone in risalto la centralità geopolitica di tale approccio, che integra le dimensioni orientate allo sviluppo sostenibile, alla trasformazione, al rafforzamento della resilienza e ai valori in un approccio Team Europa; accoglie con favore l'annuncio di un pacchetto finanziario da 10 miliardi di EUR per accelerare gli investimenti infrastrutturali nei paesi dell'ASEAN, con lo scopo di costruire un nuovo partenariato economicamente sostenibile, in particolare per quanto riguarda la transizione verde e la connettività sostenibile;
5. osserva che la regione dell'ASEAN è una delle più vulnerabili agli effetti dei cambiamenti climatici; sottolinea l'iniziativa Green Team Europa a sostegno della transizione verde nei paesi dell'ASEAN; pone inoltre l'accento sull'importanza del ruolo della Thailandia quale coordinatore dell'ASEAN per la cooperazione in materia di sviluppo sostenibile;
6. osserva che il sostegno dei partner della regione indo-pacifica è stato e rimane molto prezioso per quanto riguarda il voto in seno all'Assemblea generale delle Nazioni Unite con riferimento alla guerra ingiustificata, non provocata e illegale della Russia nei confronti dell'Ucraina; accoglie con favore il fatto che la Thailandia abbia votato a favore delle risoluzioni dell'Assemblea generale della Nazioni Unite che condannano l'aggressione della Russia nei confronti dell'Ucraina e apprezza l'aiuto umanitario fornito dalla Thailandia all'Ucraina; incoraggia la Thailandia a promuovere il rispetto del diritto internazionale, a sostenere l'Ucraina e ad adottare una posizione chiara contro la guerra di aggressione russa anche nel quadro dell'ASEAN;
APC UE-Thailandia
7. ribadisce l'importanza che l'UE attribuisce alle relazioni con la Thailandia; accoglie con favore la conclusione dell'APC, che fornirà un quadro giuridico per consolidare relazioni politiche ed economiche bilaterali di lunga data e la collaborazione su questioni di interesse globale, e che rappresenta un passo importante verso il rafforzamento del ruolo dell'UE nella regione indo-pacifica;
8. osserva che l'APC è un accordo globale e moderno che consentirà di progredire verso nuovi modelli di crescita e sviluppo sostenibili e di rispondere meglio alle attuali sfide in un ampio numero di settori strategici, tra cui l'ambiente, l'energia, i cambiamenti climatici, i trasporti, la scienza e la tecnologia, il commercio, l'occupazione e gli affari sociali, i diritti umani, l'istruzione, l'agricoltura, la migrazione, la cultura, la non proliferazione nucleare, la lotta al terrorismo e la lotta contro la corruzione e la criminalità organizzata;
9. auspica che la conclusione dell'APC dia un forte impulso ai fini di una più intensa cooperazione tra l'UE e la Thailandia a vantaggio di tutti i cittadini e i residenti, nonché di tutte le imprese e altre parti interessate dell'UE e thailandesi; chiede che tutti i cittadini dell'UE beneficino dell'esenzione dal visto per l'ingresso in Thailandia; sostiene l'impegno a favore di un regime di esenzione dal visto per i cittadini thailandesi diretti nell'UE;
10. accoglie con favore l'adozione da parte della Thailandia di un piano d'azione nazionale su imprese e diritti umani, che l'ha resa il primo paese della regione Asia-Pacifico a incorporare un piano di questo tipo, di cui chiede l'effettiva attuazione;
11. invita le parti a impegnarsi a sostenere l'attuazione e l'applicazione della legislazione nazionale in materia di dovere di diligenza e responsabilità delle imprese, a concordare obblighi più specifici alla luce di valutazioni d'impatto sostenibili, a scambiare informazioni pertinenti, ad esempio sul numero di indagini, controlli e azioni di esecuzione, e a fornire formazione o assistenza tecnica alle imprese in materia di dovuta diligenza e responsabilità delle imprese;
12. sottolinea che le parti convengono di cooperare in ambiti di reciproco interesse in tutti i settori della scienza, della tecnologia e dell'innovazione; accoglie con favore la firma, il 9 settembre 2022, di un accordo amministrativo per la collaborazione tra l'UE e la Thailandia sulla ricerca di frontiera;
13. sottolinea l'obiettivo comune delle parti di rafforzare la risposta globale ai cambiamenti climatici e al loro impatto, e di potenziare la cooperazione sulle politiche per contribuire a mitigare i cambiamenti climatici conformemente all'accordo di Parigi; mette in evidenza l'impegno delle parti ad attuare efficacemente la Convenzione quadro delle Nazioni Unite sui cambiamenti climatici e l'accordo di Parigi;
14. sottolinea che la Thailandia è il nono paese al mondo più colpito dai cambiamenti climatici; accoglie con favore il fatto che, in occasione della COP26, la Thailandia si sia impegnata ad aumentare il proprio contributo determinato a livello nazionale con l'obiettivo di ridurre le sue emissioni di gas a effetto serra del 30 % entro il 2030; si compiace, a tale proposito, dell'adozione da parte del paese, nel 2022, di una strategia di sviluppo di lungo termine a basse emissioni di gas a effetto serra;
15. sottolinea gli sforzi compiuti dalle parti per rafforzare la cooperazione nel settore dell'energia, anche per quanto riguarda l'accesso a servizi energetici economici e sostenibili, lo sviluppo di forme di energia sostenibili e rinnovabili e la promozione della produzione di energia a basse emissioni di carbonio che contribuisca alla transizione verso un'energia pulita; incoraggia entrambe le parti a intensificare gli sforzi volti ad affrontare gli effetti dei cambiamenti climatici adottando e attuando politiche climatiche più efficaci sulla transizione energetica e la decarbonizzazione;
16. sottolinea che la Thailandia si trova ad affrontare un crescente degrado ambientale in molte regioni, tra cui la perdita di biodiversità e il declino delle popolazioni di specie selvatiche, la deforestazione, la desertificazione, la carenza idrica e l'inquinamento atmosferico e idrico; esorta le parti a cooperare per affrontare tali sfide;
17. accoglie con favore l'inclusione nell'APC di disposizioni sulla cooperazione in materia di sistemi alimentari sostenibili; sottolinea che il settore agricolo presenta importanti sensibilità sia per la Thailandia che per l'UE;
18. ritiene che l'UE debba mantenere il suo impegno a favore di una pesca sostenibile nella regione indo-pacifica e rafforzare la cooperazione con la Thailandia nella lotta contro la pesca eccessiva, la sovracapacità e la pesca INN nella regione indo-pacifica;
19. sollecita ancora una volta la Commissione a tenere presente che un accordo bilaterale di libero scambio tra l'UE e la Thailandia deve essere preceduto da rigorosi studi d'impatto sulla sostenibilità e da un'analisi dettagliata delle potenziali ripercussioni economiche, sociali e ambientali;
20. sollecita nuovamente la Commissione a includere in eventuali negoziati commerciali con la Thailandia le conserve di pesce e molluschi come "prodotti sensibili";
21. accoglie con favore il fatto che l'APC sostiene gli scambi interpersonali, come la mobilità accademica nell'ambito del programma Erasmus+, e gli scambi di migliori pratiche in materia di politiche giovanili e animazione socioeducativa;
22. valuta positivamente il fatto che l'APC sostenga la cooperazione in materia di promozione della parità di genere e dell'emancipazione femminile; si compiace della legislazione thailandese per la promozione dei diritti delle donne, compresa l'adozione della legge sulla parità di genere del 2015; invita le autorità thailandesi a intensificare gli sforzi di attuazione nonché l'impegno nel combattere la violenza di genere e nell'emancipare le donne e le ragazze, in particolare le donne migranti, le donne provenienti dalle zone rurali e le donne appartenenti a minoranze, in conformità all'articolo 21 dell'APC;
23. sottolinea che, in base all'articolo 1, paragrafo 1, dell'APC, il rispetto dei principi democratici e dei diritti umani nonché lo Stato di diritto e la buona governance costituiscono un elemento essenziale dell'accordo;
24. esprime preoccupazione per le violente repressioni di manifestanti pacifici in Thailandia tra il 2020 e il 2021; invita le autorità thailandesi a indagare sulle violazioni dei diritti umani commesse nei confronti dei manifestanti; esorta dette autorità a rilasciare i prigionieri che sono stati detenuti arbitrariamente per aver esercitato il loro diritto di riunione pacifica;
25. invita il governo thailandese a rispettare il ruolo delle organizzazioni della società civile, dei difensori dei diritti umani, dei difensori della democrazia, degli attivisti della società civile, dei giornalisti e di altri soggetti, a garantire la libertà di espressione e di riunione, a rivedere la legge sulla lesa maestà e a rilasciare tempestivamente tutte le persone arrestate nel quadro di tale legge, nonché a riesaminare il suo progetto di legge sul funzionamento delle organizzazioni senza scopo di lucro del 2021, la sua legge sulla criminalità informatica e il suo diritto penale in materia di diffamazione, in linea con il Patto internazionale relativo ai diritti civili e politici, che la Thailandia ha firmato e ratificato;
26. prende atto della maggiore protezione che la legge sulla parità di genere del 2015 offre alla comunità LGBTI; invita la Thailandia a lavorare per promuovere e tutelare pienamente i diritti della comunità LGBTI;
27. è fortemente preoccupato per il fatto che nel quadro di detta legge sulla lesa maestà sono stati presi di mira per la prima volta i bambini, e invita la Thailandia a rispettare gli obblighi internazionali che le derivano dalla Convenzione sui diritti dell'infanzia e dell'adolescenza, che il paese ha ratificato;
28. accoglie con favore l'adozione da parte della Thailandia, nel 2022, della legge sulla prevenzione e la repressione della tortura e delle sparizioni forzate quale tappa fondamentale nella lotta contro la tortura, i maltrattamenti e le sparizioni forzate nel paese; si rammarica del fatto che il 14 febbraio 2023 il governo thailandese abbia approvato un decreto per rinviare, da febbraio a ottobre 2023, l'applicazione di parti della legge; ne chiede la rapida entrata in vigore e una piena ed efficace attuazione; sollecita la Thailandia a ratificare tempestivamente la Convenzione internazionale per la protezione di tutte le persone dalle sparizioni forzate;
29. ribadisce il suo invito alla Thailandia ad adottare misure concrete per l'abolizione della pena di morte, tra cui la firma e la ratifica del secondo protocollo facoltativo al Patto internazionale relativo ai diritti civili e politici, che mira ad abolire la pena di morte; sottolinea l'importanza della dichiarazione comune sull'articolo 23 dell'APC per garantire che in futuro non siano pronunciate o eseguite condanne a morte;
30. invita la Thailandia a firmare e ratificare la Convenzione del 1951 relativa allo status dei rifugiati e il relativo protocollo del 1967; esorta le autorità thailandesi a porre immediatamente fine alle deportazioni di persone di etnia rohingya e uiguri, e di altri richiedenti asilo, deportazioni che violano palesemente gli obblighi internazionali fondamentali che vincolano la Thailandia, in particolare il principio di non respingimento; accoglie con favore i programmi di aiuto umanitario dell'UE che prestano servizi di protezione e assistenza sanitaria ai rifugiati rohingya che vivono nei campi profughi del paese;
31. riconosce gli sforzi compiuti dal governo thailandese per contrastare le violazioni dei diritti umani connesse alla tratta di esseri umani e al lavoro forzato; resta tuttavia preoccupato per le condizioni di lavoro dei lavoratori migranti;
32. accoglie con favore l'accordo delle parti di cooperare e fornire assistenza tecnica al fine di adoperarsi per la ratifica e l'attuazione delle convenzioni fondamentali dell'ILO; invita la Thailandia a ratificare le convenzioni nn. 87, 98 e 155 dell'ILO, a garantire efficacemente il diritto dei lavoratori di organizzarsi e scioperare, e a riconoscere gli stessi diritti a tutti i lavoratori, indipendentemente dal loro paese di origine, nonché a cooperare con l'UE per promuovere la ratifica e l'attuazione di altre convenzioni dell'ILO più recenti;
33. incoraggia la Thailandia a ratificare lo Statuto di Roma della Corte penale internazionale, in conformità all'articolo 5 dell'APC e alla dichiarazione comune relativa a tale articolo;
34. ricorda che, se una delle parti ritiene che l'altra non abbia adempiuto agli obblighi che le derivano dall'APC, in particolare per quanto riguarda gli elementi essenziali dell'accordo, ha la facoltà di prendere le misure del caso, compresa la sospensione dell'accordo stesso;
35. osserva che, nel rilancio dei negoziati ALS, la Commissione mira a promuovere gli scambi e gli investimenti affrontando la questione dell'accesso al mercato di beni, servizi, investimenti e appalti pubblici; procedure sanitarie e fitosanitarie rapide ed efficaci; la tutela dei diritti di proprietà intellettuale; e l'eliminazione degli ostacoli al commercio digitale e al commercio di energia e materie prime, sostenendo nel contempo elevati livelli di protezione dei diritti dei lavoratori e dell'ambiente, e il conseguimento di ambiziosi obiettivi climatici;
36. ricorda che l'articolo 1, paragrafo 2, dell'APC ribadisce l'impegno delle parti a promuovere lo sviluppo sostenibile in tutte le sue dimensioni, a cooperare per affrontare le sfide connesse ai cambiamenti climatici e alla globalizzazione, e a contribuire all'Agenda 2030 per lo sviluppo sostenibile; evidenzia il nuovo approccio dell'UE a tale riguardo, quale sottolineato nella comunicazione della Commissione, del 22 giugno 2022, dal titolo "Il potere dei partenariati commerciali: insieme per una crescita economica verde e giusta";
37. sottolinea che le preoccupazioni in materia di diritti umani devono essere prese in considerazione nel corso dei negoziati con la Thailandia;
38. sottolinea che gli ALS dell'UE prevedono la cosiddetta "clausola di non esecuzione", che comporta la sospensione delle preferenze commerciali in caso di violazione di elementi essenziali degli APC;
o o o
39. incarica la sua Presidente di trasmettere la presente risoluzione al Consiglio, alla Commissione e al vicepresidente della Commissione/alto rappresentante dell'Unione per gli affari esteri e la politica di sicurezza nonché ai governi e ai parlamenti degli Stati membri, e al governo e al parlamento del Regno di Thailandia.
Accordo di partenariato e cooperazione UE/Malaysia
108k
42k
Risoluzione legislativa del Parlamento europeo del 14 giugno 2023 concernente il progetto di decisione del Consiglio relativa alla conclusione, a nome dell'Unione, dell'accordo quadro di partenariato e cooperazione tra l'Unione europea e i suoi Stati membri, da una parte, e il governo della Malaysia, dall'altra (11714/2022 – C9-0430/2022 – 2022/0221(NLE))
– visto il progetto di decisione del Consiglio (11714/2022),
– visto il progetto di accordo quadro di partenariato e cooperazione tra l'Unione europea e i suoi Stati membri, da una parte, e il governo della Malaysia, dall'altra (11732/2022),
– vista la richiesta di approvazione presentata dal Consiglio a norma dell'articolo 209 e dell'articolo 218, paragrafo 6, secondo comma, lettera a), punto iii), del trattato sul funzionamento dell'Unione europea (C9‑0430/2022),
– vista la sua risoluzione non legislativa del 14 giugno 2023(1) sul progetto di decisione,
– visti l'articolo 105, paragrafi 1 e 4, e l'articolo 114, paragrafo 7, del suo regolamento,
– vista la raccomandazione della commissione per gli affari esteri (A9-0190/2023),
1. dà la sua approvazione alla conclusione dell'accordo;
2. incarica la sua Presidente di trasmettere la posizione del Parlamento al Consiglio e alla Commissione nonché ai governi e ai parlamenti degli Stati membri e della Malaysia.
Accordo di partenariato e cooperazione UE/Malaysia (risoluzione)
149k
51k
Risoluzione non legislativa del Parlamento europeo del 14 giugno 2023 sul progetto di decisione del Consiglio relativa alla conclusione, a nome dell'Unione, dell'accordo quadro di partenariato e cooperazione tra l'Unione europea e i suoi Stati membri, da una parte, e il governo della Malaysia, dall'altra (11714/2022 – C9-0430/2022 – 2022/0221M(NLE))
– visto il progetto di decisione del Consiglio relativa alla conclusione, a nome dell'Unione, dell'accordo quadro di partenariato e cooperazione tra l'Unione europea e i suoi Stati membri, da una parte, e il governo della Malaysia, dall'altra (11714/2022),
– vista la richiesta di approvazione presentata dal Consiglio a norma dell'articolo 209 e dell'articolo 218, paragrafo 6, secondo comma, lettera a), punto iii), del trattato sul funzionamento dell'Unione europea (C9‑0430/2022),
– visto il progetto di accordo quadro di partenariato e cooperazione tra l'Unione europea e i suoi Stati membri, da una parte, e il governo della Malaysia, dall'altra (11732/2022),
– viste le comunicazioni congiunte della Commissione e dell'alto rappresentante dell'Unione per gli affari esteri e la politica di sicurezza, del 16 settembre 2021, dal titolo "La strategia dell'UE per la cooperazione nella regione indo-pacifica" (JOIN(2021)0024), e del 1° dicembre 2021, dal titolo "Il Global Gateway" (JOIN(2021)0030),
– viste la sua risoluzione del 7 giugno 2022 sull'UE e le sfide in materia di sicurezza nella regione indo-pacifica(1) e quella del 5 luglio 2022 sulla strategia indo-pacifica nel settore del commercio e degli investimenti(2),
– vista la dichiarazione congiunta dei leader adottata in occasione del vertice commemorativo UE-ASEAN (Associazione delle nazioni del sud-est asiatico) tenutosi a Bruxelles il 14 dicembre 2022,
– vista la sua risoluzione del 3 ottobre 2017 sulle relazioni politiche dell'UE con l'ASEAN(3),
– visto l'accordo di cooperazione tra la Comunità economica europea e l'Indonesia, la Malaysia, le Filippine, Singapore e la Thailandia, Stati membri dell'Associazione delle nazioni del sud-est asiatico, firmato il 7 marzo 1980(4), che costituisce il quadro giuridico per le relazioni UE-ASEAN,
– visto il secondo protocollo facoltativo al Patto internazionale relativo ai diritti civili e politici, del 15 dicembre 1989, che mira ad abolire la pena di morte,
– visti il Patto internazionale relativo ai diritti economici, sociali e culturali del 16 dicembre 1966 e il suo protocollo facoltativo,
– visti la Convenzione contro la tortura ed altre pene o trattamenti crudeli, disumani o degradanti, del 10 dicembre 1984, e il suo protocollo facoltativo,
– vista la Convenzione internazionale per la protezione di tutte le persone dalle sparizioni forzate, del 23 dicembre 2010,
– visti la Convenzione delle Nazioni Unite relativa allo status dei rifugiati del 1951 e il relativo protocollo del 1967,
– viste le convenzioni dell'Organizzazione internazionale del lavoro (convenzioni dell'ILO),
– visto lo Statuto di Roma della Corte penale internazionale, del 17 luglio 1998,
– visti il Patto internazionale relativo ai diritti civili e politici del 16 dicembre 1966 e il suo protocollo facoltativo,
– viste la sua risoluzione dell'11 settembre 2013 recante le raccomandazioni del Parlamento europeo al Consiglio, alla Commissione e al Servizio per l'azione esterna (SAE) sui negoziati per un accordo di partenariato e cooperazione UE-Malaysia(5), quella del 17 dicembre 2015 sulla Malaysia(6) e quella del 18 gennaio 2023 sui diritti umani e la democrazia nel mondo e sulla politica dell'Unione europea in materia – relazione annuale 2022(7),
– visto l'articolo 105, paragrafo 2, del suo regolamento,
– vista la lettera della commissione per l'agricoltura e lo sviluppo rurale,
– vista la relazione della commissione per gli affari esteri (A9-0194/2023),
A. considerando che l'UE e la regione indo-pacifica sono indissolubilmente legate, tenuto conto dell'interdipendenza delle loro economie e delle loro sfide globali comuni;
B. considerando che il Parlamento ha espresso il forte impegno di sostenere l'ASEAN quale organizzazione centrale per la cooperazione regionale; che la Malaysia è un membro fondatore dell'ASEAN e ha svolto un ruolo cruciale nel favorirne i progressi complessivi;
C. considerando che nel 2022 l'UE e l'ASEAN hanno celebrato il 45° anniversario delle loro relazioni diplomatiche; che i leader dell'UE e dell'ASEAN hanno ribadito in una dichiarazione congiunta pubblicata in occasione del vertice commemorativo del 14 dicembre 2022 che l'UE e l'ASEAN sono partner strategici con un interesse comune in una regione pacifica, stabile e prospera;
D. considerando che l'attuale cooperazione tra l'UE e la Malaysia si fonda sull'accordo di cooperazione tra la CEE e l'ASEAN del 1980; che la Malaysia è storicamente un partner stretto dell'UE;
E. considerando che nel 2004 il Consiglio ha autorizzato la Commissione a negoziare un accordo di partenariato e cooperazione individuale con la Malaysia;
F. considerando che l'UE e la Malaysia hanno avviato i negoziati per un accordo di partenariato e cooperazione nel febbraio 2011 e li hanno conclusi il 12 dicembre 2015;
G. considerando che il 5 agosto 2016 i progetti di decisione del Consiglio relativi alla firma e alla conclusione dell'accordo di partenariato e cooperazione tra l'Unione europea e la Malaysia sono stati presentati al Consiglio come accordo "che riguarda la sola UE"; che il 17 marzo 2017 il Comitato dei rappresentanti permanenti dei governi degli Stati membri dell'Unione europea ha espresso l'opinione secondo cui l'accordo di partenariato e cooperazione dovrebbe essere firmato e concluso come accordo misto;
H. considerando che, pur concordando sulla natura mista dell'accordo, la Malaysia ha preferito non applicarlo provvisoriamente;
I. considerando che l'UE e la Malaysia hanno firmato l'accordo di partenariato e cooperazione il 14 dicembre 2022;
J. considerando che l'accordo di partenariato e cooperazione rafforzerà la cooperazione in un'ampia gamma di settori, tra cui i diritti umani, la non proliferazione delle armi di distruzione di massa, la lotta al terrorismo, la lotta contro la corruzione e la criminalità organizzata, il commercio, la migrazione, l'ambiente, l'energia, i cambiamenti climatici, i trasporti, la scienza e la tecnologia, l'occupazione e gli affari sociali, l'istruzione, l'agricoltura e la cultura;
K. considerando che entrambe le parti dell'accordo di partenariato e cooperazione UE-Malaysia hanno ribadito l'importanza attribuita al rispetto dei principi democratici e dei diritti umani sanciti, fra l'altro, dalla Dichiarazione universale dei diritti dell'uomo e dagli altri pertinenti strumenti internazionali sui diritti umani; che la situazione dei diritti umani in Malaysia continua a essere problematica;
L. considerando che le istituzioni e gli organi dell'UE, compreso il Servizio europeo per l'azione esterna, devono garantire che gli obblighi dell'UE e degli Stati membri in materia di diritti umani siano attuati in modo coerente nella politica estera e di sicurezza comune dell'UE;
M. considerando che il nuovo governo di unità della Malaysia deve affrontare grandi sfide nel perseguire le riforme democratiche, tra l'altro nel settore dello Stato di diritto, nel garantire il rispetto dei diritti umani e nel superare la profonda polarizzazione della società;
N. considerando che il Sedition Act e il Communications and Multimedia Act della Malaysia sono stati utilizzati in alcuni casi per limitare la libertà di parola ai danni di deputati malesi; che in Malaysia le libertà di espressione e di riunione sono minacciate, tra l'altro, dall'esistenza di leggi di ampia portata formulate in modo vago quali il Sedition Act, il Printing Presses and Publications Act nonché l'articolo 504 e l'articolo 505, lettera b), del codice penale, che configurano in quanto reato l'espressione di opinioni suscettibili di turbare la "tranquillità pubblica"; che, secondo quanto riferito da diversi difensori dei diritti umani, le autorità malesi ricorrono sempre più spesso a indagini penali per vessare giornalisti, attivisti della società civile, esponenti del mondo accademico e comuni cittadini che usano i social media;
O. considerando che la Malaysia non è firmataria della Convenzione delle Nazioni Unite del 1951 relativa allo status dei rifugiati; che circa 185 000 rifugiati e richiedenti asilo, tra cui oltre 100 000 musulmani di etnia rohingya, sono registrati presso l'Agenzia delle Nazioni Unite per i rifugiati (Alto Commissariato delle Nazioni Unite per i rifugiati) senza che però sia stato riconosciuto loro il relativo status giuridico; che la Malaysia sta espellendo i rifugiati rinviandoli in Myanmar/Birmania, in palese violazione del diritto di asilo e del principio di non respingimento;
P. considerando che i lavoratori migranti costituiscono circa il 20-30 % della forza lavoro del paese e sono spesso vittime di lavoro forzato e violazioni dei diritti umani; che anche i rifugiati, i richiedenti asilo e gli apolidi sono esposti a un rischio elevato di lavoro forzato dal momento che non hanno accesso all'occupazione legale a causa del mancato riconoscimento del loro status; che di recente sono emerse prove del ricorso al lavoro forzato e al lavoro minorile in Malaysia;
Q. considerando che la Malaysia non ha sottoscritto il secondo protocollo facoltativo al Patto internazionale relativo ai diritti civili e politici sull'abolizione della pena di morte;
R. considerando che il 3 aprile 2023 il parlamento malese ha approvato un progetto di legge che abolirebbe la pena di morte obbligatoria e limiterebbe la pena capitale ai reati gravi;
S. considerando che l'UE è il terzo partner commerciale dell'ASEAN e viceversa; che l'UE è il quinto partner commerciale della Malaysia e che la Malaysia è il terzo partner commerciale dell'UE tra i paesi dell'ASEAN;
T. considerando che i negoziati per un accordo di libero scambio tra l'UE e la Malaysia sono stati avviati nel 2010 ma sono stati poi sospesi nel 2012, dopo sette cicli di trattative, su richiesta della Malaysia;
Strategia dell'UE per la regione indo-pacifica e partenariato strategico con l'ASEAN
1. osserva che la regione indo-pacifica riveste una crescente importanza strategica per l'Europa; ribadisce il suo sostegno a favore della strategia dell'UE per la cooperazione nella regione indo-pacifica;
2. evidenzia l'impegno dell'UE a favore di una regione indo-pacifica libera, aperta e basata su regole; ribadisce che la nuova strategia indo-pacifica dell'UE deve essere attuata rapidamente per dare ai partner dell'UE nella regione l'opportunità di affrontare insieme le sfide comuni e di difendere l'ordine internazionale basato su regole e i valori e i principi che l'UE e l'ASEAN condividono; chiede di rafforzare la cooperazione con i paesi della regione, in particolare con i paesi dell'ASEAN;
3. sottolinea che l'ASEAN è un partner strategico per l'UE nella regione indo-pacifica; accoglie con favore il vertice commemorativo UE-ASEAN del 14 dicembre 2022; auspica che l'attuazione della dichiarazione congiunta dei leader dell'UE e dell'ASEAN si traduca in una cooperazione più solida con i paesi del sud-est asiatico e in particolare con la Malaysia; ribadisce il valore politico di relazioni bilaterali solide tra l'ASEAN e l'UE in generale e tra la Malaysia e l'UE in particolare;
4. ribadisce la sua richiesta di una rapida attuazione della strategia Global Gateway dell'UE in coordinamento con la strategia indo-pacifica; pone in risalto la centralità geopolitica di tale approccio, che integra le dimensioni orientate allo sviluppo sostenibile, alla trasformazione, al rafforzamento della resilienza e ai valori in un approccio Team Europa; accoglie con favore l'annuncio di un pacchetto finanziario da 10 miliardi di EUR per accelerare gli investimenti infrastrutturali nei paesi dell'ASEAN, per quanto riguarda in particolare la transizione verde e la connettività sostenibile;
5. si compiace che i leader dell'UE e dell'ASEAN abbiano riaffermato il rispetto reciproco dei principi di sovranità e integrità territoriale enunciati nella Carta delle Nazioni Unite; ribadisce che la guerra di aggressione della Russia contro l'Ucraina è una palese violazione del diritto internazionale; accoglie con favore il voto della Malaysia a favore delle risoluzioni delle Nazioni Unite a sostegno dell'Ucraina, compresa la risoluzione con cui si chiede alla Russia di ritirare immediatamente, completamente e incondizionatamente tutte le sue forze militari dal territorio dell'Ucraina entro i suoi confini riconosciuti a livello internazionale; incoraggia la Malaysia a promuovere il rispetto del diritto internazionale, a sostenere l'Ucraina e ad adottare una posizione chiara contro la guerra di aggressione russa contro l'Ucraina, anche nel quadro dell'ASEAN;
6. osserva che il sud-est asiatico è una delle regioni del mondo più esposte all'impatto del riscaldamento globale; attende con interesse la convocazione del primo dialogo ministeriale ASEAN-UE sull'ambiente e sui cambiamenti climatici nel 2023; osserva che la discussione sull'olio di palma ha rappresentato una sfida nelle relazioni UE-Malaysia;
Accordo di partenariato e cooperazione UE-Malaysia
7. accoglie con favore la conclusione dell'accordo di partenariato e cooperazione con la Malaysia; ritiene che l'accordo fornisca un solido quadro giuridico per rafforzare ulteriormente le relazioni politiche ed economiche bilaterali di lunga data e per discutere questioni di interesse regionale e globale quali, tra l'altro, la promozione della democrazia, dei diritti umani e della giustizia internazionale, il consolidamento del quadro internazionale per la non proliferazione delle armi di distruzione di massa nonché la lotta al terrorismo e alla corruzione;
8. sottolinea che un accordo di partenariato e cooperazione moderno e orientato al futuro deve fornire un quadro ambizioso per quanto riguarda la cooperazione in materia di lotta ai cambiamenti climatici e la promozione della parità di genere e dei diritti delle donne; invita l'UE ad assicurare altresì la centralità di tali aspetti nelle relazioni UE-Malaysia in sede di attuazione dell'accordo di partenariato e cooperazione;
9. invita le autorità malesi a modificare le leggi discriminatorie sulla nazionalità e sulla cittadinanza, che minano i diritti umani fondamentali delle donne, e ad adottare misure efficaci per affrontare la discriminazione nei confronti delle donne sul luogo di lavoro, comprese la discriminazione a livello di trattamento e accesso alle opportunità di lavoro, l'assenza di congedo di maternità e la disparità retributiva tra uomini e donne;
10. invita le parti a impegnarsi a sostenere l'attuazione e l'applicazione della legislazione nazionale in materia di dovere di diligenza e responsabilità delle imprese, a concordare obblighi più specifici alla luce di valutazioni d'impatto sulla sostenibilità, a scambiare informazioni pertinenti, ad esempio sul numero di indagini, controlli e azioni di esecuzione, e a fornire formazione o assistenza tecnica alle imprese in materia di dovuta diligenza e responsabilità delle imprese;
11. sottolinea che le parti convengono di cooperare nei campi della scienza, della tecnologia e dell'innovazione, nonché nei settori delle tecnologie, dell'energia e dei trasporti verdi;
12. ricorda che l'accordo di partenariato e cooperazione ribadisce l'impegno delle parti a promuovere lo sviluppo sostenibile, a collaborare per affrontare le sfide connesse al cambiamento climatico e alla globalizzazione e a contribuire al conseguimento degli obiettivi di sviluppo concordati a livello internazionale, in particolare per rafforzare un partenariato mondiale per lo sviluppo rinnovato nell'agenda 2030 per lo sviluppo sostenibile; incoraggia entrambe le parti a intensificare gli sforzi volti ad affrontare gli effetti dei cambiamenti climatici adottando e attuando politiche climatiche più efficaci in materia di transizione energetica e decarbonizzazione;
13. sottolinea l'impegno delle parti a rafforzare la cooperazione per affrontare le questioni della mitigazione dei cambiamenti climatici e dell'adattamento ad essi nell'ambito della Convenzione quadro delle Nazioni Unite sui cambiamenti climatici; sottolinea che tutte le attività intraprese dalle parti nel quadro dell'accordo di partenariato e cooperazione dovrebbero tenere conto dell'attuazione degli accordi ambientali multilaterali pertinenti, incluso l'accordo di Parigi;
14. sottolinea che molte regioni della Malaysia sono interessate da un crescente degrado ambientale, in particolare in termini di deforestazione, perdita di biodiversità e inquinamento atmosferico e idrico; esorta entrambe le parti a dare particolare rilievo alla lotta contro tali problemi nell'ambito della loro cooperazione;
15. accoglie con favore il fatto che l'accordo di partenariato e cooperazione sostenga la promozione dell'istruzione e della cooperazione culturale, compresi gli scambi interpersonali;
16. sottolinea che, in base all'articolo 1, paragrafo 1, dell'accordo di partenariato e cooperazione, il rispetto dei principi democratici e dei diritti umani nonché dei principi dello Stato di diritto e del buon governo costituisce un elemento essenziale dell'accordo; chiede che la cooperazione bilaterale sia rafforzata nella promozione e nella tutela dei diritti umani, in particolare per quanto riguarda lo scambio di migliori pratiche, l'educazione ai diritti umani, l'istituzione di un dialogo significativo e di ampio respiro in materia di diritti umani e la cooperazione in seno ai pertinenti organi delle Nazioni Unite competenti in materia di diritti umani; elogia la Malaysia, in tale contesto, per aver esteso un invito permanente alle procedure speciali del Consiglio dei diritti umani delle Nazioni Unite il 26 febbraio 2019; incoraggia la Malaysia a invitare il relatore speciale delle Nazioni Unite sulla situazione dei difensori dei diritti umani a recarsi nel paese per una visita;
17. rinnova il suo invito alle autorità malesi ad abrogare il Sedition Act di portata eccessivamente ampia e ad allineare tutta la legislazione, compresi il Prevention of Terrorism Act, il Printing Presses and Publications Act, il Communications and Multimedia Act, il Peaceful Assembly Act ed altre pertinenti disposizioni del codice penale, alle norme internazionali in materia di libertà di espressione e di riunione e tutela dei diritti umani; chiede nuovamente alle autorità malesi di agevolare le riunioni pacifiche e garantire la sicurezza di tutti i partecipanti e la loro libertà di espressione;
18. ribadisce la sua preoccupazione per l'adozione nel 2016 del National Security Council Act, che conferisce poteri straordinari al Consiglio di sicurezza nazionale e alle forze di sicurezza; rinnova il suo invito alle autorità malesi affinché abroghino tale legge, che viola le norme internazionali in materia di diritti umani; sottolinea che la necessità di salvaguardare la sicurezza nazionale non può ignorare l'obbligo di proteggere i diritti civili e politici;
19. ribadisce il suo invito alle autorità malesi a ratificare e attuare le principali convenzioni internazionali in materia di diritti umani, tra cui il Patto internazionale relativo ai diritti civili e politici, il Patto internazionale relativo ai diritti economici, sociali e culturali, la Convenzione internazionale sull'eliminazione di tutte le forme di discriminazione razziale e lo Statuto di Roma della Corte penale internazionale;
20. invita il governo malese a ratificare e attuare tempestivamente tutte le convenzioni fondamentali dell'ILO, comprese quelle sulla libertà sindacale e la protezione del diritto sindacale (n. 87), sulla discriminazione (n. 111) e sulla salute e la sicurezza dei lavoratori (n. 155); accoglie con favore la recente ratifica da parte della Malaysia del protocollo del 2014 alla Convenzione sul lavoro forzato del 1930; esorta il governo malese ad agire con determinazione contro il lavoro forzato, compresi gli abusi sui collaboratori domestici, e a vietare ai datori di lavoro di trattenere i passaporti senza il consenso dei dipendenti; incoraggia le autorità malesi a intensificare gli sforzi per individuare le vittime della tratta tra i lavoratori cinesi coinvolti in progetti infrastrutturali affiliati al governo della Repubblica popolare cinese (RPC);
21. esprime preoccupazione per la situazione delle minoranze religiose ed etniche e delle comunità indigene nel paese; incoraggia le autorità malesi a fornire un quadro globale per garantire la protezione e il sostegno di tutte le minoranze e di tutti i gruppi indigeni del paese, nel dovuto rispetto dei loro diritti fondamentali, tra cui la libertà religiosa e i diritti culturali;
22. condanna la discriminazione diffusa nei confronti della comunità LGBTIQ+; invita il governo malese ad adottare rapidamente un quadro giuridico che tuteli la comunità LGBTIQ+ contro la discriminazione, nel pieno rispetto dei diritti fondamentali e in linea con le norme internazionali;
23. esprime preoccupazione per la situazione dei rifugiati in Malaysia, compresi i rifugiati rohingya, in particolare per quanto riguarda la detenzione e la deportazione di rifugiati e richiedenti asilo verso paesi in cui subiscono gravi violazioni dei diritti umani; condanna l'espulsione sommaria di migliaia di cittadini del Myanmar/Birmania senza aver prima valutato le loro domande di asilo o altre esigenze di protezione, in violazione del principio di non respingimento; invita le autorità malesi a porre fine immediatamente alle deportazioni forzate e a concedere rapidamente all'Alto Commissariato delle Nazioni Unite per i rifugiati l'accesso ai centri di detenzione per migranti; ribadisce il suo invito alle autorità malesi a firmare e ratificare la Convenzione delle Nazioni Unite del 1951 relativa allo status dei rifugiati e il relativo protocollo del 1967;
24. sottolinea che la cooperazione in materia di migrazione deve essere attuata nel pieno rispetto del diritto internazionale; invita l'UE a promuovere, rispettare e proteggere le norme internazionali in materia di diritti umani, in particolare il principio di non respingimento e quello del rimpatrio volontario, nell'ambito della cooperazione in materia di migrazione con la Malaysia;
25. elogia la Malaysia per aver abolito la pena di morte obbligatoria; invita il governo malese a mantenere la moratoria ufficiale su tutte le esecuzioni fino a quando la pena di morte sarà completamente abolita e tutte le condanne a morte saranno commutate;
26. invita le autorità malesi e l'UE a coinvolgere in modo significativo la società civile, i sindacati e i difensori dei diritti umani nell'attuazione di questo accordo;
27. sottolinea che le preoccupazioni in materia di diritti umani devono essere prese in considerazione nel corso dei negoziati con la Malaysia;
28. sottolinea che gli accordi di libero scambio dell'UE prevedono la "clausola di non esecuzione", che comporta la sospensione delle preferenze commerciali in caso di violazione di elementi essenziali dell'accordo di partenariato e cooperazione;
o o o
29. incarica la sua Presidente di trasmettere la presente risoluzione al Consiglio, alla Commissione, ai governi e ai parlamenti degli Stati membri e al governo e al parlamento della Malaysia.
Accordo di partenariato nel settore della pesca UE/Repubblica di Maurizio: attuazione del protocollo
107k
42k
Risoluzione legislativa del Parlamento europeo del 14 giugno 2023 concernente la decisione del Consiglio relativa alla conclusione del protocollo di attuazione dell'accordo di partenariato nel settore della pesca tra l'Unione europea e la Repubblica di Maurizio (2022-2026) (12787/2022 – C9-0001/2023 – 2022/0249(NLE))
– visto il progetto di decisione del Consiglio (12787/2022),
– visto il protocollo di attuazione dell'accordo di partenariato nel settore della pesca tra l'Unione europea e la Repubblica di Maurizio (2022-2026) (12785/2022),
– vista la richiesta di approvazione presentata dal Consiglio a norma dell'articolo 43 e dell'articolo 218, paragrafo 6, secondo comma, lettera a), punto v), del trattato sul funzionamento dell'Unione europea (C9‑0001/2023),
– visti l'articolo 105, paragrafi 1 e 4, e l'articolo 114, paragrafo 7, del suo regolamento,
– visto il parere della commissione per lo sviluppo,
– visto il parere della commissione per i bilanci,
– vista la raccomandazione della commissione per la pesca (A9-0196/2023),
1. dà la sua approvazione alla conclusione del protocollo;
2. incarica la sua Presidente di trasmettere la posizione del Parlamento al Consiglio e alla Commissione nonché ai governi e ai parlamenti degli Stati membri e della Repubblica di Maurizio.
Legge sull'intelligenza artificiale
883k
270k
Emendamenti del Parlamento europeo, approvati il 14 giugno 2023, alla proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull'intelligenza artificiale (legge sull'intelligenza artificiale) e modifica alcuni atti legislativi dell'Unione (COM(2021)0206 – C9-0146/2021 – 2021/0106(COD))(1)
Emendamento 1 Proposta di regolamento Visto 4 bis (nuovo)
visto il parere della Banca centrale europea,
Emendamento 2 Proposta di regolamento Visto 4 ter (nuovo)
visto il parere congiunto del comitato europeo per la protezione dei dati e del Garante europeo della protezione dei dati,
Emendamento 3 Proposta di regolamento Considerando 1
(1) Lo scopo del presente regolamento è migliorare il funzionamento del mercato interno istituendo un quadro giuridico uniforme in particolare per quanto riguarda lo sviluppo, la commercializzazione e l'uso dell'intelligenza artificiale (IA) in conformità ai valori dell'Unione. Il presente regolamento persegue una serie di motivi imperativi di interesse pubblico, quali un elevato livello di protezione della salute, della sicurezza e dei diritti fondamentali, e garantisce la libera circolazione transfrontaliera di beni e servizi basati sull'IA, impedendo così agli Stati membri di imporre restrizioni allo sviluppo, alla commercializzazione e all'uso di sistemi di IA, salvo espressa autorizzazione del presente regolamento.
(1) Lo scopo del presente regolamento è promuovere la diffusione di un'intelligenza artificiale antropocentrica e affidabile e garantire un livello elevato di protezione della salute, della sicurezza, dei diritti fondamentali, della democrazia e dello Stato di diritto, nonché dell'ambiente, dagli effetti nocivi dei sistemi di intelligenza artificiale nell'Unione, sostenendo nel contempo l'innovazione e migliorando il funzionamento del mercato interno. Il presente regolamento istituisce un quadro giuridico uniforme in particolare per quanto riguarda lo sviluppo, l'immissione sul mercato, la messa in servizio e l'uso dell'intelligenza artificiale (IA) in conformità ai valori dell'Unione e garantisce la libera circolazione transfrontaliera di beni e servizi basati sull'IA, impedendo così agli Stati membri di imporre restrizioni allo sviluppo, alla commercializzazione e all'uso di sistemi di intelligenza artificiale(sistemi di IA), salvo espressa autorizzazione del presente regolamento. Alcuni sistemi di IA possono anche avere un impatto sulla democrazia, sullo Stato di diritto e sull'ambiente. Tali preoccupazioni sono affrontate specificamente nei settori e nei casi d'uso critici elencati negli allegati del presente regolamento.
Emendamento 4 Proposta di regolamento Considerando 1 bis (nuovo)
(1 bis) Il presente regolamento dovrebbe preservare i valori dell'Unione agevolando la diffusione dei benefici apportati dall'intelligenza artificiale nell'intera società, proteggendo le persone, le imprese, la democrazia, lo Stato di diritto e l'ambiente dai rischi, promuovendo nel contempo l'innovazione e l'occupazione e rendendo l'Unione un leader nel settore.
Emendamento 5 Proposta di regolamento Considerando 2
(2) I sistemi di intelligenza artificiale (sistemi di IA) possono essere facilmente impiegati in molteplici settori dell'economia e della società, anche a livello transfrontaliero, e circolare in tutta l'Unione. Alcuni Stati membri hanno già preso in esame l'adozione di regole nazionali per garantire che l'intelligenza artificiale sia sicura e sia sviluppata e utilizzata nel rispetto degli obblighi in materia di diritti fondamentali. Normative nazionali divergenti possono determinare una frammentazione del mercato interno e diminuire la certezza del diritto per gli operatori che sviluppano o utilizzano sistemi di IA. È pertanto opportuno garantire un livello di protezione costante ed elevato in tutta l'Unione, mentre dovrebbero essere evitate le divergenze che ostacolano la libera circolazione dei sistemi di IA e dei relativi prodotti e servizi nel mercato interno, stabilendo obblighi uniformi per gli operatori e garantendo la tutela uniforme dei motivi imperativi di interesse pubblico e dei diritti delle persone in tutto il mercato interno, sulla base dell'articolo 114 del trattato sul funzionamento dell'Unione europea (TFUE). Nella misura in cui il presente regolamento prevede regole specifiche sulla protezione delle persone fisiche con riguardo al trattamento dei dati personali, consistenti in limitazioni dell'uso dei sistemi di IA per l'identificazione biometrica remota "in tempo reale" in spazi accessibili al pubblico a fini di attività di contrasto, è opportuno basare il presente regolamento, per quanto riguarda tali regole specifiche, sull'articolo 16 TFUE. Alla luce di tali regole specifiche e del ricorso all'articolo 16 TFUE, è opportuno consultare il comitato europeo per la protezione dei dati.
(2) I sistemi di IA possono essere facilmente impiegati in molteplici settori dell'economia e della società, anche a livello transfrontaliero, e circolare in tutta l'Unione. Alcuni Stati membri hanno già preso in esame l'adozione di regole nazionali per garantire che l'intelligenza artificiale sia affidabile e sicura e sia sviluppata e utilizzata nel rispetto degli obblighi in materia di diritti fondamentali. Normative nazionali divergenti possono determinare una frammentazione del mercato interno e diminuire la certezza del diritto per gli operatori che sviluppano o utilizzano sistemi di IA. È pertanto opportuno garantire un livello di protezione costante ed elevato in tutta l'Unione al fine di conseguire un'IA affidabile, mentre dovrebbero essere evitate le divergenze che ostacolano la libera circolazione, l'innovazione, la diffusione e l'adozione dei sistemi di IA e dei relativi prodotti e servizi nel mercato interno, stabilendo obblighi uniformi per gli operatori e garantendo la tutela uniforme dei motivi imperativi di interesse pubblico e dei diritti delle persone in tutto il mercato interno, sulla base dell'articolo 114 del trattato sul funzionamento dell'Unione europea (TFUE).
Emendamento 6 Proposta di regolamento Considerando 2 bis (nuovo)
(2 bis) Dal momento che l'intelligenza artificiale spesso si basa sul trattamento di grandi volumi di dati e che molti sistemi e applicazioni di IA si fondano sul trattamento di dati personali, è opportuno basare il presente regolamento sull'articolo 16 TFUE, che sancisce il diritto alla protezione delle persone fisiche con riguardo al trattamento dei dati personali e prevede l'adozione di regole sulla protezione delle persone fisiche con riguardo al trattamento dei dati personali.
Emendamento 7 Proposta di regolamento Considerando 2 ter (nuovo)
(2 ter) Il diritto fondamentale alla protezione dei dati personali è garantito in particolare dai regolamenti(UE) 2016/679 e (UE) 2018/1725 e dalla direttiva (UE) 2016/680. La direttiva 2002/58/CE tutela inoltre la vita privata e la riservatezza delle comunicazioni, in particolare stabilendo le condizioni per l'archiviazione di dati personali e non personali e l'accesso ai dati archiviati in apparecchi terminali. Tali atti giuridici costituiscono la base di un trattamento dei dati sostenibile e responsabile, anche laddove i set di dati includano una combinazione di dati personali e non personali. Il presente regolamento non mira a pregiudicare l'applicazione del diritto dell'Unione esistente che disciplina il trattamento dei dati personali, inclusi i compiti e i poteri delle autorità di controllo indipendenti competenti a monitorare la conformità con tali strumenti. Inoltre, esso non pregiudica il diritto fondamentale alla vita privata e alla protezione dei dati personali previsto dal diritto dell'Unione in materia di protezione dei dati e della vita privata e sancito dalla Carta dei diritti fondamentali dell'Unione europea (la "Carta").
Emendamento 8 Proposta di regolamento Considerando 2 quater (nuovo)
(2 quater) I sistemi di intelligenza artificiale nell'Unione sono soggetti alla pertinente legislazione in materia di sicurezza dei prodotti, che prevede un quadro per la protezione dei consumatori dai prodotti pericolosi in generale, e tale legislazione dovrebbe continuare ad applicarsi. Il presente regolamento lascia inoltre impregiudicate le norme stabilite da altri atti giuridici dell'Unione in materia di protezione dei consumatori e sicurezza dei prodotti, tra cui il regolamento (UE) 2017/2394, il regolamento (UE) 2019/1020, la direttiva 2001/95/CE sulla sicurezza generale dei prodotti e la direttiva 2013/11/UE.
Emendamento 9 Proposta di regolamento Considerando 2 quinquies (nuovo)
(2 quinquies) In conformità dell'articolo 114, paragrafo 2, TFUE, il presente regolamento integra e non dovrebbe pregiudicare i diritti e gli interessi dei lavoratori dipendenti. Il presente regolamento non dovrebbe pertanto incidere sulla normativa dell'Unione in materia di politica sociale né sulla normativa e sulle pratiche nazionali in materia di lavoro, vale a dire qualsiasi disposizione giuridica e contrattuale relativa alle condizioni di impiego, alle condizioni di lavoro, comprese la salute e la sicurezza sul luogo di lavoro, e al rapporto tra datori di lavoro e lavoratori, incluse l'informazione, la consultazione e la partecipazione. Il presente regolamento non dovrebbe pregiudicare l'esercizio dei diritti fondamentali riconosciuti dagli Stati membri e a livello di Unione, compresi il diritto o la libertà di sciopero o il diritto o la libertà di intraprendere altre azioni contemplate dalla disciplina delle relazioni industriali negli Stati membri, in conformità della normativa e/o delle prassi nazionali. Esso non dovrebbe neppure pregiudicare le pratiche di concertazione o il diritto di negoziare, concludere ed eseguire accordi collettivi, o di intraprendere azioni collettive in conformità della normativa e/o delle prassi nazionali. Il presente regolamento non dovrebbe in alcun caso impedire alla Commissione di proporre una legislazione specifica sui diritti e sulle libertà dei lavoratori interessati dai sistemi di IA.
Emendamento 10 Proposta di regolamento Considerando 2 sexies (nuovo)
(2 sexies) Il presente regolamento dovrebbe lasciare impregiudicate le disposizioni volte a migliorare le condizioni di lavoro nel lavoro mediante piattaforme digitali di cui alla direttiva ... [2021/0414(COD)].
Emendamento 11 Proposta di regolamento Considerando 2 septies (nuovo)
(2 septies) È opportuno che il presente regolamento contribuisca a sostenere la ricerca e l'innovazione, non comprometta le attività di ricerca e sviluppo e rispetti la libertà della ricerca scientifica. È pertanto necessario escludere dal suo ambito di applicazione i sistemi di IA specificamente sviluppati al solo scopo di ricerca e sviluppo in ambito scientifico e garantire che il regolamento non incida altrimenti sulle attività scientifiche di ricerca e sviluppo relative ai sistemi di IA. In ogni circostanza, qualsiasi attività di ricerca e sviluppo dovrebbe essere svolta conformemente alla Carta, al diritto dell'Unione nonché al diritto nazionale.
Emendamento 12 Proposta di regolamento Considerando 3
(3) L'intelligenza artificiale consiste in una famiglia di tecnologie in rapida evoluzione che può contribuire al conseguimento di un'ampia gamma di benefici a livello economico e sociale nell'intero spettro delle attività industriali e sociali. L'uso dell'intelligenza artificiale, garantendo un miglioramento delle previsioni, l'ottimizzazione delle operazioni e dell'assegnazione delle risorse e la personalizzazione delle soluzioni digitali disponibili per i singoli e le organizzazioni, può fornire vantaggi competitivi fondamentali alle imprese e condurre a risultati vantaggiosi sul piano sociale ed ambientale, ad esempio in materia di assistenza sanitaria, agricoltura, istruzione e formazione, gestione delle infrastrutture, energia, trasporti e logistica, servizi pubblici, sicurezza, giustizia, efficienza dal punto di vista energetico e delle risorse, mitigazione dei cambiamenti climatici e adattamento ad essi.
(3) L'intelligenza artificiale consiste in una famiglia di tecnologie in rapida evoluzione che può contribuire e già contribuisce al conseguimento di un'ampia gamma di benefici a livello economico, ambientale e sociale nell'intero spettro delle attività industriali e sociali se sviluppata in conformità di principi generali pertinenti in linea con la Carta e i valori su cui si fonda l'Unione. L'uso dell'intelligenza artificiale, garantendo un miglioramento delle previsioni, l'ottimizzazione delle operazioni e dell'assegnazione delle risorse e la personalizzazione delle soluzioni digitali disponibili per i singoli e le organizzazioni, può fornire vantaggi competitivi fondamentali alle imprese e condurre a risultati vantaggiosi sul piano sociale ed ambientale, ad esempio in materia di assistenza sanitaria, agricoltura, sicurezza alimentare, istruzione e formazione, media, sport, cultura, gestione delle infrastrutture, energia, trasporti e logistica, gestione delle crisi, servizi pubblici, sicurezza, giustizia, efficienza dal punto di vista energetico e delle risorse, monitoraggio ambientale, conservazione e ripristino della biodiversità e degli ecosistemi, mitigazione dei cambiamenti climatici e adattamento ad essi.
Emendamento 13 Proposta di regolamento Considerando 3 bis (nuovo)
(3 bis) Al fine di contribuire al conseguimento degli obiettivi di neutralità in termini di emissioni di carbonio, le imprese europee dovrebbero tentare di avvalersi di tutti i progressi tecnologici disponibili che possano contribuire al raggiungimento di tali obiettivi. L'intelligenza artificiale è una tecnologia potenzialmente in grado di essere utilizzata per il trattamento del volume sempre crescente di dati creati nell'ambito dei processi industriali, ambientali, sanitari e di altro tipo. Al fine di agevolare gli investimenti in strumenti di analisi e ottimizzazione basati sull'IA, il presente regolamento dovrebbe creare un contesto prevedibile e proporzionato per soluzioni industriali a basso rischio.
Emendamento 14 Proposta di regolamento Considerando 4
(4) L'intelligenza artificiale può nel contempo, a seconda delle circostanze relative alla sua applicazione e al suo utilizzo specifici, comportare rischi e pregiudicare gli interessi pubblici e i diritti tutelati dalla legislazione dell'Unione. Tale pregiudizio può essere sia materiale sia immateriale.
(4) L'intelligenza artificiale può nel contempo, a seconda delle circostanze relative alla sua applicazione e al suo utilizzo specifici, nonché del livello di sviluppo tecnologico, comportare rischi e pregiudicare gli interessi pubblici o privati e i diritti fondamentali delle persone fisiche tutelati dalla legislazione dell'Unione. Tale pregiudizio può essere sia materiale sia immateriale, compreso il pregiudizio fisico, psicologico, sociale o economico.
Emendamento 15 Proposta di regolamento Considerando 4 bis (nuovo)
(4 bis) In considerazione dell'impatto significativo che l'intelligenza artificiale può avere sulla società e della necessità di creare maggiore fiducia, è essenziale che l'intelligenza artificiale e il suo quadro normativo siano sviluppati conformemente ai valori dell'Unione sanciti dall'articolo 2 TUE, ai diritti e alle libertà fondamentali sanciti dai trattati, alla Carta e al diritto internazionale in materia di diritti umani. Come prerequisito, l'intelligenza artificiale dovrebbe essere una tecnologia antropocentrica. Essa non dovrebbe sostituire l'autonomia umana o presupporre la perdita della libertà individuale e dovrebbe essere principalmente al servizio della società e del bene comune. È opportuno prevedere misure per garantire lo sviluppo e l'utilizzo di un'intelligenza artificiale eticamente integrata che rispetti i valori dell'Unione e la Carta.
Emendamento 16 Proposta di regolamento Considerando 5
(5) Si rende pertanto necessario un quadro giuridico dell'Unione che istituisca regole armonizzate in materia di intelligenza artificiale per promuovere lo sviluppo, l'uso e l'adozione dell'intelligenza artificiale nel mercato interno, garantendo nel contempo un elevato livello di protezione degli interessi pubblici, quali la salute e la sicurezza e la protezione dei diritti fondamentali, come riconosciuti e tutelati dal diritto dell'Unione. Per conseguire tale obiettivo, è opportuno stabilire regole che disciplinino l'immissione sul mercato e la messa in servizio di determinati sistemi di IA, garantendo in tal modo il buon funzionamento del mercato interno e consentendo a tali sistemi di beneficiare del principio della libera circolazione di beni e servizi. Stabilendo tali regole, il presente regolamento contribuisce all'obiettivo dell'Unione di essere un leader mondiale nello sviluppo di un'intelligenza artificiale sicura, affidabile ed etica, come affermato dal Consiglio europeo33, e garantisce la tutela dei principi etici, come specificamente richiesto dal Parlamento europeo34.
(5) Si rende pertanto necessario un quadro giuridico dell'Unione che istituisca regole armonizzate in materia di intelligenza artificiale per promuovere lo sviluppo, l'uso e l'adozione dell'intelligenza artificiale nel mercato interno, garantendo nel contempo un elevato livello di protezione degli interessi pubblici, quali la salute e la sicurezza, la protezione dei diritti fondamentali, la democrazia, lo Stato di diritto e l'ambiente, come riconosciuti e tutelati dal diritto dell'Unione. Per conseguire tale obiettivo, è opportuno stabilire regole che disciplinino l'immissione sul mercato, la messa in servizio e l'uso di determinati sistemi di IA, garantendo in tal modo il buon funzionamento del mercato interno e consentendo a tali sistemi di beneficiare del principio della libera circolazione di beni e servizi. Tali norme dovrebbero essere chiare e solide nel tutelare i diritti fondamentali, sostenere nuove soluzioni innovative e consentire un ecosistema europeo di attori pubblici e privati che creino sistemi di IA in linea con i valori dell'Unione. Stabilendo tali regole nonché le misure a sostegno dell'innovazione, con particolare attenzione alle PMI e alle start-up, il presente regolamento contribuisce all'obiettivo di promuovere l'IA "Made in Europe" e all'obiettivo dell'Unione di essere un leader mondiale nello sviluppo di un'intelligenza artificiale sicura, affidabile ed etica, come affermato dal Consiglio europeo33, e garantisce la tutela dei principi etici, come specificamente richiesto dal Parlamento europeo34.
__________________
__________________
33 Consiglio europeo, riunione straordinaria del Consiglio europeo (1 e 2 ottobre 2020) – Conclusioni, EUCO 13/20, 2020, pag. 6.
33 Consiglio europeo, riunione straordinaria del Consiglio europeo (1 e 2 ottobre 2020) – Conclusioni, EUCO 13/20, 2020, pag. 6.
34 Risoluzione del Parlamento europeo del 20 ottobre 2020 recante raccomandazioni alla Commissione concernenti il quadro relativo agli aspetti etici dell'intelligenza artificiale, della robotica e delle tecnologie correlate (2020/2012(INL)).
34 Risoluzione del Parlamento europeo del 20 ottobre 2020 recante raccomandazioni alla Commissione concernenti il quadro relativo agli aspetti etici dell'intelligenza artificiale, della robotica e delle tecnologie correlate (2020/2012(INL)).
Emendamento 17 Proposta di regolamento Considerando 5 bis (nuovo)
(5 bis) Inoltre, al fine di promuovere lo sviluppo dei sistemi di IA conformemente ai valori dell'Unione, quest'ultima deve far fronte alle principali lacune e barriere che bloccano il potenziale della trasformazione digitale, tra cui la carenza di lavoratori dotati di competenze digitali, le preoccupazioni legate alla cibersicurezza, la mancanza di investimenti e di accesso agli investimenti, nonché i divari esistenti e potenziali tra le grandi imprese, le PMI e le start-up. Occorre prestare particolare attenzione a garantire che i benefici dell'IA e dell'innovazione nelle nuove tecnologie siano percepiti in tutte le regioni dell'Unione e che siano previsti investimenti e risorse sufficienti, soprattutto per le regioni che possono registrare ritardi in relazione ad alcuni indicatori digitali.
Emendamento 18 Proposta di regolamento Considerando 6
(6) La nozione di sistema di IA dovrebbe essere definita in maniera chiara al fine di garantire la certezza del diritto, prevedendo nel contempo la flessibilità necessaria per agevolare i futuri sviluppi tecnologici. La definizione dovrebbe essere basata sulle principali caratteristiche funzionali del software, in particolare sulla capacità, per una determinata serie di obiettivi definiti dall'uomo, di generare output quali contenuti, previsioni, raccomandazioni o decisioni che influenzano l'ambiente con cui il sistema interagisce, tanto in una dimensione fisica quanto in una dimensione digitale. I sistemi di IA possono essere progettati per funzionare con livelli di autonomia variabili e per essere utilizzati come elementi indipendenti (stand-alone) o come componenti di un prodotto, a prescindere dal fatto che il sistema sia fisicamente incorporato nel prodotto (integrato) o assista la funzionalità del prodotto senza esservi incorporato (non integrato). La definizione di sistema di IA dovrebbe essere completata da un elenco di tecniche e approcci specifici utilizzati per il suo sviluppo, che dovrebbe essere tenuto aggiornato alla luce degli sviluppi di mercato e tecnologici mediante l'adozione da parte della Commissione di atti delegati volti a modificare tale elenco.
(6) La nozione di sistema di IA di cui al presente regolamento dovrebbe essere definita in maniera chiara e strettamente allineata al lavoro delle organizzazioni internazionali che si occupano di intelligenza artificiale al fine di garantire la certezza del diritto, l'armonizzazione e un'ampia accettazione, prevedendo nel contempo la flessibilità necessaria per agevolare i rapidi sviluppi tecnologici in questo ambito. Inoltre, essa dovrebbe essere basata sulle principali caratteristiche dell'intelligenza artificiale, quali le sue capacità di apprendimento, ragionamento o modellizzazione, in modo da distinguerla da sistemi software o approcci di programmazione più semplici. I sistemi di IA sono progettati per funzionare con livelli di autonomia variabili, il che significa che dispongono almeno di un certo grado di autonomia di azione rispetto ai controlli umani e di capacità di funzionare senza l'intervento umano. Il termine "automatizzato" si riferisce al fatto che il funzionamento dei sistemi di IA prevede l'uso di macchine. Il riferimento a obiettivi espliciti o impliciti sottolinea che i sistemi di IA possono operare in base a obiettivi espliciti definiti dall'uomo o a obiettivi impliciti. Gli obiettivi del sistema di IA possono essere diversi dalla finalità prevista del sistema di IA in un contesto specifico. Il riferimento alle previsioni comprende il contenuto, che nel presente regolamento è considerato una forma di previsione, in quanto uno dei possibili output prodotti da un sistema di IA. Ai fini del presente regolamento, gli ambienti dovrebbero essere intesi come i contesti in cui operano i sistemi di IA, mentre gli output generati dal sistema di IA, ossia previsioni, raccomandazioni o decisioni, rispondono agli obiettivi del sistema sulla base degli input provenienti da tale ambiente. Tale output influenza ulteriormente detto ambiente, anche solo mediante l'introduzione di nuove informazioni.
Emendamento 19 Proposta di regolamento Considerando 6 bis (nuovo)
(6 bis) I sistemi di IA sono spesso dotati di capacità di apprendimento automatico che consentono loro di adattarsi e di svolgere nuovi compiti in autonomia. L'apprendimento automatico si riferisce al processo computazionale di ottimizzazione dei parametri di un modello a partire dai dati, una costruzione matematica che genera un output basato su dati di input. Gli approcci di apprendimento automatico comprendono, ad esempio, l'apprendimento supervisionato, l'apprendimento non supervisionato e l'apprendimento per rinforzo e utilizzano una varietà di metodi, tra cui l'apprendimento profondo (deep learning) con reti neurali. Il presente regolamento mira ad affrontare i nuovi rischi potenziali che potrebbero sorgere delegando il controllo ai sistemi di IA, in particolare ai sistemi di IA che possono evolvere in seguito alla loro diffusione. La funzione e gli output di molti di questi sistemi di IA si basano su relazioni matematiche astratte che per gli esseri umani risultano difficili da comprendere e monitorare e i cui input specifici sono difficili da rintracciare. Tali caratteristiche complesse e opache (elemento "scatola nera") incidono sulla rendicontabilità e sulla spiegabilità. Tecniche comparabilmente più semplici, come gli approcci basati sulle conoscenze, le stime bayesiane o gli alberi decisionali, possono altresì comportare lacune giuridiche che devono essere affrontate dal presente regolamento, in particolare se usate in combinazione con gli approcci di apprendimento automatico nei sistemi ibridi.
Emendamento 20 Proposta di regolamento Considerando 6 ter (nuovo)
(6 ter) I sistemi di IA possono essere utilizzati come sistemi software indipendenti (stand-alone), incorporati in un prodotto fisico (integrati), utilizzati per assistere la funzionalità di un prodotto fisico senza esservi incorporati (non integrati) o utilizzati come componenti di IA di un sistema più ampio. Qualora tale sistema più ampio non funzionasse senza il componente di IA in questione, l'intero sistema più ampio dovrebbe essere considerato un unico sistema di IA a norma del presente regolamento.
Emendamento 21 Proposta di regolamento Considerando 7
(7) La nozione di dati biometrici utilizzata nel presente regolamento è in linea e dovrebbe essere interpretata in modo coerente con la nozione di dati biometrici di cui all'articolo 4, punto 14), del regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio35, all'articolo 3, punto 18), del regolamento (UE) n. 2018/1725 del Parlamento europeo e del Consiglio36 e all'articolo 3, punto 13), della direttiva (UE) 2016/680 del Parlamento europeo e del Consiglio37.
(7) La nozione di dati biometrici utilizzata nel presente regolamento è in linea e dovrebbe essere interpretata in modo coerente con la nozione di dati biometrici di cui all'articolo 4, punto 14), del regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio35. I dati basati su elementi biometrici sono dati aggiuntivi ottenuti da un trattamento tecnico specifico in relazione ai segnali fisici, fisiologici o comportamentali di una persona fisica, quali ad esempio le espressioni facciali, i movimenti, la frequenza cardiaca, la voce, la pressione esercitata sui tasti o l'andatura, che possono o non possono consentire o confermare l'identificazione univoca di una persona fisica.
__________________
__________________
35 Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio, del 27 aprile 2016, relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati e che abroga la direttiva 95/46/CE (regolamento generale sulla protezione dei dati) (GU L 119 del 4.5.2016, pag. 1).
35 Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio, del 27 aprile 2016, relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati e che abroga la direttiva 95/46/CE (regolamento generale sulla protezione dei dati) (GU L 119 del 4.5.2016, pag. 1).
36 Regolamento (UE) 2018/1725 del Parlamento europeo e del Consiglio, del 23 ottobre 2018, sulla tutela delle persone fisiche in relazione al trattamento dei dati personali da parte delle istituzioni, degli organi e degli organismi dell'Unione e sulla libera circolazione di tali dati, e che abroga il regolamento (CE) n. 45/2001 e la decisione n. 1247/2002/CE (GU L 295 del 21.11.2018, pag. 39).
37 Direttiva (UE) 2016/680 del Parlamento europeo e del Consiglio, del 27 aprile 2016, relativa alla protezione delle persone fisiche con riguardo al trattamento dei dati personali da parte delle autorità competenti a fini di prevenzione, indagine, accertamento e perseguimento di reati o esecuzione di sanzioni penali, nonché alla libera circolazione di tali dati e che abroga la decisione quadro 2008/977/GAI del Consiglio (direttiva sulla protezione dei dati nelle attività di polizia e giudiziarie) (GU L 119 del 4.5.2016, pag. 89).
Emendamento 22 Proposta di regolamento Considerando 7 bis (nuovo)
(7 bis) La nozione di "identificazione biometrica" utilizzata nel presente regolamento dovrebbe essere definita come il riconoscimento automatico di caratteristiche fisiche, fisiologiche, comportamentali e psicologiche di una persona, quali il volto, il movimento degli occhi, le espressioni facciali, la forma del corpo, la voce, il linguaggio, l'andatura, la postura, la frequenza cardiaca, la pressione sanguigna, l'odore, la pressione esercitata sui tasti, le reazioni psicologiche (rabbia, angoscia, dolore, ecc.), allo scopo di determinare l'identità di una persona confrontando i suoi dati biometrici con quelli di altri individui memorizzati in una banca dati (identificazione "uno a molti"), indipendentemente dal fatto che la persona abbia fornito il proprio consenso.
Emendamento 23 Proposta di regolamento Considerando 7 ter (nuovo)
(7 ter) La nozione di categorizzazione biometrica utilizzata nel presente regolamento dovrebbe essere definita come l'assegnazione di persone fisiche a categorie specifiche o la deduzione delle loro caratteristiche o dei loro attributi, quali il genere, il sesso, l'età, il colore dei capelli, il colore degli occhi, i tatuaggi, l'origine etnica o sociale, la salute, l'abilità mentale o fisica, i tratti comportamentali o di personalità, la lingua, la religione o l'appartenenza a una minoranza nazionale o l'orientamento sessuale o politico, sulla base dei loro dati biometrici o dei dati basati su elementi biometrici o che possono essere dedotti da tali dati.
Emendamento 24 Proposta di regolamento Considerando 8
(8) È opportuno definire a livello funzionale la nozione di sistema di identificazione biometrica remota utilizzata nel presente regolamento, quale sistema di IA destinato all'identificazione a distanza di persone fisiche mediante il confronto dei dati biometrici di una persona con i dati biometrici contenuti in una banca dati di riferimento, e senza sapere in anticipo se la persona interessata sarà presente e può essere identificata, a prescindere dalla tecnologia, dai processi o dai tipi specifici di dati biometrici utilizzati. Tenuto conto delle loro diverse caratteristiche e modalità di utilizzo, nonché dei diversi rischi connessi, è opportuno operare una distinzione tra sistemi di identificazione biometrica remota "in tempo reale" e "a posteriori". Nel caso dei sistemi "in tempo reale", il rilevamento dei dati biometrici, il confronto e l'identificazione avvengono tutti istantaneamente, quasi istantaneamente o in ogni caso senza ritardi significativi. A tale riguardo, non dovrebbe essere possibile eludere le regole del presente regolamento per quanto attiene all'uso "in tempo reale" dei sistemi di IA in questione prevedendo ritardi minimi. I sistemi "in tempo reale" comportano l'uso di materiale "dal vivo" o "quasi dal vivo" (ad esempio filmati) generato da una telecamera o da un altro dispositivo con funzionalità analoghe. Nel caso dei sistemi di identificazione "a posteriori", invece, i dati biometrici sono già stati rilevati e il confronto e l'identificazione avvengono solo con un ritardo significativo. Si tratta di materiale, come immagini o filmati generati da telecamere a circuito chiuso o da dispositivi privati, che è stato generato prima che il sistema fosse usato in relazione alle persone fisiche interessate.
(8) È opportuno definire a livello funzionale la nozione di sistema di identificazione biometrica remota utilizzata nel presente regolamento, quale sistema di IA destinato all'identificazione a distanza di persone fisiche mediante il confronto dei dati biometrici di una persona con i dati biometrici contenuti in una banca dati di riferimento, e senza sapere in anticipo se la persona interessata sarà presente e può essere identificata, a prescindere dalla tecnologia, dai processi o dai tipi specifici di dati biometrici utilizzati, escludendo i sistemi di verifica che si limitano a confrontare i dati biometrici di una persona fisica con i dati biometrici forniti in precedenza ("uno a uno"). Tenuto conto delle loro diverse caratteristiche e modalità di utilizzo, nonché dei diversi rischi connessi, è opportuno operare una distinzione tra sistemi di identificazione biometrica remota "in tempo reale" e "a posteriori". Nel caso dei sistemi "in tempo reale", il rilevamento dei dati biometrici, il confronto e l'identificazione avvengono tutti istantaneamente, quasi istantaneamente o in ogni caso senza ritardi significativi. A tale riguardo, non dovrebbe essere possibile eludere le regole del presente regolamento per quanto attiene all'uso "in tempo reale" dei sistemi di IA in questione prevedendo ritardi minimi. I sistemi "in tempo reale" comportano l'uso di materiale "dal vivo" o "quasi dal vivo" (ad esempio filmati) generato da una telecamera o da un altro dispositivo con funzionalità analoghe. Nel caso dei sistemi di identificazione "a posteriori", invece, i dati biometrici sono già stati rilevati e il confronto e l'identificazione avvengono solo con un ritardo significativo. Si tratta di materiale, come immagini o filmati generati da telecamere a circuito chiuso o da dispositivi privati, che è stato generato prima che il sistema fosse usato in relazione alle persone fisiche interessate. Poiché la nozione di identificazione biometrica è indipendente dal consenso della persona, tale definizione si applica anche quando le avvertenze sono collocate nel luogo soggetto alla vigilanza del sistema di identificazione biometrica remota, e non è di fatto annullata dal pre-inserimento.
Emendamento 25 Proposta di regolamento Considerando 8 bis (nuovo)
(8 bis) L'identificazione a distanza delle persone fisiche è intesa a distinguere i sistemi di identificazione biometrica remota dai sistemi di verifica individuale di prossimità che utilizzano mezzi di identificazione biometrica, il cui unico scopo è quello di confermare se una determinata persona fisica che si presenta per l'identificazione disponga o meno di un'autorizzazione, ad esempio per accedere a un servizio, a un dispositivo o a locali.
Emendamento 26 Proposta di regolamento Considerando 9
(9) Ai fini del presente regolamento la nozione di spazio accessibile al pubblico dovrebbe essere intesa come riferita a qualsiasi luogo fisico accessibile al pubblico, a prescindere dal fatto che il luogo in questione sia di proprietà pubblica o privata. La nozione non contempla pertanto i luoghi di natura privata, quali abitazioni, circoli privati, uffici, magazzini e fabbriche, che non sono di norma accessibili a terzi, comprese le autorità di contrasto, a meno che tali soggetti non siano stati specificamente invitati o autorizzati. Non sono del pari contemplati gli spazi online, dato che non sono luoghi fisici. Il semplice fatto che possano applicarsi determinate condizioni di accesso a uno spazio specifico, quali biglietti d'ingresso o limiti di età, non significa tuttavia che lo spazio non sia accessibile al pubblico ai sensi del presente regolamento. Di conseguenza, oltre agli spazi pubblici come le strade, le parti pertinenti degli edifici governativi e la maggior parte delle infrastrutture di trasporto, sono di norma accessibili al pubblico anche spazi quali cinema, teatri, negozi e centri commerciali. L'accessibilità di un determinato spazio al pubblico dovrebbe tuttavia essere determinata caso per caso, tenendo conto delle specificità della singola situazione presa in esame.
(9) Ai fini del presente regolamento la nozione di spazio accessibile al pubblico dovrebbe essere intesa come riferita a qualsiasi luogo fisico accessibile al pubblico, a prescindere dal fatto che il luogo in questione sia di proprietà pubblica o privata e indipendentemente dalle potenziali restrizioni di capacità. La nozione non contempla pertanto i luoghi di natura privata, quali abitazioni, circoli privati, uffici, magazzini e fabbriche, che non sono di norma accessibili a terzi, comprese le autorità di contrasto, a meno che tali soggetti non siano stati specificamente invitati o autorizzati. Non sono del pari contemplati gli spazi online, dato che non sono luoghi fisici. Il semplice fatto che possano applicarsi determinate condizioni di accesso a uno spazio specifico, quali biglietti d'ingresso o limiti di età, non significa tuttavia che lo spazio non sia accessibile al pubblico ai sensi del presente regolamento. Di conseguenza, oltre agli spazi pubblici come le strade, le parti pertinenti degli edifici governativi e la maggior parte delle infrastrutture di trasporto, sono di norma accessibili al pubblico anche spazi quali cinema, teatri, campi sportivi, scuole, università, parti pertinenti di ospedali e banche, parchi di divertimento, festival, negozi e centri commerciali. L'accessibilità di un determinato spazio al pubblico dovrebbe tuttavia essere determinata caso per caso, tenendo conto delle specificità della singola situazione presa in esame.
Emendamento 27 Proposta di regolamento Considerando 9 bis (nuovo)
(9 bis) È importante osservare che i sistemi di IA dovrebbero fare il possibile per rispettare i principi generali che istituiscono un quadro di alto livello che promuova un approccio coerente e antropocentrico a un'IA etica e affidabile, in linea con la Carta dei diritti fondamentali dell'Unione europea e i valori su cui si fonda l'Unione, tra cui la protezione dei diritti fondamentali, l'intervento e la sorveglianza umani, la robustezza tecnica e la sicurezza, la riservatezza e la governance dei dati, la trasparenza, la non discriminazione e l'equità nonché il benessere sociale e ambientale.
Emendamento 28 Proposta di regolamento Considerando 9 ter (nuovo)
(9 ter) L'"alfabetizzazione in materia di IA" si riferisce alle competenze, alle conoscenze e alla comprensione che consentono ai fornitori, agli utenti e alle persone interessate, tenendo conto dei loro rispettivi diritti e obblighi nel contesto del presente regolamento, di procedere a una diffusione informata dei sistemi di IA, nonché di acquisire consapevolezza in merito alle opportunità e ai rischi dell'IA e ai possibili danni che essa può causare, promuovendone in tal modo il controllo democratico. L'alfabetizzazione in materia di IA non dovrebbe limitarsi all'apprendimento di strumenti e tecnologie, ma dovrebbe anche mirare a dotare i fornitori e gli utenti delle nozioni e delle competenze necessarie per garantire la conformità al presente regolamento e la sua applicazione. È pertanto necessario che la Commissione, gli Stati membri, nonché i fornitori e gli utenti dei sistemi di IA, in collaborazione con tutti i pertinenti portatori di interessi, promuovano lo sviluppo di un livello sufficiente di alfabetizzazione in materia di IA in tutti i settori della società, per le persone di tutte le età, ivi comprese le donne e le ragazze, e che i progressi in tal senso siano seguiti con attenzione.
Emendamento 29 Proposta di regolamento Considerando 10
(10) Al fine di garantire condizioni di parità e una protezione efficace dei diritti e delle libertà delle persone in tutta l'Unione, è opportuno che le regole stabilite dal presente regolamento si applichino ai fornitori di sistemi di IA in modo non discriminatorio, a prescindere dal fatto che siano stabiliti nell'Unione o in un paese terzo, e agli utenti dei sistemi di IA stabiliti nell'Unione.
(10) Al fine di garantire condizioni di parità e una protezione efficace dei diritti e delle libertà delle persone in tutta l'Unione e a livello internazionale, è opportuno che le regole stabilite dal presente regolamento si applichino ai fornitori di sistemi di IA in modo non discriminatorio, a prescindere dal fatto che siano stabiliti nell'Unione o in un paese terzo, e agli operatori dei sistemi di IA stabiliti nell'Unione. Affinché l'Unione sia fedele ai suoi valori fondamentali, i sistemi di IA destinati a essere utilizzati per pratiche considerate inaccettabili dal presente regolamento dovrebbero essere considerati inaccettabili anche al di fuori dell'Unione a causa della loro incidenza particolarmente nociva sui diritti fondamentali sanciti dalla Carta. È pertanto opportuno vietare l'esportazione di tali sistemi di IA verso paesi terzi da parte di fornitori residenti nell'Unione.
Emendamento 30 Proposta di regolamento Considerando 11
(11) Alla luce della loro natura di sistemi digitali, è opportuno che determinati sistemi di IA rientrino nell'ambito di applicazione del presente regolamento anche quando non sono immessi sul mercato, né messi in servizio, né utilizzati nell'Unione. È il caso, ad esempio, di un operatore stabilito nell'Unione che appalta alcuni servizi a un operatore stabilito al di fuori dell'Unione in relazione a un'attività che deve essere svolta da un sistema di IA che sarebbe classificato ad alto rischio e i cui effetti avrebbero un impatto sulle persone fisiche che si trovano nell'Unione. In tali circostanze il sistema di IA utilizzato dall'operatore al di fuori dell'Unione potrebbe trattare dati raccolti nell'Unione e da lì trasferiti, nel rispetto della legge, e fornire all'operatore appaltante nell'Unione l'output di tale sistema di IA risultante da tale trattamento, senza che tale sistema di IA sia immesso sul mercato, messo in servizio o utilizzato nell'Unione. Al fine di impedire l'elusione del presente regolamento e di garantire una protezione efficace delle persone fisiche che si trovano nell'Unione, è opportuno che il presente regolamento si applichi anche ai fornitori e agli utenti di sistemi di IA stabiliti in un paese terzo, nella misura in cui l'output prodotto da tali sistemi è utilizzato nell'Unione. Cionondimeno, per tener conto degli accordi vigenti e delle esigenze particolari per la cooperazione con partner stranieri con cui sono scambiate informazioni e elementi probatori, il presente regolamento non dovrebbe applicarsi alle autorità pubbliche di un paese terzo e alle organizzazioni internazionali che agiscono nel quadro di accordi internazionali conclusi a livello nazionale o europeo per la cooperazione delle autorità giudiziarie e di contrasto con l'Unione o con i suoi Stati membri. Tali accordi sono stati conclusi bilateralmente tra Stati membri e paesi terzi o tra l'Unione europea, Europol e altre agenzie dell'UE e paesi terzi e organizzazioni internazionali.
(11) Alla luce della loro natura di sistemi digitali, è opportuno che determinati sistemi di IA rientrino nell'ambito di applicazione del presente regolamento anche quando non sono immessi sul mercato, né messi in servizio, né utilizzati nell'Unione. È il caso, ad esempio, di un operatore stabilito nell'Unione che appalta alcuni servizi a un operatore stabilito al di fuori dell'Unione in relazione a un'attività che deve essere svolta da un sistema di IA che sarebbe classificato ad alto rischio e i cui effetti avrebbero un impatto sulle persone fisiche che si trovano nell'Unione. In tali circostanze il sistema di IA utilizzato dall'operatore al di fuori dell'Unione potrebbe trattare dati raccolti nell'Unione e da lì trasferiti, nel rispetto della legge, e fornire all'operatore appaltante nell'Unione l'output di tale sistema di IA risultante da tale trattamento, senza che tale sistema di IA sia immesso sul mercato, messo in servizio o utilizzato nell'Unione. Al fine di impedire l'elusione del presente regolamento e di garantire una protezione efficace delle persone fisiche che si trovano nell'Unione, è opportuno che il presente regolamento si applichi anche ai fornitori, agli utenti e agli operatori di sistemi di IA stabiliti in un paese terzo, nella misura in cui l'output prodotto da tali sistemi è destinato a essere utilizzato nell'Unione. Cionondimeno, per tener conto degli accordi vigenti e delle esigenze particolari per la cooperazione con partner stranieri con cui sono scambiate informazioni e elementi probatori, il presente regolamento non dovrebbe applicarsi alle autorità pubbliche di un paese terzo e alle organizzazioni internazionali che agiscono nel quadro di accordi internazionali conclusi a livello nazionale o europeo per la cooperazione delle autorità giudiziarie e di contrasto con l'Unione o con i suoi Stati membri. Tali accordi sono stati conclusi bilateralmente tra Stati membri e paesi terzi o tra l'Unione europea, Europol e altre agenzie dell'UE e paesi terzi e organizzazioni internazionali. Tale eccezione dovrebbe, tuttavia, essere limitata ai paesi e alle organizzazioni internazionali affidabili che condividono i valori dell'Unione.
Emendamento 31 Proposta di regolamento Considerando 12
(12) È altresì opportuno che il presente regolamento si applichi alle istituzioni, agli uffici, agli organismi e alle agenzie dell'Unione quando agiscono in qualità di fornitori o utenti di un sistema di IA. I sistemi di IA sviluppati o utilizzati esclusivamente per scopi militari dovrebbero essere esclusi dall'ambito di applicazione del presente regolamento nel caso in cui tale uso rientri nell'ambito di competenza esclusiva della politica estera e di sicurezza comune disciplinata dal titolo V del trattato sull'Unione europea (TUE). Il presente regolamento non dovrebbe pregiudicare le disposizioni relative alla responsabilità dei prestatori intermediari di cui alla direttiva 2000/31/CE del Parlamento europeo e del Consiglio [come modificata dalla legge sui servizi digitali].
(12) È altresì opportuno che il presente regolamento si applichi alle istituzioni, agli uffici, agli organismi e alle agenzie dell'Unione quando agiscono in qualità di fornitori od operatori di un sistema di IA. I sistemi di IA sviluppati o utilizzati esclusivamente per scopi militari dovrebbero essere esclusi dall'ambito di applicazione del presente regolamento nel caso in cui tale uso rientri nell'ambito di competenza esclusiva della politica estera e di sicurezza comune disciplinata dal titolo V del trattato sull'Unione europea (TUE). Il presente regolamento non dovrebbe pregiudicare le disposizioni relative alla responsabilità dei prestatori intermediari di cui alla direttiva 2000/31/CE del Parlamento europeo e del Consiglio [come modificata dalla legge sui servizi digitali].
Emendamento 32 Proposta di regolamento Considerando 12 bis (nuovo)
(12 bis) I software e i dati che sono condivisi apertamente e che gli utenti possono liberamente consultare, utilizzare, modificare e ridistribuire, comprese le loro versioni modificate, possono contribuire alla ricerca e all'innovazione nel mercato. Dalle ricerche condotte dalla Commissione emerge anche che i software liberi e open source possono contribuire al PIL dell'Unione europea per un valore compreso tra i 65 e i 95 miliardi di EUR e offrire notevoli opportunità di crescita per l'economia europea. Gli utenti possono eseguire, copiare, distribuire, studiare, modificare e migliorare i software e i dati, compresi i modelli, mediante licenze libere e open source. Al fine di favorire lo sviluppo e la diffusione dell'IA, in particolare da parte delle PMI, delle start-up e del mondo della ricerca accademica, ma anche dei singoli individui, il presente regolamento non si dovrebbe applicare a tali componenti di IA liberi e open source, tranne nella misura in cui essi sono immessi sul mercato o messi in servizio da un fornitore nell'ambito di un sistema di IA ad alto rischio o di un sistema di IA che rientra nel titolo II o IV del presente regolamento.
Emendamento 33 Proposta di regolamento Considerando 12 ter (nuovo)
(12 ter) Né lo sviluppo collaborativo di componenti di IA liberi e open source né la loro messa a disposizione su archivi aperti dovrebbero essere considerati un'immissione sul mercato o una messa in servizio. Un'attività commerciale, nel senso di una messa a disposizione sul mercato, può tuttavia essere caratterizzata dall'applicazione di un prezzo, ad eccezione delle transazioni tra microimprese, per un componente di IA libero e open source, ma anche dall'applicazione di un prezzo per i servizi di assistenza tecnica, dalla fornitura di una piattaforma software attraverso la quale il fornitore monetizza altri servizi o dall'utilizzo di dati personali per motivi diversi dal solo miglioramento della sicurezza, della compatibilità o dell'interoperabilità del software.
Emendamento 34 Proposta di regolamento Considerando 12 quater (nuovo)
(12 quater) È opportuno che gli sviluppatori indipendenti di componenti di IA liberi e open source non siano obbligati, a norma del presente regolamento, a conformarsi a requisiti relativi alla catena del valore dell'IA e, in particolare, nei confronti dei fornitori che utilizzano tale componente di IA libero e open source. Gli sviluppatori di componenti di IA liberi e open source dovrebbero tuttavia essere incoraggiati ad attuare pratiche di documentazione ampiamente adottate, come modelli e schede dati, al fine di accelerare la condivisione delle informazioni lungo la catena del valore dell'IA, consentendo la promozione di sistemi di IA affidabili nell'Unione.
Emendamento 35 Proposta di regolamento Considerando 13
(13) Al fine di garantire un livello costante ed elevato di tutela degli interessi pubblici in materia di salute, sicurezza e diritti fondamentali, è opportuno stabilire norme legislative comuni per tutti i sistemi di IA ad alto rischio. Tali norme dovrebbero essere coerenti con la Carta dei diritti fondamentali dell'Unione europea (la Carta), non discriminatorie e in linea con gli impegni commerciali internazionali dell'Unione.
(13) Al fine di garantire un livello costante ed elevato di tutela degli interessi pubblici in materia di salute, sicurezza e diritti fondamentali, nonché di democrazia, Stato di diritto e ambiente, è opportuno stabilire norme legislative comuni per tutti i sistemi di IA ad alto rischio. Tali norme dovrebbero essere coerenti con la Carta, il Green Deal europeo, la dichiarazione comune sui diritti digitali dell'Unione e gli orientamenti etici per un'intelligenza artificiale (IA) affidabile elaborati dal gruppo di esperti ad alto livello sull'intelligenza artificiale, non discriminatorie e in linea con gli impegni commerciali internazionali dell'Unione.
Emendamento 36 Proposta di regolamento Considerando 14
(14) Al fine di introdurre un insieme proporzionato ed efficace di regole vincolanti per i sistemi di IA è opportuno avvalersi di un approccio basato sul rischio definito in modo chiaro. Tale approccio dovrebbe adattare la tipologia e il contenuto di dette regole all'intensità e alla portata dei rischi che possono essere generati dai sistemi di IA. È pertanto necessario vietare determinate pratiche di intelligenza artificiale, stabilire requisiti per i sistemi di IA ad alto rischio e obblighi per gli operatori pertinenti, nonché obblighi di trasparenza per determinati sistemi di IA.
(14) Al fine di introdurre un insieme proporzionato ed efficace di regole vincolanti per i sistemi di IA è opportuno avvalersi di un approccio basato sul rischio definito in modo chiaro. Tale approccio dovrebbe adattare la tipologia e il contenuto di dette regole all'intensità e alla portata dei rischi che possono essere generati dai sistemi di IA. È pertanto necessario vietare determinate pratiche inaccettabili di intelligenza artificiale, stabilire requisiti per i sistemi di IA ad alto rischio e obblighi per gli operatori pertinenti, nonché obblighi di trasparenza per determinati sistemi di IA.
Emendamento 37 Proposta di regolamento Considerando 15
(15) L'intelligenza artificiale presenta, accanto a molti utilizzi benefici, la possibilità di essere utilizzata impropriamente e di fornire strumenti nuovi e potenti per pratiche di manipolazione, sfruttamento e controllo sociale. Tali pratiche sono particolarmente dannose e dovrebbero essere vietate poiché contraddicono i valori dell'Unione relativi al rispetto della dignità umana, della libertà, dell'uguaglianza, della democrazia e dello Stato di diritto e dei diritti fondamentali dell'Unione, compresi il diritto alla non discriminazione, alla protezione dei dati e della vita privata e i diritti dei minori.
(15) L'intelligenza artificiale presenta, accanto a molti utilizzi benefici, la possibilità di essere utilizzata impropriamente e di fornire strumenti nuovi e potenti per pratiche di manipolazione, sfruttamento e controllo sociale. Tali pratiche sono particolarmente dannose e abusive e dovrebbero essere vietate poiché contraddicono i valori dell'Unione relativi al rispetto della dignità umana, della libertà, dell'uguaglianza, della democrazia e dello Stato di diritto e dei diritti fondamentali dell'Unione, compresi il diritto alla non discriminazione, alla protezione dei dati e della vita privata e i diritti dei minori.
Emendamento 38 Proposta di regolamento Considerando 16
(16) È opportuno vietare l'immissione sul mercato, la messa in servizio o l'uso di determinati sistemi di IA intesi a distorcere il comportamento umano e che possono provocare danni fisici o psicologici. Tali sistemi di IA impiegano componenti subliminali che i singoli individui non sono in grado di percepire, oppure sfruttano le vulnerabilità di bambini e persone, dovute all'età o a incapacità fisiche o mentali. Si tratta di azioni compiute con l'intento di distorcere materialmente il comportamento di una persona, in un modo che provoca o può provocare un danno a tale persona o a un'altra. Tale intento non può essere presunto se la distorsione del comportamento umano è determinata da fattori esterni al sistema di IA, che sfuggono al controllo del fornitore o dell'utente. Tale divieto non dovrebbe ostacolare la ricerca per scopi legittimi in relazione a tali sistemi di IA, se tale ricerca non equivale a un uso del sistema di IA nelle relazioni uomo-macchina che espone le persone fisiche a danni e se tale ricerca è condotta conformemente a norme etiche riconosciute per la ricerca scientifica.
(16) È opportuno vietare l'immissione sul mercato, la messa in servizio o l'uso di determinati sistemi di IA che hanno l'obiettivo o l'effetto di distorcere materialmente il comportamento umano e che possono provocare danni fisici o psicologici. Dovrebbero intendersi incluse in tale limitazione le neurotecnologie assistite da sistemi di IA che sono utilizzate per monitorare, sfruttare o influenzare i dati neurali raccolti attraverso interfacce cervello-computer nella misura in cui distorcono materialmente il comportamento di una persona fisica in un modo che provoca o può provocare un danno significativo a tale persona o a un'altra. Tali sistemi di IA impiegano componenti subliminali che i singoli individui non sono in grado di percepire, oppure sfruttano le vulnerabilità di individui e gruppi specifici di persone, dovute ai tratti noti o presunti della loro personalità, all'età o a incapacità fisiche o mentali, o alla situazione sociale o economica. Si tratta di azioni compiute con l'intento o l'effetto di distorcere materialmente il comportamento di una persona, in un modo che provoca o può provocare un danno significativo a tale persona o a un'altra o a gruppi di persone, inclusi danni accumulabili nel tempo. Tale intento di distorcere il comportamento non può essere presunto se la distorsione è determinata da fattori esterni al sistema di IA, che sfuggono al controllo del fornitore o dell'utente, come fattori che possono non essere ragionevolmente previsti e attenuati dal fornitore o dall'operatore del sistema di IA. In ogni caso, non è necessario che il fornitore o l'operatore abbiano l'intento di provocare il danno significativo, purché tale danno derivi da pratiche manipolative o di sfruttamento consentite dall'IA. Il divieto di tali pratiche di IA è complementare alle disposizioni della direttiva 2005/29/CE, secondo cui le pratiche commerciali sleali sono vietate, indipendentemente dal fatto che siano attuate ricorrendo a sistemi di IA o in altro modo. In tale contesto, le pratiche commerciali lecite, ad esempio nel settore della pubblicità, che sono conformi al diritto dell'Unione non dovrebbero essere considerate di per sé contrarie al divieto. Tale divieto non dovrebbe ostacolare la ricerca per scopi legittimi in relazione a tali sistemi di IA, se tale ricerca non equivale a un uso del sistema di IA nelle relazioni uomo-macchina che espone le persone fisiche a danni e se tale ricerca è condotta conformemente a norme etiche riconosciute per la ricerca scientifica e sulla base del consenso informato specifico delle persone esposte o, se del caso, del loro tutore legale.
Emendamento 39 Proposta di regolamento Considerando 16 bis (nuovo)
(16 bis) I sistemi di IA che classificano le persone fisiche assegnandole a categorie specifiche, in base a caratteristiche sensibili o protette note o dedotte, sono particolarmente intrusivi, violano la dignità umana e presentano un elevato rischio di discriminazione. Tali caratteristiche includono il genere e l'identità di genere, la razza, l'origine etnica, lo status di cittadinanza o migrazione, l'orientamento politico, l'orientamento sessuale, la religione, la disabilità o qualsiasi altro motivo in base al quale la discriminazione è vietata a norma dell'articolo 21 della Carta dei diritti fondamentali dell'Unione europea, nonché a norma dell'articolo 9 del regolamento (UE) 2016/769. È pertanto opportuno vietare tali sistemi.
Emendamento 40 Proposta di regolamento Considerando 17
(17) I sistemi di IA che forniscono un punteggio sociale delle persone fisiche per finalità generali delle autorità pubbliche o di loro rappresentanti possono portare a risultati discriminatori e all'esclusione di determinati gruppi. Possono inoltre ledere il diritto alla dignità e alla non discriminazione e i valori di uguaglianza e giustizia. Tali sistemi di IA valutano o classificano l'affidabilità delle persone fisiche sulla base del loro comportamento sociale in molteplici contesti o di caratteristiche personali o della personalità note o previste. Il punteggio sociale ottenuto da tali sistemi di IA può determinare un trattamento pregiudizievole o sfavorevole di persone fisiche o di interi gruppi in contesti sociali che non sono collegati ai contesti in cui i dati sono stati originariamente generati o raccolti, o a un trattamento pregiudizievole che risulta ingiustificato o sproporzionato rispetto alla gravità del loro comportamento sociale. È pertanto opportuno vietare tali sistemi di IA.
(17) I sistemi di IA che forniscono un punteggio sociale delle persone fisiche per finalità generali possono portare a risultati discriminatori e all'esclusione di determinati gruppi. Ledono inoltre il diritto alla dignità e alla non discriminazione e i valori di uguaglianza e giustizia. Tali sistemi di IA valutano o classificano le persone fisiche o i gruppi sulla base di vari punti di dati e occorrenze riguardanti il loro comportamento sociale in molteplici contesti o di caratteristiche personali o della personalità note, dedotte o previste. Il punteggio sociale ottenuto da tali sistemi di IA può determinare un trattamento pregiudizievole o sfavorevole di persone fisiche o di interi gruppi in contesti sociali che non sono collegati ai contesti in cui i dati sono stati originariamente generati o raccolti, o a un trattamento pregiudizievole che risulta ingiustificato o sproporzionato rispetto alla gravità del loro comportamento sociale. È pertanto opportuno vietare tali sistemi di IA.
Emendamento 41 Proposta di regolamento Considerando 18
(18) L'uso di sistemi di IA di identificazione biometrica remota "in tempo reale" delle persone fisiche in spazi accessibili al pubblico a fini di attività di contrasto è ritenuto particolarmente invasivo dei diritti e delle libertà delle persone interessate, nella misura in cui potrebbe avere ripercussioni sulla vita privata di un'ampia fetta della popolazione, farla sentire costantemente sotto sorveglianza e scoraggiare in maniera indiretta l'esercizio della libertà di riunione e di altri diritti fondamentali. L'immediatezza dell'impatto e le limitate opportunità di eseguire ulteriori controlli o apportare correzioni in relazione all'uso di tali sistemi che operano "in tempo reale" comportano inoltre un aumento dei rischi per quanto concerne i diritti e le libertà delle persone oggetto di attività di contrasto.
(18) L'uso di sistemi di IA di identificazione biometrica remota "in tempo reale" delle persone fisiche in spazi accessibili al pubblico è particolarmente invasivo dei diritti e delle libertà delle persone interessate e può in ultima analisi avere ripercussioni sulla vita privata di un'ampia fetta della popolazione, farla sentire costantemente sotto sorveglianza, collocare le parti che impiegano l'identificazione biometrica in spazi accessibili al pubblico in una posizione di potere incontrollabile e scoraggiare in maniera indiretta l'esercizio della libertà di riunione e di altri diritti fondamentali che costituiscono l'essenza dello Stato di diritto. Le inesattezze di carattere tecnico dei sistemi di IA destinati all'identificazione biometrica remota delle persone fisiche possono determinare risultati distorti e comportare effetti discriminatori. Ciò diviene particolarmente importante quando si trattano aspetti quali età, etnia, sesso o disabilità. L'immediatezza dell'impatto e le limitate opportunità di eseguire ulteriori controlli o apportare correzioni in relazione all'uso di tali sistemi che operano "in tempo reale" comportano inoltre un aumento dei rischi per quanto concerne i diritti e le libertà delle persone oggetto di attività di contrasto. L'uso di tali sistemi in spazi accessibili al pubblico dovrebbe pertanto essere vietato. Analogamente, anche i sistemi di IA utilizzati per l'analisi di filmati registrati di spazi accessibili al pubblico attraverso sistemi di identificazione biometrica remota "a posteriori" dovrebbero essere vietati, a meno che non vi sia un'autorizzazione giudiziaria preventiva concernente il loro uso a fini di contrasto, ove strettamente necessario per la ricerca mirata connessa a uno specifico reato grave già avvenuto e previa autorizzazione giudiziaria.
Emendamento 42 Proposta di regolamento Considerando 19
(19) L'uso di tali sistemi a fini di attività di contrasto dovrebbe pertanto essere vietato, eccezion fatta per tre situazioni elencate in modo esaustivo e definite rigorosamente, nelle quali l'uso è strettamente necessario per perseguire un interesse pubblico rilevante, la cui importanza prevale sui rischi. Tali situazioni comprendono la ricerca di potenziali vittime di reato, compresi i minori scomparsi, determinate minacce per la vita o l'incolumità fisica delle persone fisiche o un attacco terroristico nonché il rilevamento, la localizzazione e l'identificazione degli autori o dei sospettati di reati di cui nella decisione quadro 2002/584/GAI del Consiglio38 o l'azione penale nei loro confronti, se tali reati, quali definiti dalla legge dello Stato membro interessato, sono punibili in tale Stato membro con una pena o una misura di sicurezza privativa della libertà personale della durata massima di almeno tre anni. Tale soglia per la pena o la misura di sicurezza privativa della libertà personale in conformità al diritto nazionale contribuisce a garantire che il reato sia sufficientemente grave da giustificare potenzialmente l'uso di sistemi di identificazione biometrica remota "in tempo reale". Inoltre è probabile che, a livello pratico, alcuni dei 32 reati elencati della decisione quadro 2002/584/GAI del Consiglio risultino più pertinenti di altri, poiché il grado di necessità e proporzionalità del ricorso all'identificazione biometrica remota "in tempo reale" sarà prevedibilmente molto variabile per quanto concerne il perseguimento pratico del rilevamento, della localizzazione, dell'identificazione o dell'azione penale nei confronti di un autore o un sospettato dei vari reati elencati e con riguardo alle possibili differenze in termini di gravità, probabilità e portata del danno o delle eventuali conseguenze negative.
soppresso
__________________
38Decisione quadro del Consiglio 2002/584/GAI, del 13 giugno 2002, relativa al mandato d'arresto europeo e alle procedure di consegna tra Stati membri (GU L 190 del 18.7.2002, pag. 1).
Emendamento 43 Proposta di regolamento Considerando 20
(20) Al fine di garantire che tali sistemi siano utilizzati in modo responsabile e proporzionato, è altresì importante stabilire che, in ciascuna delle tre situazioni elencate in modo esaustivo e definite rigorosamente, è opportuno tener conto di taluni elementi, in particolare per quanto riguarda la natura della situazione all'origine della richiesta e le conseguenze dell'uso per i diritti e le libertà di tutte le persone interessate, nonché le tutele e le condizioni previste per l'uso. L'uso di sistemi di identificazione biometrica remota "in tempo reale" in spazi accessibili al pubblico a fini di attività di contrasto dovrebbe inoltre essere subordinato a limiti di tempo e di spazio adeguati, con particolare riguardo a indicazioni o elementi probatori relativi a minacce, vittime o autori di reati. La banca dati di riferimento delle persone dovrebbe risultare adeguata per ogni caso d'uso in ciascuna delle tre situazioni di cui sopra.
soppresso
Emendamento 44 Proposta di regolamento Considerando 21
(21) È opportuno subordinare ogni uso di un sistema di identificazione biometrica remota "in tempo reale" in spazi accessibili al pubblico a fini di attività di contrasto a un'autorizzazione esplicita e specifica da parte di un'autorità giudiziaria o di un'autorità amministrativa indipendente di uno Stato membro. Tale autorizzazione dovrebbe, in linea di principio, essere ottenuta prima dell'uso, tranne in situazioni di urgenza debitamente giustificate, vale a dire le situazioni in cui la necessità di utilizzare i sistemi in questione è tale da far sì che sia effettivamente e oggettivamente impossibile ottenere un'autorizzazione prima di iniziare a utilizzare il sistema. In tali situazioni di urgenza, è opportuno limitare l'uso al minimo indispensabile e subordinarlo a tutele e condizioni adeguate, come stabilito dal diritto nazionale e specificato nel contesto di ogni singolo caso d'uso urgente dall'autorità di contrasto stessa. L'autorità di contrasto dovrebbe inoltre in tali situazioni tentare di ottenere nel minor tempo possibile un'autorizzazione, indicando contestualmente i motivi per cui non ha potuto richiederla prima.
soppresso
Emendamento 45 Proposta di regolamento Considerando 22
(22) È altresì opportuno prevedere, nell'ambito del quadro esaustivo stabilito dal presente regolamento, che tale uso nel territorio di uno Stato membro in conformità al presente regolamento sia possibile solo nel caso e nella misura in cui lo Stato membro in questione abbia deciso di prevedere espressamente la possibilità di autorizzare tale uso nelle regole dettagliate del proprio diritto nazionale. Gli Stati membri restano di conseguenza liberi, a norma del presente regolamento, di non prevedere affatto tale possibilità o di prevederla soltanto per alcuni degli obiettivi idonei a giustificare l'uso autorizzato di cui nel presente regolamento.
soppresso
Emendamento 46 Proposta di regolamento Considerando 23
(23) L'uso di sistemi di IA per l'identificazione biometrica remota "in tempo reale" di persone fisiche in spazi accessibili al pubblico a fini di attività di contrasto comporta necessariamente il trattamento di dati biometrici. Le regole del presente regolamento che, fatte salve alcune eccezioni, vietano tale uso, e che sono basate sull'articolo 16 TFUE, dovrebbero applicarsi come lex specialis rispetto alle regole sul trattamento dei dati biometrici di cui all'articolo 10 della direttiva (UE) 2016/680, disciplinando quindi in modo esaustivo tale uso e il trattamento dei dati biometrici interessati. L'uso e il trattamento di cui sopra dovrebbero pertanto essere possibili solo nella misura in cui siano compatibili con il quadro stabilito dal presente regolamento, senza che al di fuori di tale quadro sia prevista la possibilità, per le autorità competenti, quando agiscono a fini di attività di contrasto, di utilizzare tali sistemi e trattare tali dati in connessione con tali attività per i motivi di cui all'articolo 10 della direttiva (UE) 2016/680. In tale contesto, il presente regolamento non è inteso a fornire la base giuridica per il trattamento dei dati personali a norma dell'articolo 8 della direttiva 2016/680. Tuttavia, l'uso di sistemi di identificazione biometrica remota "in tempo reale" in spazi accessibili al pubblico a fini diversi dalle attività di contrasto, anche da parte delle autorità competenti, non dovrebbe rientrare nel quadro specifico stabilito dal presente regolamento in relazione a tale uso a fini di attività di contrasto. Tale uso a fini diversi dalle attività di contrasto non dovrebbe pertanto essere subordinato all'obbligo di un'autorizzazione a norma del presente regolamento e delle regole dettagliate applicabili del diritto nazionale che possono darvi attuazione.
soppresso
Emendamento 47 Proposta di regolamento Considerando 24
(24) Qualsiasi trattamento di dati biometrici e di altri dati personali interessati dall'uso di sistemi di IA a fini di identificazione biometrica, diverso da quello connesso all'uso di sistemi di identificazione biometrica remota "in tempo reale" in spazi accessibili al pubblico a fini di attività di contrasto disciplinato dal presente regolamento, compresi i casi in cui tali sistemi sono utilizzati dalle autorità competenti in spazi accessibili al pubblico per fini diversi dalle attività di contrasto, dovrebbe continuare a soddisfare tutti i requisiti derivanti dall'articolo 9, paragrafo 1, del regolamento (UE) 2016/679, dall'articolo 10, paragrafo 1, del regolamento (UE) 2018/1725 e dall'articolo 10 della direttiva (UE) 2016/680, a seconda dei casi.
(24) Qualsiasi trattamento di dati biometrici e di altri dati personali interessati dall'uso di sistemi di IA a fini di identificazione biometrica, diverso da quello connesso all'uso di sistemi di identificazione biometrica remota "in tempo reale" in spazi accessibili al pubblico disciplinato dal presente regolamento dovrebbe continuare a soddisfare tutti i requisiti derivanti dall'articolo 9, paragrafo 1, del regolamento (UE) 2016/679, dall'articolo 10, paragrafo 1, del regolamento (UE) 2018/1725 e dall'articolo 10 della direttiva (UE) 2016/680, a seconda dei casi.
Emendamento 48 Proposta di regolamento Considerando 25
(25) A norma dell'articolo 6 bis del protocollo n. 21 sulla posizione del Regno Unito e dell'Irlanda rispetto allo spazio di libertà, sicurezza e giustizia, allegato al TUE e al TFUE, l'Irlanda non è vincolata dalle regole stabilite all'articolo 5, paragrafo 1, lettera d), e paragrafi 2 e 3, del presente regolamento, adottate in base all'articolo 16 TFUE, che riguardano il trattamento dei dati personali da parte degli Stati membri nell'esercizio di attività che rientrano nell'ambito di applicazione della parte terza, titolo V, capi 4 o 5, TFUE, laddove l'Irlanda non sia vincolata da regole che disciplinano forme di cooperazione giudiziaria in materia penale o di cooperazione di polizia nell'ambito delle quali devono essere rispettate le disposizioni stabilite in base all'articolo 16 TFUE.
(25) A norma dell'articolo 6 bis del protocollo n. 21 sulla posizione del Regno Unito e dell'Irlanda rispetto allo spazio di libertà, sicurezza e giustizia, allegato al TUE e al TFUE, l'Irlanda non è vincolata dalle regole stabilite all'articolo 5, paragrafo 1, lettera d), del presente regolamento, adottate in base all'articolo 16 TFUE, che riguardano il trattamento dei dati personali da parte degli Stati membri nell'esercizio di attività che rientrano nell'ambito di applicazione della parte terza, titolo V, capi 4 o 5, TFUE, laddove l'Irlanda non sia vincolata da regole che disciplinano forme di cooperazione giudiziaria in materia penale o di cooperazione di polizia nell'ambito delle quali devono essere rispettate le disposizioni stabilite in base all'articolo 16 TFUE.
Emendamento 49 Proposta di regolamento Considerando 26
(26) A norma degli articoli 2 e 2 bis del protocollo n. 22 sulla posizione della Danimarca, allegato al TUE e al TFUE, la Danimarca non è vincolata dalle regole stabilite all'articolo 5, paragrafo 1, lettera d), e paragrafi 2 e 3, del presente regolamento, adottate in base all'articolo 16 TFUE, che riguardano il trattamento dei dati personali da parte degli Stati membri nell'esercizio di attività che rientrano nell'ambito di applicazione della parte terza, titolo V, capi 4 o 5, TFUE, né è soggetta alla loro applicazione.
(26) A norma degli articoli 2 e 2 bis del protocollo n. 22 sulla posizione della Danimarca, allegato al TUE e al TFUE, la Danimarca non è vincolata dalle regole stabilite all'articolo 5, paragrafo 1, lettera d), del presente regolamento, adottate in base all'articolo 16 TFUE, che riguardano il trattamento dei dati personali da parte degli Stati membri nell'esercizio di attività che rientrano nell'ambito di applicazione della parte terza, titolo V, capi 4 o 5, TFUE, né è soggetta alla loro applicazione.
Emendamento 50 Proposta di regolamento Considerando 26 bis (nuovo)
(26 bis) I sistemi di IA utilizzati dalle autorità di contrasto o per loro conto per realizzare previsioni, profili o valutazioni del rischio sulla base della profilazione delle persone fisiche o dell'analisi dei dati a partire dai tratti e dalle caratteristiche della personalità, inclusa l'ubicazione della persona, o del comportamento criminale pregresso delle persone fisiche o dei gruppi di persone allo scopo di prevedere il verificarsi o il ripetersi di reati effettivi o potenziali o di altri comportamenti sociali penalmente perseguibili o di illeciti amministrativi, inclusi i sistemi di previsione delle frodi, rischiano in modo particolare di discriminare determinati individui o gruppi di individui, in quanto ledono la dignità umana nonché il principio giuridico fondamentale della presunzione d'innocenza. È pertanto opportuno vietare tali sistemi di IA.
Emendamento 51 Proposta di regolamento Considerando 26 ter (nuovo)
(26 ter) L'estrapolazione indiscriminata e non mirata dei dati biometrici dai social media o dalle registrazioni dei sistemi di telecamere a circuito chiuso per creare o ampliare banche dati di riconoscimento facciale accresce il senso di sorveglianza di massa e può portare a gravi violazioni dei diritti fondamentali, compreso il diritto alla vita privata. L'uso dei sistemi di IA che perseguono tale finalità dovrebbe pertanto essere vietato.
Emendamento 52 Proposta di regolamento Considerando 26 quater (nuovo)
(26 quater) Sussistono serie preoccupazioni in merito alla base scientifica dei sistemi di IA volti a rilevare le emozioni, le caratteristiche fisiche o fisiologiche come le espressioni facciali, i movimenti, la frequenza cardiaca o la voce. Le emozioni o la loro espressione e percezione variano notevolmente in base alle culture e alle situazioni e persino in relazione a una stessa persona. Tra le principali carenze di tali tecnologie figurano la limitata affidabilità (le categorie di emozioni non sono espresse in modo affidabile attraverso un insieme comune di movimenti fisici o fisiologici né associate in modo inequivocabile agli stessi), la mancanza di specificità (le espressioni fisiche o fisiologiche non corrispondono perfettamente alle categorie di emozioni) e la limitata generalizzabilità (gli effetti del contesto e della cultura non sono sufficientemente presi in considerazione). Possono emergere problemi di affidabilità e, di conseguenza, gravi rischi di abuso in particolare quando il sistema viene utilizzato in situazioni reali relative ad attività di contrasto, alla gestione delle frontiere, al luogo di lavoro e agli istituti di istruzione. Pertanto, è opportuno vietare l'immissione sul mercato, la messa in servizio o l'uso di sistemi di IA destinati a essere utilizzati in tali contesti per rilevare lo stato emotivo delle persone fisiche.
Emendamento 53 Proposta di regolamento Considerando 26 quinquies (nuovo)
(26 quinquies) Il presente regolamento non dovrebbe incidere sulle pratiche vietate dalla legislazione dell'Unione, ivi incluso dalla normativa in materia di protezione dei dati, non discriminazione, protezione dei consumatori e concorrenza.
Emendamento 54 Proposta di regolamento Considerando 27
(27) È opportuno che i sistemi di IA ad alto rischio siano immessi sul mercato dell'Unione o messi in servizio solo se soddisfano determinati requisiti obbligatori. Tali requisiti dovrebbero garantire che i sistemi di IA ad alto rischio disponibili nell'Unione o i cui output sono altrimenti utilizzati nell'Unione non presentino rischi inaccettabili per interessi pubblici importanti dell'Unione, come riconosciuti e tutelati dal diritto dell'Unione. È opportuno limitare i sistemi di IA identificati come ad alto rischio a quelli che hanno un impatto nocivo significativo sulla salute, la sicurezza e i diritti fondamentali delle persone nell'Unione, e tale limitazione riduce al minimo eventuali potenziali restrizioni al commercio internazionale.
(27) È opportuno che i sistemi di IA ad alto rischio siano immessi sul mercato dell'Unione, messi in servizio o utilizzati solo se soddisfano determinati requisiti obbligatori. Tali requisiti dovrebbero garantire che i sistemi di IA ad alto rischio disponibili nell'Unione o i cui output sono altrimenti utilizzati nell'Unione non presentino rischi inaccettabili per interessi pubblici importanti dell'Unione, come riconosciuti e tutelati dal diritto dell'Unione, inclusi i diritti fondamentali, la democrazia, lo Stato di diritto o l'ambiente. Al fine di garantire l'allineamento con la legislazione settoriale ed evitare duplicazioni, i requisiti per i sistemi di IA ad alto rischio dovrebbero tenere conto della legislazione settoriale che stabilisce requisiti per i sistemi di IA ad alto rischio inclusi nell'ambito di applicazione del presente regolamento, come il regolamento (UE) 2017/745 sui dispositivi medici e il regolamento (UE) 2017/746 sui dispositivi diagnostici in vitro o la direttiva 2006/42/CE relativa alle macchine. È opportuno limitare i sistemi di IA identificati come ad alto rischio a quelli che hanno un impatto nocivo significativo sulla salute, la sicurezza e i diritti fondamentali delle persone nell'Unione, e tale limitazione riduce al minimo eventuali potenziali restrizioni al commercio internazionale. In considerazione del rapido ritmo dello sviluppo tecnologico, nonché dei potenziali cambiamenti nell'uso dei sistemi di IA, l'elenco dei settori e dei casi d'uso ad alto rischio di cui all'allegato III dovrebbe comunque essere oggetto di riesame permanente attraverso una valutazione periodica.
Emendamento 55 Proposta di regolamento Considerando 28
(28) I sistemi di IA potrebbero avere ripercussioni negative per la salute e la sicurezza delle persone, in particolare quando tali sistemi sono impiegati come componenti di prodotti. Coerentemente con gli obiettivi della normativa di armonizzazione dell'Unione di agevolare la libera circolazione dei prodotti nel mercato interno e di garantire che solo prodotti sicuri e comunque conformi possano essere immessi sul mercato, è importante che i rischi per la sicurezza che un prodotto nel suo insieme può generare a causa dei suoi componenti digitali, compresi i sistemi di IA, siano debitamente prevenuti e attenuati. Ad esempio, i robot sempre più autonomi, sia nel contesto della produzione sia in quello della cura e dell'assistenza alle persone, dovrebbero essere in misura di operare e svolgere le loro funzioni in condizioni di sicurezza in ambienti complessi. Analogamente, nel settore sanitario, in cui la posta in gioco per la vita e la salute è particolarmente elevata, è opportuno che i sistemi diagnostici e i sistemi di sostegno delle decisioni dell'uomo, sempre più sofisticati, siano affidabili e accurati. La portata dell'impatto negativo del sistema di IA sui diritti fondamentali protetti dalla Carta è di particolare rilevanza ai fini della classificazione di un sistema di IA tra quelli ad alto rischio. Tali diritti comprendono il diritto alla dignità umana, il rispetto della vita privata e della vita familiare, la protezione dei dati personali, la libertà di espressione e di informazione, la libertà di riunione e di associazione e la non discriminazione, la protezione dei consumatori, i diritti dei lavoratori, i diritti delle persone con disabilità, il diritto a un ricorso effettivo e a un giudice imparziale, i diritti della difesa e la presunzione di innocenza e il diritto a una buona amministrazione. Oltre a tali diritti, è importante sottolineare che i minori godono di diritti specifici sanciti dall'articolo 24 della Carta dell'UE e dalla Convenzione delle Nazioni Unite sui diritti del fanciullo (ulteriormente elaborati nell'osservazione generale n. 25 della Convenzione delle Nazioni Unite sui diritti del fanciullo per quanto riguarda l'ambiente digitale), che prevedono la necessità di tenere conto delle loro vulnerabilità e di fornire la protezione e l'assistenza necessarie al loro benessere. È altresì opportuno tenere in considerazione, nel valutare la gravità del danno che un sistema di IA può provocare, anche in relazione alla salute e alla sicurezza delle persone, il diritto fondamentale a un livello elevato di protezione dell'ambiente sancito dalla Carta e attuato nelle politiche dell'Unione.
(28) I sistemi di IA potrebbero avere un impatto negativo sulla salute e sulla sicurezza delle persone, in particolare quando tali sistemi sono impiegati come componenti di sicurezza di prodotti. Coerentemente con gli obiettivi della normativa di armonizzazione dell'Unione di agevolare la libera circolazione dei prodotti nel mercato interno e di garantire che solo prodotti sicuri e comunque conformi possano essere immessi sul mercato, è importante che i rischi per la sicurezza che un prodotto nel suo insieme può generare a causa dei suoi componenti digitali, compresi i sistemi di IA, siano debitamente prevenuti e attenuati. Ad esempio, i robot sempre più autonomi, sia nel contesto della produzione sia in quello della cura e dell'assistenza alle persone, dovrebbero essere in misura di operare e svolgere le loro funzioni in condizioni di sicurezza in ambienti complessi. Analogamente, nel settore sanitario, in cui la posta in gioco per la vita e la salute è particolarmente elevata, è opportuno che i sistemi diagnostici e i sistemi di sostegno delle decisioni dell'uomo, sempre più sofisticati, siano affidabili e accurati.
Emendamento 56 Proposta di regolamento Considerando 28 bis (nuovo)
(28 bis) La portata dell'impatto negativo del sistema di IA sui diritti fondamentali protetti dalla Carta è di particolare rilevanza ai fini della classificazione di un sistema di IA tra quelli ad alto rischio. Tali diritti comprendono il diritto alla dignità umana, il rispetto della vita privata e della vita familiare, la protezione dei dati personali, la libertà di espressione e di informazione, la libertà di riunione e di associazione e la non discriminazione, il diritto all'istruzione, la protezione dei consumatori, i diritti dei lavoratori, i diritti delle persone con disabilità, l'uguaglianza di genere, i diritti di proprietà intellettuale, il diritto a un ricorso effettivo e a un giudice imparziale, i diritti della difesa e la presunzione di innocenza e il diritto a una buona amministrazione. Oltre a tali diritti, è importante sottolineare che i minori godono di diritti specifici sanciti dall'articolo 24 della Carta dell'UE e dalla Convenzione delle Nazioni Unite sui diritti del fanciullo (ulteriormente elaborati nell'osservazione generale n. 25 della Convenzione delle Nazioni Unite sui diritti del fanciullo per quanto riguarda l'ambiente digitale), che prevedono la necessità di tenere conto delle loro vulnerabilità e di fornire la protezione e l'assistenza necessarie al loro benessere. È altresì opportuno tenere in considerazione, nel valutare la gravità del danno che un sistema di IA può provocare, anche in relazione alla salute e alla sicurezza delle persone o all'ambiente, il diritto fondamentale a un livello elevato di protezione dell'ambiente sancito dalla Carta e attuato nelle politiche dell'Unione.
Emendamento 57 Proposta di regolamento Considerando 29
(29) Per quanto riguarda i sistemi di IA ad alto rischio che sono componenti di sicurezza di prodotti o sistemi o che sono essi stessi prodotti o sistemi che rientrano nell'ambito di applicazione del regolamento (CE) n. 300/2008 del Parlamento europeo e del Consiglio39, del regolamento (UE) n. 167/2013 del Parlamento europeo e del Consiglio40, del regolamento (UE) n. 168/2013 del Parlamento europeo e del Consiglio41, della direttiva 2014/90/UE del Parlamento europeo e del Consiglio42, della direttiva (UE) 2016/797 del Parlamento europeo e del Consiglio43, del regolamento (UE) 2018/858 del Parlamento europeo e del Consiglio44, del regolamento (UE) 2018/1139 del Parlamento europeo e del Consiglio,45 e del regolamento (UE) 2019/2144 del Parlamento europeo e del Consiglio46, è opportuno modificare i suddetti atti per garantire che, nell'adottare qualsiasi futuro atto delegato o di esecuzione pertinente sulla base di tali atti, la Commissione tenga conto, sulla base delle specificità tecniche e normative di ciascun settore e senza interferire con i vigenti meccanismi di governance, valutazione della conformità e applicazione e con le autorità da essi stabilite, dei requisiti obbligatori sanciti dal presente regolamento.
(29) Per quanto riguarda i sistemi di IA ad alto rischio che sono componenti di sicurezza di prodotti o sistemi o che sono essi stessi prodotti o sistemi che rientrano nell'ambito di applicazione del regolamento (CE) n. 300/2008 del Parlamento europeo e del Consiglio39, del regolamento (UE) n. 167/2013 del Parlamento europeo e del Consiglio40, del regolamento (UE) n. 168/2013 del Parlamento europeo e del Consiglio41, della direttiva 2014/90/UE del Parlamento europeo e del Consiglio42, della direttiva (UE) 2016/797 del Parlamento europeo e del Consiglio43, del regolamento (UE) 2018/858 del Parlamento europeo e del Consiglio44, del regolamento (UE) 2018/1139 del Parlamento europeo e del Consiglio,45 e del regolamento (UE) 2019/2144 del Parlamento europeo e del Consiglio46, è opportuno modificare i suddetti atti per garantire che, nell'adottare qualsiasi futuro atto delegato o di esecuzione pertinente sulla base di tali atti, la Commissione tenga conto, sulla base delle specificità tecniche e normative di ciascun settore e senza interferire con i vigenti meccanismi di governance, valutazione della conformità, vigilanza del mercato e applicazione e con le autorità da essi stabilite, dei requisiti obbligatori sanciti dal presente regolamento.
__________________
__________________
39 Regolamento (CE) n. 300/2008 del Parlamento europeo e del Consiglio, dell'11 marzo 2008, che istituisce norme comuni per la sicurezza dell’aviazione civile e che abroga il regolamento (CE) n. 2320/2002 (GU L 97 del 9.4.2008, pag. 72).
39 Regolamento (CE) n. 300/2008 del Parlamento europeo e del Consiglio, dell'11 marzo 2008, che istituisce norme comuni per la sicurezza dell’aviazione civile e che abroga il regolamento (CE) n. 2320/2002 (GU L 97 del 9.4.2008, pag. 72).
40 Regolamento (UE) n. 167/2013 del Parlamento europeo e del Consiglio, del 5 febbraio 2013, relativo all'omologazione e alla vigilanza del mercato dei veicoli agricoli e forestali (GU L 60 del 2.3.2013, pag. 1).
40 Regolamento (UE) n. 167/2013 del Parlamento europeo e del Consiglio, del 5 febbraio 2013, relativo all'omologazione e alla vigilanza del mercato dei veicoli agricoli e forestali (GU L 60 del 2.3.2013, pag. 1).
41 Regolamento (UE) n. 168/2013 del Parlamento europeo e del Consiglio, del 15 gennaio 2013, relativo all'omologazione e alla vigilanza del mercato dei veicoli a motore a due o tre ruote e dei quadricicli (GU L 60 del 2.3.2013, pag. 52).
41 Regolamento (UE) n. 168/2013 del Parlamento europeo e del Consiglio, del 15 gennaio 2013, relativo all'omologazione e alla vigilanza del mercato dei veicoli a motore a due o tre ruote e dei quadricicli (GU L 60 del 2.3.2013, pag. 52).
42 Direttiva 2014/90/UE del Parlamento europeo e del Consiglio, del 23 luglio 2014, sull'equipaggiamento marittimo e che abroga la direttiva 96/98/CE del Consiglio (GU L 257 del 28.8.2014, pag. 146).
42 Direttiva 2014/90/UE del Parlamento europeo e del Consiglio, del 23 luglio 2014, sull'equipaggiamento marittimo e che abroga la direttiva 96/98/CE del Consiglio (GU L 257 del 28.8.2014, pag. 146).
43 Direttiva (UE) 2016/797 del Parlamento europeo e del Consiglio, dell'11 maggio 2016, relativa all'interoperabilità del sistema ferroviario dell'Unione europea (GU L 138 del 26.5.2016, pag. 44).
43 Direttiva (UE) 2016/797 del Parlamento europeo e del Consiglio, dell'11 maggio 2016, relativa all'interoperabilità del sistema ferroviario dell'Unione europea (GU L 138 del 26.5.2016, pag. 44).
44 Regolamento (UE) 2018/858 del Parlamento europeo e del Consiglio, del 30 maggio 2018, relativo all'omologazione e alla vigilanza del mercato dei veicoli a motore e dei loro rimorchi, nonché dei sistemi, dei componenti e delle entità tecniche indipendenti destinati a tali veicoli, che modifica i regolamenti (CE) n. 715/2007 e (CE) n. 595/2009 e abroga la direttiva 2007/46/CE (GU L 151 del 14.6.2018, pag. 1).
44 Regolamento (UE) 2018/858 del Parlamento europeo e del Consiglio, del 30 maggio 2018, relativo all'omologazione e alla vigilanza del mercato dei veicoli a motore e dei loro rimorchi, nonché dei sistemi, dei componenti e delle entità tecniche indipendenti destinati a tali veicoli, che modifica i regolamenti (CE) n. 715/2007 e (CE) n. 595/2009 e abroga la direttiva 2007/46/CE (GU L 151 del 14.6.2018, pag. 1).
45 Regolamento (UE) 2018/1139 del Parlamento europeo e del Consiglio, del 4 luglio 2018, recante norme comuni nel settore dell’aviazione civile, che istituisce un'Agenzia dell'Unione europea per la sicurezza aerea e che modifica i regolamenti (CE) n. 2111/2005, (CE) n. 1008/2008, (UE) n. 996/2010, (UE) n. 376/2014 e le direttive 2014/30/UE e 2014/53/UE del Parlamento europeo e del Consiglio, e abroga i regolamenti (CE) n. 552/2004 e (CE) n. 216/2008 del Parlamento europeo e del Consiglio e il regolamento (CEE) n. 3922/91 del Consiglio (GU L 212 del 22.8.2018, pag. 1).
45 Regolamento (UE) 2018/1139 del Parlamento europeo e del Consiglio, del 4 luglio 2018, recante norme comuni nel settore dell’aviazione civile, che istituisce un'Agenzia dell'Unione europea per la sicurezza aerea e che modifica i regolamenti (CE) n. 2111/2005, (CE) n. 1008/2008, (UE) n. 996/2010, (UE) n. 376/2014 e le direttive 2014/30/UE e 2014/53/UE del Parlamento europeo e del Consiglio, e abroga i regolamenti (CE) n. 552/2004 e (CE) n. 216/2008 del Parlamento europeo e del Consiglio e il regolamento (CEE) n. 3922/91 del Consiglio (GU L 212 del 22.8.2018, pag. 1).
46 Regolamento (UE) 2019/2144 del Parlamento europeo e del Consiglio, del 27 novembre 2019, relativo ai requisiti di omologazione dei veicoli a motore e dei loro rimorchi, nonché di sistemi, componenti ed entità tecniche destinati a tali veicoli, per quanto riguarda la loro sicurezza generale e la protezione degli occupanti dei veicoli e degli altri utenti vulnerabili della strada, che modifica il regolamento (UE) 2018/858 del Parlamento europeo e del Consiglio e abroga i regolamenti (CE) n. 78/2009, (CE) n. 79/2009 e (CE) n. 661/2009 del Parlamento europeo e del Consiglio e i regolamenti (CE) n. 631/2009, (UE) n. 406/2010, (UE) n. 672/2010, (UE) n. 1003/2010,(UE) n. 1005/2010, (UE) n. 1008/2010, (UE) n. 1009/2010, (UE) n. 19/2011,(UE) n. 109/2011, (UE) n. 458/2011, (UE) n. 65/2012, (UE) n. 130/2012,(UE) n. 347/2012, (UE) n. 351/2012, (UE) n. 1230/2012 e (UE) 2015/166 della Commissione (GU L 325 del 16.12.2019, pag. 1).
46 Regolamento (UE) 2019/2144 del Parlamento europeo e del Consiglio, del 27 novembre 2019, relativo ai requisiti di omologazione dei veicoli a motore e dei loro rimorchi, nonché di sistemi, componenti ed entità tecniche destinati a tali veicoli, per quanto riguarda la loro sicurezza generale e la protezione degli occupanti dei veicoli e degli altri utenti vulnerabili della strada, che modifica il regolamento (UE) 2018/858 del Parlamento europeo e del Consiglio e abroga i regolamenti (CE) n. 78/2009, (CE) n. 79/2009 e (CE) n. 661/2009 del Parlamento europeo e del Consiglio e i regolamenti (CE) n. 631/2009, (UE) n. 406/2010, (UE) n. 672/2010, (UE) n. 1003/2010,(UE) n. 1005/2010, (UE) n. 1008/2010, (UE) n. 1009/2010, (UE) n. 19/2011,(UE) n. 109/2011, (UE) n. 458/2011, (UE) n. 65/2012, (UE) n. 130/2012,(UE) n. 347/2012, (UE) n. 351/2012, (UE) n. 1230/2012 e (UE) 2015/166 della Commissione (GU L 325 del 16.12.2019, pag. 1).
Emendamento 58 Proposta di regolamento Considerando 30
(30) Per quanto riguarda i sistemi di IA che sono componenti di sicurezza di prodotti, o che sono essi stessi prodotti, e rientrano nell'ambito di applicazione di una determinata normativa di armonizzazione dell'Unione, è opportuno classificarli come sistemi ad alto rischio a norma del presente regolamento se il prodotto in questione è sottoposto alla procedura di valutazione della conformità con un organismo terzo di valutazione della conformità a norma della suddetta pertinente normativa di armonizzazione dell'Unione. Tali prodotti sono, in particolare, macchine, giocattoli, ascensori, apparecchi e sistemi di protezione destinati a essere utilizzati in atmosfera potenzialmente esplosiva, apparecchiature radio, attrezzature a pressione, attrezzature per imbarcazioni da diporto, impianti a fune, apparecchi che bruciano carburanti gassosi, dispositivi medici e dispositivi medico-diagnostici in vitro.
(30) Per quanto riguarda i sistemi di IA che sono componenti di sicurezza di prodotti, o che sono essi stessi prodotti, e rientrano nell'ambito di applicazione di una determinata normativa di armonizzazione dell'Unione di cui all'allegato II, è opportuno classificarli come sistemi ad alto rischio a norma del presente regolamento se il prodotto in questione è sottoposto alla procedura di valutazione della conformità, al fine di garantire la conformità ai requisiti di sicurezza essenziali, con un organismo terzo di valutazione della conformità a norma della suddetta pertinente normativa di armonizzazione dell'Unione. Tali prodotti sono, in particolare, macchine, giocattoli, ascensori, apparecchi e sistemi di protezione destinati a essere utilizzati in atmosfera potenzialmente esplosiva, apparecchiature radio, attrezzature a pressione, attrezzature per imbarcazioni da diporto, impianti a fune, apparecchi che bruciano carburanti gassosi, dispositivi medici e dispositivi medico-diagnostici in vitro.
Emendamento 59 Proposta di regolamento Considerando 31
(31) La classificazione di un sistema di IA come ad alto rischio a norma del presente regolamento non dovrebbe necessariamente significare che il prodotto il cui componente di sicurezza è il sistema di IA, o il sistema di IA stesso in quanto prodotto, sia considerato "ad alto rischio" in base ai criteri stabiliti nella pertinente normativa di armonizzazione dell'Unione che si applica al prodotto. Ciò vale in particolare per il regolamento (UE) 2017/745 del Parlamento europeo e del Consiglio47 e per il regolamento (UE) 2017/746 del Parlamento europeo e del Consiglio48, in cui è prevista una valutazione della conformità da parte di terzi per i prodotti a medio rischio e ad alto rischio.
(31) La classificazione di un sistema di IA come ad alto rischio a norma del presente regolamento non dovrebbe significare che il prodotto il cui componente di sicurezza è il sistema di IA, o il sistema di IA stesso in quanto prodotto, sia considerato "ad alto rischio" in base ai criteri stabiliti nella pertinente normativa di armonizzazione dell'Unione che si applica al prodotto. Ciò vale in particolare per il regolamento (UE) 2017/745 del Parlamento europeo e del Consiglio47 e per il regolamento (UE) 2017/746 del Parlamento europeo e del Consiglio48, in cui è prevista una valutazione della conformità da parte di terzi per i prodotti a medio rischio e ad alto rischio.
__________________
__________________
47 Regolamento (UE) 2017/745 del Parlamento europeo e del Consiglio, del 5 aprile 2017, relativo ai dispositivi medici, che modifica la direttiva 2001/83/CE, il regolamento (CE) n. 178/2002 e il regolamento (CE) n. 1223/2009 e che abroga le direttive 90/385/CEE e 93/42/CEE del Consiglio (GU L 117 del 5.5.2017, pag. 1).
47 Regolamento (UE) 2017/745 del Parlamento europeo e del Consiglio, del 5 aprile 2017, relativo ai dispositivi medici, che modifica la direttiva 2001/83/CE, il regolamento (CE) n. 178/2002 e il regolamento (CE) n. 1223/2009 e che abroga le direttive 90/385/CEE e 93/42/CEE del Consiglio (GU L 117 del 5.5.2017, pag. 1).
48 Regolamento (UE) 2017/746 del Parlamento europeo e del Consiglio, del 5 aprile 2017, relativo ai dispositivi medico-diagnostici in vitro e che abroga la direttiva 98/79/CE e la decisione 2010/227/UE della Commissione (GU L 117 del 5.5.2017, pag. 176).
48 Regolamento (UE) 2017/746 del Parlamento europeo e del Consiglio, del 5 aprile 2017, relativo ai dispositivi medico-diagnostici in vitro e che abroga la direttiva 98/79/CE e la decisione 2010/227/UE della Commissione (GU L 117 del 5.5.2017, pag. 176).
Emendamento 60 Proposta di regolamento Considerando 32
(32) Per quanto riguarda i sistemi di IA indipendenti, ossia i sistemi di IA ad alto rischio diversi da quelli che sono componenti di sicurezza di prodotti o che sono essi stessi prodotti, è opportuno classificarli come ad alto rischio se, alla luce della loro finalità prevista, presentano un alto rischio di pregiudicare la salute e la sicurezza o i diritti fondamentali delle persone, tenendo conto sia della gravità del possibile danno sia della probabilità che si verifichi, e sono utilizzati in una serie di settori specificamente predefiniti indicati nel regolamento. L'identificazione di tali sistemi si basa sulla stessa metodologia e sui medesimi criteri previsti anche per eventuali future modifiche dell'elenco dei sistemi di IA ad alto rischio.
(32) Per quanto riguarda i sistemi di IA indipendenti, ossia i sistemi di IA ad alto rischio diversi da quelli che sono componenti di sicurezza di prodotti o che sono essi stessi prodotti e che figurano nell'elenco dei settori e dei casi d'uso di cui all'allegato III, è opportuno classificarli come ad alto rischio se, alla luce della loro finalità prevista, presentano un rischio significativo di pregiudicare la salute e la sicurezza o i diritti fondamentali delle persone e, laddove il sistema di IA sia utilizzato come componente di sicurezza di un'infrastruttura critica, di pregiudicare l'ambiente. Tale rischio significativo di arrecare pregiudizio dovrebbe essere individuato valutando, da un lato, l'effetto di tale rischio rispetto al suo livello di gravità, intensità, probabilità di verificarsi e durata in combinazione di tali elementi e, dall'altro, se il rischio può riguardare un individuo, una pluralità di persone o un particolare gruppo di persone. Tale combinazione potrebbe ad esempio comportare una gravità accentuata ma una scarsa probabilità di incidere su una persona fisica, o un'elevata probabilità di colpire un gruppo di persone unita a una debole intensità su un periodo di tempo prolungato, a seconda del contesto. L'identificazione di tali sistemi si basa sulla stessa metodologia e sui medesimi criteri previsti anche per eventuali future modifiche dell'elenco dei sistemi di IA ad alto rischio.
Emendamento 61 Proposta di regolamento Considerando 32 bis (nuovo)
(32 bis) I fornitori i cui sistemi di IA rientrano in uno dei settori e dei casi d'uso di cui all'allegato III che ritengano che il loro sistema non comporti un rischio significativo di pregiudicare la salute, la sicurezza, i diritti fondamentali o l'ambiente dovrebbero informare le autorità nazionali di controllo presentando una notifica motivata. Ciò potrebbe assumere la forma di una sintesi di una pagina delle informazioni pertinenti sul sistema di IA in questione, compresa la sua finalità prevista e il motivo per cui non comporterebbe un rischio significativo di pregiudicare la salute, la sicurezza, i diritti fondamentali o l'ambiente. La Commissione dovrebbe specificare i criteri per consentire alle imprese di valutare se il loro sistema comporta tali rischi, nonché sviluppare un modello di notifica di facile utilizzo e standardizzato. I fornitori dovrebbero presentare la notifica il prima possibile e in ogni caso prima dell'immissione del sistema di IA sul mercato o della sua messa in servizio, idealmente nella fase di sviluppo, e dovrebbero essere liberi di immetterlo sul mercato in qualsiasi momento successivo alla notifica. Tuttavia, laddove ritenga che il sistema di IA in questione sia stato classificato erroneamente, l'autorità dovrebbe opporsi alla notifica entro un termine di tre mesi. L'obiezione dovrebbe essere motivata e spiegare debitamente il motivo per cui il sistema di IA è stato classificato erroneamente. Il fornitore dovrebbe conservare il diritto di ricorso fornendo ulteriori argomentazioni. In mancanza di obiezioni alla notifica al termine dei tre mesi, le autorità nazionali di controllo potrebbero comunque intervenire se il sistema di IA presenta un rischio a livello nazionale, come per qualsiasi altro sistema di IA sul mercato. Le autorità nazionali di controllo dovrebbero presentare all'ufficio per l'IA relazioni annuali che specifichino le notifiche ricevute e le decisioni adottate.
Emendamento 62 Proposta di regolamento Considerando 33
(33) Le inesattezze di carattere tecnico dei sistemi di IA destinati all'identificazione biometrica remota delle persone fisiche possono determinare risultati distorti e comportare effetti discriminatori. Ciò diviene particolarmente importante quando si trattano aspetti quali età, etnia, sesso o disabilità. È pertanto opportuno classificare i sistemi di identificazione biometrica remota "in tempo reale" e "a posteriori" come sistemi ad alto rischio. Alla luce dei rischi che comportano, entrambi i tipi di sistemi di identificazione biometrica remota dovrebbero essere soggetti a requisiti specifici in materia di capacità di registrazione e sorveglianza umana.
soppresso
Emendamento 63 Proposta di regolamento Considerando 33 bis (nuovo)
(33 bis) Poiché i dati biometrici costituiscono una categoria speciale di dati personali sensibili ai sensi del regolamento (UE) 2016/679, diversi casi critici d'uso di sistemi biometrici e basati su elementi biometrici dovrebbero essere classificati come ad alto rischio. È pertanto opportuno classificare come ad alto rischio i sistemi di IA destinati a essere utilizzati per l'identificazione delle persone fisiche e i sistemi di IA destinati a essere utilizzati per trarre conclusioni sulle caratteristiche personali delle persone fisiche sulla base di dati biometrici o basati su elementi biometrici, compresi i sistemi di riconoscimento delle emozioni, ad eccezione di quelli vietati a norma del presente regolamento. Non dovrebbero essere inclusi i sistemi di IA destinati a essere utilizzati per la verifica biometrica, che include l'autenticazione, la cui unica finalità è confermare che una determinata persona fisica è la persona che dice di essere e confermare l'identità di una persona fisica al solo scopo di accedere a un servizio, a un dispositivo o a locali (verifica "uno a uno"). Non si dovrebbe ritenere che i sistemi biometrici e basati su elementi biometrici previsti dal diritto dell'Unione per consentire misure di cibersicurezza e di protezione dei dati personali presentino un rischio significativo di pregiudicare la salute, la sicurezza e i diritti fondamentali.
Emendamento 64 Proposta di regolamento Considerando 34
(34) Per quanto riguarda la gestione e il funzionamento delle infrastrutture critiche, è opportuno classificare come ad alto rischio i sistemi di IA destinati a essere utilizzati come componenti di sicurezza ai fini della gestione del traffico stradale nonché della fornitura di acqua, gas, riscaldamento ed elettricità, in quanto un loro guasto o malfunzionamento può mettere a rischio la vita e la salute di un grande numero di persone e provocare perturbazioni significative del normale svolgimento delle attività sociali ed economiche.
(34) Per quanto riguarda la gestione e il funzionamento delle infrastrutture critiche, è opportuno classificare come ad alto rischio i sistemi di IA destinati a essere utilizzati come componenti di sicurezza ai fini della gestione della fornitura di acqua, gas, riscaldamento, elettricità e infrastrutture digitali critiche, in quanto un loro guasto o malfunzionamento può violare la sicurezza e l'integrità di tali infrastrutture critiche e mettere a rischio la vita e la salute di un grande numero di persone e provocare perturbazioni significative del normale svolgimento delle attività sociali ed economiche. I componenti di sicurezza delle infrastrutture critiche, comprese le infrastrutture digitali critiche, sono sistemi utilizzati per proteggere direttamente l'integrità fisica delle infrastrutture critiche o la salute e la sicurezza delle persone e dei beni. Un guasto o malfunzionamento di tali componenti potrebbe comportare direttamente rischi per l'integrità fisica delle infrastrutture critiche e quindi per la salute e la sicurezza delle persone e dei beni. I componenti destinati a essere utilizzati esclusivamente a fini di cibersicurezza non dovrebbero essere considerati componenti di sicurezza. Tra gli esempi di tali componenti di sicurezza possono rientrare i sistemi di monitoraggio della pressione idrica o i sistemi di controllo degli allarmi antincendio nei centri di cloud computing.
Emendamento 65 Proposta di regolamento Considerando 35
(35) I sistemi di IA utilizzati nell'istruzione o nella formazione professionale, in particolare per determinare l'accesso o l'assegnazione di persone agli istituti di istruzione e formazione professionale o per valutare le persone che svolgono prove come parte o presupposto della loro istruzione, dovrebbero essere considerati ad alto rischio in quanto possono determinare il percorso d'istruzione e professionale della vita di una persona e quindi incidere sulla sua capacità di garantire il proprio sostentamento. Se progettati e utilizzati in modo inadeguato, tali sistemi possono violare il diritto all'istruzione e alla formazione, nonché il diritto alla non discriminazione, e perpetuare modelli storici di discriminazione.
(35) La diffusione di sistemi di IA nel settore dell'istruzione è importante per contribuire a modernizzare i sistemi di istruzione nel loro insieme, aumentare la qualità dell'istruzione, sia offline che online, e accelerare l'istruzione digitale, rendendola così disponibile anche a un pubblico più ampio. I sistemi di IA utilizzati nell'istruzione o nella formazione professionale, in particolare per determinare l'accesso o influenzare materialmente le decisioni sull'ammissione o sull'assegnazione di persone agli istituti di istruzione e formazione professionale o per valutare le persone che svolgono prove come parte o presupposto della loro istruzione, ovvero per valutare il livello di istruzione adeguato per un individuo e influenzare materialmente il livello di istruzione e formazione che le persone riceveranno o al quale potranno accedere o per monitorare e rilevare comportamenti vietati da parte degli studenti durante le prove, dovrebbero essere classificati come sistemi di IA ad alto rischio in quanto possono determinare il percorso d'istruzione e professionale della vita di una persona e quindi incidere sulla sua capacità di garantire il proprio sostentamento. Se progettati e utilizzati in modo inadeguato, tali sistemi possono essere particolarmente intrusivi e violare il diritto all'istruzione e alla formazione, nonché il diritto alla non discriminazione, e perpetuare modelli storici di discriminazione, ad esempio nei confronti delle donne, di talune fasce di età, delle persone con disabilità o delle persone aventi determinate origini razziali o etniche o un determinato orientamento sessuale.
Emendamento 66 Proposta di regolamento Considerando 36
(36) Anche i sistemi di IA utilizzati nel settore dell'occupazione, nella gestione dei lavoratori e nell'accesso al lavoro autonomo, in particolare per l'assunzione e la selezione delle persone, per l'adozione di decisioni in materia di promozione e cessazione del rapporto di lavoro, nonché per l'assegnazione dei compiti, per il monitoraggio o la valutazione delle persone nei rapporti contrattuali legati al lavoro, dovrebbero essere classificati come sistemi ad alto rischio, in quanto tali sistemi possono avere un impatto significativo sul futuro di tali persone in termini di future prospettive di carriera e sostentamento. I pertinenti rapporti contrattuali legati al lavoro dovrebbero coinvolgere i dipendenti e le persone che forniscono servizi tramite piattaforme, come indicato nel programma di lavoro annuale della Commissione per il 2021. In linea di principio, tali persone non dovrebbero essere considerate utenti ai sensi del presente regolamento. Durante tutto il processo di assunzione, nonché ai fini della valutazione e della promozione delle persone o del proseguimento dei rapporti contrattuali legati al lavoro, tali sistemi possono perpetuare modelli storici di discriminazione, ad esempio nei confronti delle donne, di talune fasce di età, delle persone con disabilità o delle persone aventi determinate origini razziali o etniche o un determinato orientamento sessuale. I sistemi di IA utilizzati per monitorare le prestazioni e il comportamento di tali persone possono inoltre incidere sui loro diritti in materia di protezione dei dati e vita privata.
(36) Anche i sistemi di IA utilizzati nel settore dell'occupazione, nella gestione dei lavoratori e nell'accesso al lavoro autonomo, in particolare per l'assunzione e la selezione delle persone, per l'adozione di decisioni o l'esercizio di un'influenza materiale sulle decisioni in materia di avvio, promozione e cessazione del rapporto di lavoro, nonché per l'assegnazione di compiti personalizzati sulla base del comportamento individuale, di tratti personali o di dati biometrici, per il monitoraggio o la valutazione delle persone nei rapporti contrattuali legati al lavoro, dovrebbero essere classificati come sistemi ad alto rischio, in quanto tali sistemi possono avere un impatto significativo sul futuro di tali persone in termini di future prospettive di carriera e sostentamento e sui diritti dei lavoratori. I pertinenti rapporti contrattuali legati al lavoro dovrebbero coinvolgere in maniera significativa i dipendenti e le persone che forniscono servizi tramite piattaforme, come indicato nel programma di lavoro annuale della Commissione per il 2021. Durante tutto il processo di assunzione, nonché ai fini della valutazione e della promozione delle persone o del proseguimento dei rapporti contrattuali legati al lavoro, tali sistemi possono perpetuare modelli storici di discriminazione, ad esempio nei confronti delle donne, di talune fasce di età, delle persone con disabilità o delle persone aventi determinate origini razziali o etniche o un determinato orientamento sessuale. I sistemi di IA utilizzati per monitorare le prestazioni e il comportamento di tali persone possono inoltre compromettere l'essenza dei loro diritti fondamentali in materia di protezione dei dati e vita privata. Il presente regolamento si applica senza pregiudicare le competenze dell'Unione e degli Stati membri di prevedere norme più specifiche per l'utilizzo di sistemi di IA nell'ambito dei rapporti di lavoro.
Emendamento 67 Proposta di regolamento Considerando 37
(37) Un altro settore in cui l'utilizzo dei sistemi di IA merita particolare attenzione è l'accesso ad alcuni prestazioni e servizi pubblici e servizi privati essenziali, necessari affinché le persone possano partecipare pienamente alla vita sociale o migliorare il proprio tenore di vita, e la fruizione di tali servizi. È in particolare opportuno classificare i sistemi di IA utilizzati per valutare il merito di credito o l'affidabilità creditizia delle persone fisiche come sistemi di IA ad alto rischio, in quanto determinano l'accesso di tali persone alle risorse finanziarie o a servizi essenziali quali l'alloggio, l'elettricità e i servizi di telecomunicazione. I sistemi di IA utilizzati a tal fine possono portare alla discriminazione di persone o gruppi e perpetuare modelli storici di discriminazione, ad esempio in base all'origine razziale o etnica, alle disabilità, all'età o all'orientamento sessuale, o dar vita a nuove forme di effetti discriminatori. In considerazione della portata molto limitata dell'impatto e delle alternative disponibili sul mercato, è opportuno esentare i sistemi di IA destinati alla valutazione dell'affidabilità creditizia e del merito creditizio nei casi in cui sono messi in servizio da fornitori di piccole dimensioni per uso proprio. Le persone fisiche che chiedono o ricevono prestazioni e servizi di assistenza pubblica dalle autorità pubbliche sono di norma dipendenti da tali prestazioni e servizi e si trovano generalmente in una posizione vulnerabile rispetto alle autorità competenti. I sistemi di IA, se utilizzati per determinare se tali prestazioni e servizi dovrebbero essere negati, ridotti, revocati o recuperati dalle autorità, possono avere un impatto significativo sul sostentamento delle persone e violare i loro diritti fondamentali, quali il diritto alla protezione sociale, alla non discriminazione, alla dignità umana o a un ricorso effettivo. È pertanto opportuno classificare tali sistemi come sistemi ad alto rischio. Cionondimeno, il presente regolamento non dovrebbe ostacolare lo sviluppo e l'utilizzo di approcci innovativi nella pubblica amministrazione, che trarrebbero beneficio da un uso più ampio di sistemi di IA conformi e sicuri, a condizione che tali sistemi non comportino un rischio alto per le persone fisiche e giuridiche. Infine, è opportuno classificare come ad alto rischio anche i sistemi di IA utilizzati per inviare servizi di emergenza di primo soccorso o per stabilire priorità in merito all'invio di tali servizi, in quanto prendono decisioni in situazioni molto critiche per la vita e la salute delle persone e per i loro beni.
(37) Un altro settore in cui l'utilizzo dei sistemi di IA merita particolare attenzione è l'accesso ad alcuni prestazioni e servizi pubblici e servizi privati essenziali, compresi i servizi di assistenza sanitaria e i servizi essenziali, tra cui gli alloggi, l'elettricità, il riscaldamento/raffrescamento e internet, ma non solo, necessari affinché le persone possano partecipare pienamente alla vita sociale o migliorare il proprio tenore di vita, e la fruizione di tali servizi. È in particolare opportuno classificare i sistemi di IA utilizzati per valutare il merito di credito o l'affidabilità creditizia delle persone fisiche come sistemi di IA ad alto rischio, in quanto determinano l'accesso di tali persone alle risorse finanziarie o a servizi essenziali quali l'alloggio, l'elettricità e i servizi di telecomunicazione. I sistemi di IA utilizzati a tal fine possono portare alla discriminazione di persone o gruppi e perpetuare modelli storici di discriminazione, ad esempio in base all'origine razziale o etnica, al genere, alle disabilità, all'età o all'orientamento sessuale, o dar vita a nuove forme di effetti discriminatori. Tuttavia, i sistemi di IA previsti dal diritto dell'Unione al fine di individuare le frodi nell'offerta di servizi finanziari non dovrebbero essere considerati ad alto rischio ai sensi del presente regolamento. Le persone fisiche che chiedono o ricevono prestazioni e servizi di assistenza pubblica dalle autorità pubbliche, compresi i servizi di assistenza sanitaria e i servizi essenziali, tra cui gli alloggi, l'elettricità, il riscaldamento/raffrescamento e internet, ma non solo, sono di norma dipendenti da tali prestazioni e servizi e si trovano generalmente in una posizione vulnerabile rispetto alle autorità competenti. I sistemi di IA, se utilizzati per determinare se tali prestazioni e servizi dovrebbero essere negati, ridotti, revocati o recuperati dalle autorità, possono avere un impatto significativo sul sostentamento delle persone e violare i loro diritti fondamentali, quali il diritto alla protezione sociale, alla non discriminazione, alla dignità umana o a un ricorso effettivo. Analogamente, anche i sistemi di IA destinati a essere utilizzati per prendere decisioni o influenzare materialmente le decisioni sull'ammissibilità delle persone fisiche all'assicurazione sanitaria e sulla vita possono avere un impatto significativo sul sostentamento delle persone e violare i loro diritti fondamentali, ad esempio limitando l'accesso all'assistenza sanitaria o perpetuando la discriminazione basata sulle caratteristiche personali. È pertanto opportuno classificare tali sistemi come sistemi ad alto rischio. Cionondimeno, il presente regolamento non dovrebbe ostacolare lo sviluppo e l'utilizzo di approcci innovativi nella pubblica amministrazione, che trarrebbero beneficio da un uso più ampio di sistemi di IA conformi e sicuri, a condizione che tali sistemi non comportino un rischio alto per le persone fisiche e giuridiche. Infine, è opportuno classificare come ad alto rischio anche i sistemi di IA utilizzati per valutare e classificare le chiamate di emergenza effettuate da persone fisiche o inviare servizi di emergenza di primo soccorso o per stabilire priorità in merito all'invio di tali servizi, in quanto prendono decisioni in situazioni molto critiche per la vita e la salute delle persone e per i loro beni.
Emendamento 68 Proposta di regolamento Considerando 37 bis (nuovo)
(37 bis) In considerazione del ruolo e delle responsabilità delle autorità di polizia e giudiziarie e dell'impatto delle decisioni adottate dalle stesse a fini di prevenzione, indagine, accertamento o perseguimento di reati o esecuzione di sanzioni penali, alcuni casi specifici d'uso di applicazioni di IA nelle attività di contrasto devono essere classificati come ad alto rischio, in particolare nei casi in cui esso possano influire in maniera significativa sulla vita o sui diritti fondamentali delle persone.
Emendamento 69 Proposta di regolamento Considerando 38
(38) Le azioni delle autorità di contrasto che prevedono determinati usi dei sistemi di IA sono caratterizzate da un livello significativo di squilibrio di potere e possono portare alla sorveglianza, all'arresto o alla privazione della libertà di una persona fisica, come pure avere altri impatti negativi sui diritti fondamentali garantiti nella Carta. In particolare, il sistema di IA, se non è addestrato con dati di elevata qualità, se non soddisfa requisiti adeguati in termini di accuratezza o robustezza, o se non è adeguatamente progettato e sottoposto a prova prima di essere immesso sul mercato o altrimenti messo in servizio, può individuare le persone in modo discriminatorio o altrimenti errato o ingiusto. Potrebbe inoltre essere ostacolato l'esercizio di importanti diritti procedurali fondamentali, quali il diritto a un ricorso effettivo e a un giudice imparziale, nonché i diritti della difesa e la presunzione di innocenza, in particolare nel caso in cui tali sistemi di IA non siano sufficientemente trasparenti, spiegabili e documentati. È pertanto opportuno classificare come ad alto rischio una serie di sistemi di IA destinati a essere utilizzati nel contesto delle attività di contrasto, in cui l'accuratezza, l'affidabilità e la trasparenza risultano particolarmente importanti per evitare impatti negativi, mantenere la fiducia dei cittadini e garantire la responsabilità e mezzi di ricorso efficaci. In considerazione della natura delle attività in questione e dei rischi a esse connessi, tra tali sistemi di IA ad alto rischio è opportuno includere, in particolare, i sistemi di IA destinati a essere utilizzati dalle autorità di contrasto per valutazioni dei rischi individuali, come poligrafi e strumenti analoghi, oppure per rilevare lo stato emotivo delle persone fisiche, individuare "deep fake", valutare l'affidabilità degli elementi probatori nei procedimenti penali, prevedere il verificarsi o il ripetersi di un reato effettivo o potenziale sulla base della profilazione delle persone fisiche, o valutare i tratti e le caratteristiche della personalità o il comportamento criminale pregresso delle persone fisiche o dei gruppi, nonché ai fini della profilazione nel corso dell'indagine, dell'accertamento e del perseguimento di reati e dell'analisi criminale nei riguardi delle persone fisiche. I sistemi di IA specificamente destinati a essere utilizzati per procedimenti amministrativi dalle autorità fiscali e doganali non dovrebbero essere considerati sistemi di IA ad alto rischio utilizzati dalle autorità di contrasto a fini di prevenzione, accertamento, indagine e perseguimento di reati.
(38) Le azioni delle autorità di contrasto che prevedono determinati usi dei sistemi di IA sono caratterizzate da un livello significativo di squilibrio di potere e possono portare alla sorveglianza, all'arresto o alla privazione della libertà di una persona fisica, come pure avere altri impatti negativi sui diritti fondamentali garantiti nella Carta. In particolare, il sistema di IA, se non è addestrato con dati di elevata qualità, se non soddisfa requisiti adeguati in termini di prestazioni, accuratezza o robustezza, o se non è adeguatamente progettato e sottoposto a prova prima di essere immesso sul mercato o altrimenti messo in servizio, può individuare le persone in modo discriminatorio o altrimenti errato o ingiusto. Potrebbe inoltre essere ostacolato l'esercizio di importanti diritti procedurali fondamentali, quali il diritto a un ricorso effettivo e a un giudice imparziale, nonché i diritti della difesa e la presunzione di innocenza, in particolare nel caso in cui tali sistemi di IA non siano sufficientemente trasparenti, spiegabili e documentati. È pertanto opportuno classificare come ad alto rischio una serie di sistemi di IA destinati a essere utilizzati nel contesto delle attività di contrasto, in cui l'accuratezza, l'affidabilità e la trasparenza risultano particolarmente importanti per evitare impatti negativi, mantenere la fiducia dei cittadini e garantire la responsabilità e mezzi di ricorso efficaci. In considerazione della natura delle attività in questione e dei rischi a esse connessi, tra tali sistemi di IA ad alto rischio è opportuno includere, in particolare, i sistemi di IA destinati a essere utilizzati dalle autorità di contrasto o per loro conto o da istituzioni, organi e organismi dell'Unione a sostegno delle autorità di contrasto, come poligrafi e strumenti analoghi nella misura in cui il loro utilizzo sia consentito a norma del pertinente diritto nazionale e dell'Unione, per valutare l'affidabilità degli elementi probatori nei procedimenti penali nonché ai fini della profilazione nel corso dell'indagine, dell'accertamento e del perseguimento di reati e dell'analisi criminale nei riguardi delle persone fisiche. I sistemi di IA specificamente destinati a essere utilizzati per procedimenti amministrativi dalle autorità fiscali e doganali non dovrebbero essere classificati come sistemi di IA ad alto rischio utilizzati dalle autorità di contrasto a fini di prevenzione, accertamento, indagine e perseguimento di reati. L'utilizzo degli strumenti di IA da parte delle autorità di contrasto e giudiziarie non dovrebbe diventare un fattore di disuguaglianza, frattura sociale o esclusione. L'impatto dell'utilizzo degli strumenti di IA sul diritto alla difesa degli indagati non dovrebbe essere ignorato, in particolare la difficoltà di ottenere informazioni significative sul loro funzionamento e la conseguente difficoltà nel confutarne i risultati in tribunale, in particolare per gli individui sottoposti a indagini.
Emendamento 70 Proposta di regolamento Considerando 39
(39) I sistemi di IA utilizzati nella gestione della migrazione, dell'asilo e del controllo delle frontiere hanno effetti su persone che si trovano spesso in una posizione particolarmente vulnerabile e il cui futuro dipende dall'esito delle azioni delle autorità pubbliche competenti. L'accuratezza, la natura non discriminatoria e la trasparenza dei sistemi di IA utilizzati in tali contesti sono pertanto particolarmente importanti per garantire il rispetto dei diritti fondamentali delle persone interessate, in particolare i loro diritti alla libera circolazione, alla non discriminazione, alla protezione della vita privata e dei dati personali, alla protezione internazionale e alla buona amministrazione. È pertanto opportuno classificare come ad alto rischio i sistemi di IA destinati a essere utilizzati dalle autorità pubbliche competenti incaricate di compiti in materia di gestione della migrazione, dell'asilo e del controllo delle frontiere, come poligrafi e strumenti analoghi, o per rilevare lo stato emotivo di una persona fisica, per valutare taluni rischi presentati da persone fisiche che entrano nel territorio di uno Stato membro o presentano domanda di visto o di asilo, per verificare l'autenticità dei pertinenti documenti delle persone fisiche, nonché per assistere le autorità pubbliche competenti nell'esame delle domande di asilo, di visto e di permesso di soggiorno e dei relativi reclami in relazione all'obiettivo di determinare l'ammissibilità delle persone fisiche che richiedono tale status. I sistemi di IA nel settore della gestione della migrazione, dell'asilo e dei controlli di frontiera di cui al presente regolamento dovrebbero essere conformi ai pertinenti requisiti procedurali stabiliti dalla direttiva 2013/32/UE del Parlamento europeo e del Consiglio49, dal regolamento (CE) n. 810/2009 del Parlamento europeo e del Consiglio50 e da altre normative pertinenti.
(39) I sistemi di IA utilizzati nella gestione della migrazione, dell'asilo e del controllo delle frontiere hanno effetti su persone che si trovano spesso in una posizione particolarmente vulnerabile e il cui futuro dipende dall'esito delle azioni delle autorità pubbliche competenti. L'accuratezza, la natura non discriminatoria e la trasparenza dei sistemi di IA utilizzati in tali contesti sono pertanto particolarmente importanti per garantire il rispetto dei diritti fondamentali delle persone interessate, in particolare i loro diritti alla libera circolazione, alla non discriminazione, alla protezione della vita privata e dei dati personali, alla protezione internazionale e alla buona amministrazione. È pertanto opportuno classificare come ad alto rischio i sistemi di IA destinati a essere utilizzati dalle autorità pubbliche competenti o per loro conto o da istituzioni, organi e organismi dell'Unione incaricati di compiti in materia di gestione della migrazione, dell'asilo e del controllo delle frontiere, come poligrafi e strumenti analoghi nella misura in cui il loro utilizzo sia consentito a norma del pertinente diritto nazionale e dell'Unione, per valutare taluni rischi presentati da persone fisiche che entrano nel territorio di uno Stato membro o presentano domanda di visto o di asilo, per verificare l'autenticità dei pertinenti documenti delle persone fisiche, per assistere le autorità pubbliche competenti nell'esame e nella valutazione della veridicità delle prove in relazione alle domande di asilo, di visto e di permesso di soggiorno e dei relativi reclami in relazione all'obiettivo di determinare l'ammissibilità delle persone fisiche che richiedono tale status, per garantire il monitoraggio, la sorveglianza o il trattamento di dati personali nel contesto delle attività di gestione delle frontiere, al fine di individuare, riconoscere o identificare persone fisiche, nonché per prevedere o anticipare le tendenze relative ai movimenti migratori e all'attraversamento delle frontiere. I sistemi di IA nel settore della gestione della migrazione, dell'asilo e dei controlli di frontiera di cui al presente regolamento dovrebbero essere conformi ai pertinenti requisiti procedurali stabiliti dalla direttiva 2013/32/UE del Parlamento europeo e del Consiglio49, dal regolamento (CE) n. 810/2009 del Parlamento europeo e del Consiglio50 e da altre normative pertinenti. I sistemi di IA nella gestione della migrazione, dell'asilo e del controllo delle frontiere non dovrebbero in alcun caso essere utilizzati dagli Stati membri o da istituzioni, organi e organismi dell'Unione per eludere gli obblighi internazionali a essi derivanti dalla convenzione del 28 luglio 1951 relativa allo status di rifugiati modificata dal suo protocollo del 31 gennaio 1967, né dovrebbero essere utilizzati per violare in alcun modo il principio di non respingimento o per negare sicure ed efficaci vie legali d'ingresso nel territorio dell'Unione, compreso il diritto alla protezione internazionale.
__________________
__________________
49 Direttiva 2013/32/UE del Parlamento europeo e del Consiglio, del 26 giugno 2013, recante procedure comuni ai fini del riconoscimento e della revoca dello status di protezione internazionale (GU L 180 del 29.6.2013, pag. 60).
49 Direttiva 2013/32/UE del Parlamento europeo e del Consiglio, del 26 giugno 2013, recante procedure comuni ai fini del riconoscimento e della revoca dello status di protezione internazionale (GU L 180 del 29.6.2013, pag. 60).
50 Regolamento (CE) n. 810/2009 del Parlamento europeo e del Consiglio, del 13 luglio 2009, che istituisce un Codice comunitario dei visti (codice dei visti) (GU L 243 del 15.9.2009, pag. 1).
50 Regolamento (CE) n. 810/2009 del Parlamento europeo e del Consiglio, del 13 luglio 2009, che istituisce un Codice comunitario dei visti (codice dei visti) (GU L 243 del 15.9.2009, pag. 1).
Emendamento 71 Proposta di regolamento Considerando 40
(40) Alcuni sistemi di IA destinati all'amministrazione della giustizia e ai processi democratici dovrebbero essere classificati come sistemi ad alto rischio, in considerazione del loro impatto potenzialmente significativo sulla democrazia, sullo Stato di diritto, sulle libertà individuali e sul diritto a un ricorso effettivo e a un giudice imparziale. È in particolare opportuno, al fine di far fronte ai rischi di potenziali distorsioni, errori e opacità, classificare come ad alto rischio i sistemi di IA destinati ad assistere le autorità giudiziarie nelle attività di ricerca e interpretazione dei fatti e del diritto e nell'applicazione della legge a una serie concreta di fatti. Non è tuttavia opportuno estendere tale classificazione ai sistemi di IA destinati ad attività amministrative puramente accessorie, che non incidono sull'effettiva amministrazione della giustizia nei singoli casi, quali l'anonimizzazione o la pseudonimizzazione di decisioni, documenti o dati giudiziari, la comunicazione tra il personale, i compiti amministrativi o l'assegnazione delle risorse.
(40) Alcuni sistemi di IA destinati all'amministrazione della giustizia e ai processi democratici dovrebbero essere classificati come sistemi ad alto rischio, in considerazione del loro impatto potenzialmente significativo sulla democrazia, sullo Stato di diritto, sulle libertà individuali e sul diritto a un ricorso effettivo e a un giudice imparziale. È in particolare opportuno, al fine di far fronte ai rischi di potenziali distorsioni, errori e opacità, classificare come ad alto rischio i sistemi di IA destinati a essere utilizzati da un'autorità giudiziaria o da un organo amministrativo, o per loro conto, per assistere le autorità giudiziarie o gli organi amministrativi nelle attività di ricerca e interpretazione dei fatti e del diritto e nell'applicazione della legge a una serie concreta di fatti o utilizzati in modo analogo nella risoluzione alternativa delle controversie. L'utilizzo di strumenti di intelligenza artificiale può fornire sostegno, ma non dovrebbe sostituire il potere decisionale dei giudici o l'indipendenza del potere giudiziario, in quanto il processo decisionale finale deve rimanere un'attività e una decisione a guida umana. Non è tuttavia opportuno estendere tale classificazione ai sistemi di IA destinati ad attività amministrative puramente accessorie, che non incidono sull'effettiva amministrazione della giustizia nei singoli casi, quali l'anonimizzazione o la pseudonimizzazione di decisioni, documenti o dati giudiziari, la comunicazione tra il personale, i compiti amministrativi o l'assegnazione delle risorse.
Emendamento 72 Proposta di regolamento Considerando 40 bis (nuovo)
(40 bis) Al fine di affrontare i rischi per il diritto di voto sancito dall'articolo 39 della Carta derivanti da indebite interferenze esterne e dagli effetti sproporzionati sui processi democratici, sulla democrazia e sullo Stato di diritto, i sistemi di IA destinati a essere utilizzati per influenzare l'esito di elezioni o referendum o il comportamento di voto delle persone fisiche nell'esercizio del loro voto alle elezioni o ai referendum dovrebbero essere classificati come sistemi di IA ad alto rischio, ad eccezione dei sistemi di IA ai cui output le persone fisiche non sono direttamente esposte, come gli strumenti utilizzati per organizzare, ottimizzare e strutturare le campagne politiche da un punto di vista amministrativo e logistico.
Emendamento 73 Proposta di regolamento Considerando 40 ter (nuovo)
(40 ter) In considerazione del volume di persone fisiche che utilizzano i servizi forniti dalle piattaforme di social media designate come piattaforme online di dimensioni molto grandi, tali piattaforme online possono essere utilizzate in modo da influenzare fortemente la sicurezza online, la formazione dell'opinione e del dibattito pubblici, i processi elettorali e democratici e le preoccupazioni della società. È pertanto opportuno che i sistemi di IA utilizzati da tali piattaforme online nei loro sistemi di raccomandazione siano soggetti al presente regolamento, in modo da garantire che i sistemi di IA siano conformi ai requisiti stabiliti a norma del presente regolamento, compresi i requisiti tecnici in materia di governance dei dati, documentazione tecnica e tracciabilità, trasparenza, sorveglianza umana, accuratezza e solidità. La conformità al presente regolamento dovrebbe consentire a tali piattaforme online di dimensioni molto grandi di adempiere i loro obblighi più ampi di valutazione e attenuazione dei rischi di cui agli articoli 34 e 35 del regolamento (UE) 2022/2065. Gli obblighi di cui al presente regolamento lasciano impregiudicato il regolamento (UE) 2022/2065 e dovrebbero integrare gli obblighi previsti da tale regolamento nel caso in cui la piattaforma di social media sia stata designata come piattaforma online di dimensioni molto grandi. Dato l'impatto a livello europeo delle piattaforme di social media designate come piattaforme online di dimensioni molto grandi, le autorità designate a norma del regolamento (UE) 2022/2065 dovrebbero fungere da autorità di contrasto ai fini dell'applicazione della presente disposizione.
Emendamento 74 Proposta di regolamento Considerando 41
(41) Il fatto che un sistema di IA sia classificato come ad alto rischio a norma del presente regolamento non dovrebbe essere interpretato come un'indicazione del fatto che l'utilizzo del sistema sia necessariamente lecito a norma di altri atti giuridici dell'Unione o del diritto nazionale compatibile con il diritto dell'Unione, ad esempio in materia di protezione dei dati personali, uso di poligrafi e strumenti analoghi o di altri sistemi atti a rilevare lo stato emotivo delle persone fisiche. Qualsiasi siffatto utilizzo dovrebbe continuare a verificarsi solo in conformità ai requisiti applicabili risultanti dalla Carta e dagli atti applicabili di diritto derivato dell'Unione e di diritto nazionale. Il presente regolamento non dovrebbe essere inteso come un fondamento giuridico per il trattamento dei dati personali, comprese, ove opportuno, categorie particolari di dati personali.
(41) Il fatto che un sistema di IA sia classificato come un sistema di IA ad alto rischio a norma del presente regolamento non dovrebbe essere interpretato come un'indicazione del fatto che l'utilizzo del sistema sia necessariamente lecito o illecito a norma di altri atti giuridici dell'Unione o del diritto nazionale compatibile con il diritto dell'Unione, ad esempio in materia di protezione dei dati personali. Qualsiasi siffatto utilizzo dovrebbe continuare a verificarsi solo in conformità ai requisiti applicabili risultanti dalla Carta e dagli atti applicabili di diritto derivato dell'Unione e di diritto nazionale.
Emendamento 75 Proposta di regolamento Considerando 41 bis (nuovo)
(41 bis) A livello europeo, nazionale e internazionale un corpus normativo giuridicamente vincolante è già in vigore o è pertinente per i sistemi di IA, tra cui, ma non solo, il diritto primario dell'UE (i trattati dell'Unione europea e la sua Carta dei diritti fondamentali), il diritto derivato dell'UE (ad esempio il regolamento generale sulla protezione dei dati, la direttiva sulla responsabilità dei prodotti, il regolamento sulla libera circolazione dei dati non personali, le direttive antidiscriminazione, il diritto dei consumatori e le direttive in materia di salute e sicurezza sul lavoro), ma anche i trattati delle Nazioni Unite in materia di diritti umani e le convenzioni del Consiglio d'Europa (come la Convenzione europea dei diritti dell'uomo) e il diritto nazionale. Oltre alle norme applicabili orizzontalmente, esistono varie norme specifiche a taluni settori che si applicano a specifiche applicazioni dell'IA (ad esempio il regolamento sui dispositivi medici nel settore sanitario).
Emendamento 76 Proposta di regolamento Considerando 42
(42) Al fine di attenuare, per gli utenti e per le persone interessate, i rischi derivanti dai sistemi di IA ad alto rischio immessi o altrimenti messi in servizio sul mercato dell'Unione, è opportuno applicare determinati requisiti obbligatori, tenendo conto della finalità prevista dell'uso del sistema e conformemente al sistema di gestione dei rischi che deve essere stabilito dal fornitore.
(42) Al fine di attenuare, per gli operatori e per le persone interessate, i rischi derivanti dai sistemi di IA ad alto rischio immessi o altrimenti messi in servizio sul mercato dell'Unione, è opportuno applicare determinati requisiti obbligatori, tenendo conto della finalità prevista o dell'uso improprio ragionevolmente prevedibile del sistema e conformemente al sistema di gestione dei rischi che deve essere stabilito dal fornitore. Tali requisiti dovrebbero essere orientati al conseguimento di obiettivi, adeguati allo scopo, ragionevoli ed efficaci, senza aggiungere costi od oneri normativi indebiti per gli operatori.
Emendamento 77 Proposta di regolamento Considerando 43
(43) Tali requisiti dovrebbero applicarsi ai sistemi di IA ad alto rischio per quanto concerne la qualità dei set di dati utilizzati, la documentazione tecnica e la conservazione delle registrazioni, la trasparenza e la fornitura di informazioni agli utenti, la sorveglianza umana e la robustezza, l'accuratezza e la cibersicurezza. Tali requisiti sono necessari per attenuare efficacemente i rischi per la salute, la sicurezza e i diritti fondamentali, come applicabile alla luce della finalità prevista del sistema, e, non essendo ragionevolmente disponibili altre misure meno restrittive degli scambi, sono così evitate limitazioni ingiustificate del commercio.
(43) Tali requisiti dovrebbero applicarsi ai sistemi di IA ad alto rischio per quanto concerne la qualità e la pertinenza dei set di dati utilizzati, la documentazione tecnica e la conservazione delle registrazioni, la trasparenza e la fornitura di informazioni agli operatori, la sorveglianza umana e la robustezza, l'accuratezza e la cibersicurezza. Tali requisiti sono necessari per attenuare efficacemente i rischi per la salute, la sicurezza e i diritti fondamentali, nonché l'ambiente, la democrazia e lo Stato di diritto, come applicabile alla luce della finalità prevista o dell'uso improprio ragionevolmente prevedibile del sistema, e, non essendo ragionevolmente disponibili altre misure meno restrittive degli scambi, sono così evitate limitazioni ingiustificate del commercio.
Emendamento 78 Proposta di regolamento Considerando 44
(44) Un'elevata qualità dei dati è essenziale per le prestazioni di molti sistemi di IA, in particolare quando si utilizzano tecniche che prevedono l'addestramento di modelli, al fine di garantire che il sistema di IA ad alto rischio funzioni come previsto e in maniera sicura e che non diventi fonte di una discriminazione vietata dal diritto dell'Unione. Per disporre di set di dati di addestramento, convalida e prova di elevata qualità è necessaria l'attuazione di adeguate pratiche di governance e gestione dei dati. I set di dati di addestramento, convalida e prova dovrebbero essere sufficientemente pertinenti, rappresentativi e privi di errori, nonché completi alla luce della finalità prevista del sistema. Dovrebbero inoltre possedere le proprietà statistiche appropriate, anche per quanto riguarda le persone o i gruppi di persone sui quali il sistema di IA ad alto rischio è destinato a essere usato. In particolare, i set di dati di addestramento, convalida e prova dovrebbero tenere conto, nella misura necessaria alla luce della finalità prevista, delle caratteristiche o degli elementi peculiari dello specifico contesto o ambito geografico, comportamentale o funzionale all'interno del quale il sistema di IA ad alto rischio è destinato a essere usato. Al fine di proteggere i diritti di terzi dalla discriminazione che potrebbe derivare dalla distorsione nei sistemi di IA, è opportuno che i fornitori siano in grado di trattare anche categorie particolari di dati personali, come questione di rilevante interesse pubblico, al fine di garantire il monitoraggio, il rilevamento e la correzione delle distorsioni in relazione ai sistemi di IA ad alto rischio.
(44) Un accesso ai dati di alta qualità svolge un ruolo essenziale nel fornire una struttura e garantire le prestazioni di molti sistemi di IA, in particolare quando si utilizzano tecniche che prevedono l'addestramento di modelli, al fine di garantire che il sistema di IA ad alto rischio funzioni come previsto e in maniera sicura e che non diventi una fonte di discriminazione vietata dal diritto dell'Unione. Per disporre di set di dati di addestramento, convalida e prova di elevata qualità è necessaria l'attuazione di adeguate pratiche di governance e gestione dei dati. I set di dati di addestramento e, ove applicabile, di convalida e prova, incluse le etichette, dovrebbero essere sufficientemente pertinenti, rappresentativi, adeguatamente verificati in termini di errori e il più possibile completi alla luce della finalità prevista del sistema. Dovrebbero inoltre possedere le proprietà statistiche appropriate, anche per quanto riguarda le persone o i gruppi di persone in relazione ai quali il sistema di IA ad alto rischio è destinato a essere usato, prestando particolare attenzione all'attenuazione di possibili distorsioni nei set di dati, che potrebbero comportare rischi per i diritti fondamentali o risultati discriminatori per le persone interessate dal sistema di IA ad alto rischio. Le distorsioni possono ad esempio essere intrinseche agli insiemi di dati di base, specie se si utilizzano dati storici, inseriti dagli sviluppatori degli algoritmi o generati quando i sistemi sono attuati in contesti reali. I risultati forniti dai sistemi di IA sono influenzati da tali distorsioni intrinseche, che sono destinate ad aumentare gradualmente e quindi a perpetuare e amplificare le discriminazioni esistenti, in particolare nei confronti delle persone che appartengono a determinate minoranze vulnerabili o etniche o comunità razziali. In particolare, i set di dati di addestramento, convalida e prova dovrebbero tenere conto, nella misura necessaria alla luce della finalità prevista, delle caratteristiche o degli elementi peculiari dello specifico contesto o ambito geografico, comportamentale o funzionale all'interno del quale il sistema di IA ad alto rischio è destinato a essere usato. Al fine di proteggere i diritti di terzi dalla discriminazione che potrebbe derivare dalla distorsione nei sistemi di IA, è opportuno, in via eccezionale e previa attuazione di tutte le condizioni applicabili previste dal presente regolamento e dal regolamento (UE) 2016/679, dalla direttiva (UE) 2016/680 e dal regolamento (UE) 2018/1725, che i fornitori siano in grado di trattare anche categorie particolari di dati personali, come questione di rilevante interesse pubblico, al fine di garantire il rilevamento e la correzione delle distorsioni in relazione ai sistemi di IA ad alto rischio. Le distorsioni negative dovrebbero essere intese come distorsioni che creano un effetto discriminatorio diretto o indiretto nei confronti di una persona fisica. I requisiti relativi alla governance dei dati possono essere soddisfatti ricorrendo a terzi che offrono servizi di conformità certificati, compresa la verifica della governance dei dati, dell'integrità dei set di dati e delle pratiche di addestramento, convalida e prova dei dati.
Emendamento 79 Proposta di regolamento Considerando 45
(45) Ai fini dello sviluppo di sistemi di IA ad alto rischio, è opportuno concedere ad alcuni soggetti, come fornitori, organismi notificati e altre entità pertinenti, quali i poli dell'innovazione digitale, le strutture di prova e sperimentazione e i ricercatori, l'accesso a set di dati di elevata qualità e la possibilità di utilizzarli nell'ambito dei rispettivi settori di attività connessi al presente regolamento. Gli spazi comuni europei di dati istituiti dalla Commissione e l'agevolazione della condivisione dei dati tra imprese e con i governi, nell'interesse pubblico, saranno fondamentali per fornire un accesso affidabile, responsabile e non discriminatorio a dati di elevata qualità a fini di addestramento, convalida e prova dei sistemi di IA. Ad esempio, per quanto riguarda la salute, lo spazio europeo di dati sanitari agevolerà l'accesso non discriminatorio ai dati sanitari e l'addestramento di algoritmi di intelligenza artificiale su tali set di dati in modo sicuro, tempestivo, trasparente, affidabile e tale da tutelare la vita privata, nonché con un'adeguata governance istituzionale. Le autorità competenti interessate, comprese quelle settoriali, che forniscono o sostengono l'accesso ai dati, possono anche sostenere la fornitura di dati di alta qualità a fini di addestramento, convalida e prova dei sistemi di IA.
(45) Ai fini dello sviluppo e della valutazione di sistemi di IA ad alto rischio, è opportuno concedere ad alcuni soggetti, come fornitori, organismi notificati e altre entità pertinenti, quali i poli dell'innovazione digitale, le strutture di prova e sperimentazione e i ricercatori, l'accesso a set di dati di elevata qualità e la possibilità di utilizzarli nell'ambito dei rispettivi settori di attività connessi al presente regolamento. Gli spazi comuni europei di dati istituiti dalla Commissione e l'agevolazione della condivisione dei dati tra imprese e con i governi, nell'interesse pubblico, saranno fondamentali per fornire un accesso affidabile, responsabile e non discriminatorio a dati di elevata qualità a fini di addestramento, convalida e prova dei sistemi di IA. Ad esempio, per quanto riguarda la salute, lo spazio europeo di dati sanitari agevolerà l'accesso non discriminatorio ai dati sanitari e l'addestramento di algoritmi di intelligenza artificiale su tali set di dati in modo sicuro, tempestivo, trasparente, affidabile e tale da tutelare la vita privata, nonché con un'adeguata governance istituzionale. Le autorità competenti interessate, comprese quelle settoriali, che forniscono o sostengono l'accesso ai dati, possono anche sostenere la fornitura di dati di alta qualità a fini di addestramento, convalida e prova dei sistemi di IA.
Emendamento 80 Proposta di regolamento Considerando 45 bis (nuovo)
(45 bis) Il diritto alla vita privata e alla protezione dei dati personali deve essere garantito durante l'intero ciclo di vita del sistema di IA. A tale riguardo, i principi della minimizzazione dei dati e della protezione dei dati fin dalla progettazione e per impostazione predefinita, sanciti dal diritto dell'Unione in materia di protezione dei dati, sono essenziali quando il trattamento dei dati comporta rischi significativi per i diritti fondamentali delle persone fisiche. I fornitori e gli utenti dei sistemi di IA dovrebbero attuare misure tecniche e organizzative all'avanguardia al fine di tutelare tali diritti. Tali misure dovrebbero includere non solo l'anonimizzazione e la cifratura, ma anche l'uso di tecnologie sempre più disponibili che consentano di inserire algoritmi nei dati e di ricavare informazioni preziose senza la trasmissione tra le parti o un'inutile copia degli stessi dati grezzi o strutturati.
Emendamento 81 Proposta di regolamento Considerando 46
(46) Disporre di informazioni sulle modalità di sviluppo dei sistemi di IA ad alto rischio e sulle loro modalità di funzionamento durante tutto il ciclo di vita è essenziale per verificare la conformità ai requisiti di cui al presente regolamento. Occorre a tal fine conservare le registrazioni e disporre di una documentazione tecnica contenente le informazioni necessarie per valutare la conformità del sistema di IA ai requisiti pertinenti. Tali informazioni dovrebbero includere le caratteristiche, le capacità e i limiti generali del sistema, gli algoritmi, i dati, l'addestramento, i processi di prova e di convalida utilizzati, nonché la documentazione sul pertinente sistema di gestione dei rischi. È opportuno tenere aggiornata la documentazione tecnica.
(46) Disporre di informazioni comprensibili sulle modalità di sviluppo dei sistemi di IA ad alto rischio e sulle loro modalità di funzionamento durante tutto il ciclo di vita è essenziale per verificare la conformità ai requisiti di cui al presente regolamento. Occorre a tal fine conservare le registrazioni e disporre di una documentazione tecnica contenente le informazioni necessarie per valutare la conformità del sistema di IA ai requisiti pertinenti. Tali informazioni dovrebbero includere le caratteristiche, le capacità e i limiti generali del sistema, gli algoritmi, i dati, l'addestramento, i processi di prova e di convalida utilizzati, nonché la documentazione sul pertinente sistema di gestione dei rischi. È opportuno tenere aggiornata in modo adeguato la documentazione tecnica durante l'intero ciclo di vita del sistema di IA. I sistemi di IA possono avere un notevole impatto ambientale e un elevato consumo di energia durante il loro ciclo di vita. Al fine di comprendere meglio l'impatto dei sistemi di IA sull'ambiente, la documentazione tecnica elaborata dai fornitori dovrebbe includere informazioni sul consumo energetico del sistema di IA, compreso il consumo in fase di sviluppo e il consumo previsto durante l'uso. Tali informazioni dovrebbero tenere conto della pertinente legislazione dell'Unione e nazionale. Le informazioni comunicate dovrebbero essere comprensibili, comparabili e verificabili e, a tal fine, la Commissione dovrebbe elaborare orientamenti su una metodologia armonizzata per il calcolo e la comunicazione di tali informazioni. Per garantire che sia possibile un'unica documentazione, i termini e le definizioni relativi alla documentazione richiesta e a qualsiasi documentazione richiesta nella pertinente legislazione dell'Unione dovrebbero essere il più allineati possibile.
Emendamento 82 Proposta di regolamento Considerando 46 bis (nuovo)
(46 bis) I sistemi di IA dovrebbero tenere conto dei metodi più avanzati e delle norme applicabili pertinenti al fine di ridurre il consumo di energia e di risorse e i rifiuti, nonché di aumentare la loro efficienza energetica nonché l'efficienza complessiva del sistema. Gli aspetti ambientali dei sistemi di IA che sono significativi ai fini del presente regolamento sono il consumo energetico del sistema di IA nella fase di sviluppo, addestramento e diffusione, nonché la registrazione, la comunicazione e la conservazione di tali dati. La progettazione dei sistemi di IA dovrebbe consentire la misurazione e la registrazione del consumo di energia e di risorse in ogni fase di sviluppo, addestramento e diffusione. Il monitoraggio e la comunicazione delle emissioni dei sistemi di IA devono essere solidi, trasparenti, coerenti e accurati. Al fine di garantire l'applicazione uniforme del presente regolamento e un ecosistema giuridico stabile per i fornitori e gli operatori nel mercato unico, la Commissione dovrebbe elaborare una specifica comune per la metodologia intesa a soddisfare l'obbligo di comunicazione e documentazione sul consumo di energia e di risorse durante lo sviluppo, l'addestramento e la diffusione. Tali specifiche comuni sulla metodologia di misurazione possono sviluppare una base di riferimento in base alla quale la Commissione può decidere con maggiore cognizione di cause se siano necessari futuri interventi normativi, effettuando una valutazione d'impatto che tenga conto della legislazione vigente.
Emendamento 83 Proposta di regolamento Considerando 46 ter (nuovo)
(46 ter) Al fine di conseguire gli obiettivi del presente regolamento e di contribuire agli obiettivi ambientali dell'Unione garantendo nel contempo il corretto funzionamento del mercato interno, può essere necessario stabilire raccomandazioni e orientamenti e, in ultima analisi, obiettivi in materia di sostenibilità. A tal fine la Commissione ha il diritto di elaborare una metodologia per contribuire alla creazione di indicatori chiave di prestazione (ICP) e un riferimento per gli obiettivi di sviluppo sostenibile (OSS). L'obiettivo dovrebbe essere in primo luogo quello di consentire un confronto equo tra le scelte di attuazione dell'IA, fornendo incentivi per promuovere l'utilizzo di tecnologie di IA più efficienti che tengano conto delle preoccupazioni in materia di energia e risorse. Per conseguire tale obiettivo, il presente regolamento dovrebbe fornire i mezzi per istituire una raccolta di riferimento dei dati comunicati sulle emissioni derivanti dallo sviluppo e dall'addestramento nonché dalla diffusione.
Emendamento 84 Proposta di regolamento Considerando 47 bis (nuovo)
(47 bis) Tali requisiti sulla trasparenza e sulla spiegabilità del processo decisionale dell'IA dovrebbero altresì contribuire a contrastare gli effetti dissuasivi dell'asimmetria digitale come pure i cosiddetti "modelli occulti" aventi come obiettivo le persone e il loro consenso informato.
Emendamento 85 Proposta di regolamento Considerando 49
(49) Le prestazioni dei sistemi di IA ad alto rischio dovrebbero essere coerenti durante tutto il loro ciclo di vita e tali sistemi dovrebbero garantire un livello adeguato di accuratezza, robustezza e cibersicurezza, conformemente allo stato dell'arte generalmente riconosciuto. È opportuno che i livelli di precisione e le pertinenti metriche di accuratezza siano comunicati agli utenti.
(49) Le prestazioni dei sistemi di IA ad alto rischio dovrebbero essere coerenti durante tutto il loro ciclo di vita e tali sistemi dovrebbero garantire un livello adeguato di accuratezza, robustezza e cibersicurezza, conformemente allo stato dell'arte generalmente riconosciuto. Le metriche di prestazione e i relativi livelli attesi dovrebbero essere definiti con l'obiettivo principale di attenuare i rischi e l'impatto negativo del sistema di IA. È opportuno che i livelli di prestazione attesi siano comunicati agli operatori in modo chiaro, trasparente, facilmente comprensibile e intelligibile. La dichiarazione delle metriche di prestazione non può essere considerata una prova dei livelli futuri, ma occorre applicare metodi pertinenti per garantire livelli coerenti durante l'uso. Sebbene esistano enti di normazione preposti a stabilire norme, è necessario un coordinamento in materia di analisi comparativa per stabilire le modalità di misurazione di tali requisiti e caratteristiche standardizzati dei sistemi di IA. L'ufficio europeo per l'intelligenza artificiale dovrebbe riunire le autorità nazionali di metrologia e analisi comparativa e fornire orientamenti non vincolanti per trattare gli aspetti tecnici delle modalità di misurazione dei livelli adeguati di prestazione e robustezza.
Emendamento 86 Proposta di regolamento Considerando 50
(50) La robustezza tecnica è un requisito fondamentale dei sistemi di IA ad alto rischio. Tali sistemi dovrebbero essere resilienti rispetto sia ai rischi connessi alle limitazioni del sistema (ad esempio errori, guasti, incoerenze, situazioni impreviste) sia alle azioni dolose che possono compromettere la sicurezza del sistema di IA e comportare comportamenti dannosi o altrimenti indesiderati. La mancata protezione da tali rischi potrebbe avere ripercussioni sulla sicurezza o incidere negativamente sui diritti fondamentali, ad esempio a causa della generazione da parte del sistema di IA di decisioni errate o di output sbagliati o distorti.
(50) La robustezza tecnica è un requisito fondamentale dei sistemi di IA ad alto rischio. Tali sistemi dovrebbero essere resilienti rispetto sia ai rischi connessi alle limitazioni del sistema (ad esempio errori, guasti, incoerenze, situazioni impreviste) sia alle azioni dolose che possono compromettere la sicurezza del sistema di IA e comportare comportamenti dannosi o altrimenti indesiderati. La mancata protezione da tali rischi potrebbe avere ripercussioni sulla sicurezza o incidere negativamente sui diritti fondamentali, ad esempio a causa della generazione da parte del sistema di IA di decisioni errate o di output sbagliati o distorti. Gli utenti del sistema di IA dovrebbero adottare misure per garantire che il possibile compromesso tra robustezza e accuratezza non produca risultati discriminatori o negativi per sottogruppi minoritari.
Emendamento 87 Proposta di regolamento Considerando 51
(51) La cibersicurezza svolge un ruolo cruciale nel garantire che i sistemi di IA siano resilienti ai tentativi compiuti da terzi con intenzioni malevole che, sfruttando le vulnerabilità del sistema, mirano ad alterarne l'uso, il comportamento, le prestazioni o a comprometterne le proprietà di sicurezza. Gli attacchi informatici contro i sistemi di IA possono far leva sulle risorse specifiche dell'IA, quali i set di dati di addestramento (ad esempio "avvelenamento dei dati", data poisoning) o i modelli addestrati (ad esempio "attacchi antagonisti", adversarial attacks), o sfruttare le vulnerabilità delle risorse digitali del sistema di IA o dell'infrastruttura TIC sottostante. Al fine di garantire un livello di cibersicurezza adeguato ai rischi, è pertanto opportuno che i fornitori di sistemi di IA ad alto rischio adottino misure adeguate, anche tenendo debitamente conto dell'infrastruttura TIC sottostante.
(51) La cibersicurezza svolge un ruolo cruciale nel garantire che i sistemi di IA siano resilienti ai tentativi compiuti da terzi con intenzioni malevole che, sfruttando le vulnerabilità del sistema, mirano ad alterarne l'uso, il comportamento, le prestazioni o a comprometterne le proprietà di sicurezza. Gli attacchi informatici contro i sistemi di IA possono far leva sulle risorse specifiche dell'IA, quali i set di dati di addestramento (ad esempio "avvelenamento dei dati", data poisoning) o i modelli addestrati (ad esempio "attacchi antagonisti", adversarial attacks, o "attacchi alla riservatezza", confidentiality attacks), o sfruttare le vulnerabilità delle risorse digitali del sistema di IA o dell'infrastruttura TIC sottostante. Al fine di garantire un livello di cibersicurezza adeguato ai rischi, è pertanto opportuno che i fornitori di sistemi di IA ad alto rischio, così come gli organismi notificati, le autorità nazionali competenti e le autorità di vigilanza del mercato, adottino misure adeguate, anche tenendo debitamente conto dell'infrastruttura TIC sottostante. L'IA ad alto rischio dovrebbe essere corredata di soluzioni e patch di sicurezza per la durata del ciclo di vita del prodotto o, in assenza di dipendenza da un prodotto specifico, per un periodo che deve essere dichiarato dal produttore.
Emendamento 88 Proposta di regolamento Considerando 53 bis (nuovo)
(53 bis) In qualità di firmatari della Convenzione delle Nazioni Unite sui diritti delle persone con disabilità (UNCRPD), l'Unione e gli Stati membri sono tenuti, dal punto di vista giuridico, a proteggere le persone con disabilità dalla discriminazione e a promuoverne l'uguaglianza, a garantire che le persone con disabilità abbiano accesso, su un piano di parità con gli altri, alle tecnologie e ai sistemi di informazione e comunicazione e a garantire il rispetto della vita privata delle persone con disabilità. In considerazione dell'importanza e dell'utilizzo crescenti dei sistemi di IA, l'applicazione dei principi della progettazione universale a tutti i nuovi servizi e tecnologie dovrebbe garantire un accesso pieno, paritario e privo di restrizioni a tutti coloro che sono potenzialmente interessati dalle tecnologie di IA o che le utilizzano, ivi comprese le persone con disabilità, in modo da tenere pienamente conto della loro dignità e diversità intrinseche. È pertanto essenziale che i fornitori garantiscano la piena conformità ai requisiti di accessibilità, ivi incluso alla direttiva (UE) 2016/2102 e alla direttiva (UE) 2019/882. I fornitori dovrebbero garantire il rispetto di tali requisiti fin dalla progettazione. Pertanto, le misure necessarie dovrebbero essere quanto più possibile integrate nella progettazione dei sistemi di IA ad alto rischio.
Emendamento 89 Proposta di regolamento Considerando 54
(54) È opportuno che il fornitore istituisca un solido sistema di gestione della qualità, garantisca l'espletamento della procedura di valutazione della conformità richiesta, rediga la documentazione pertinente e istituisca un sistema robusto per il monitoraggio successivo all'immissione sul mercato. Le autorità pubbliche che mettono in servizio sistemi di IA ad alto rischio per uso proprio possono adottare e attuare le regole per il sistema di gestione della qualità nell'ambito del sistema di gestione della qualità adottato a livello nazionale o regionale, a seconda dei casi, tenendo conto delle specificità del settore come pure delle competenze e dell'organizzazione dell'autorità pubblica in questione.
(54) È opportuno che il fornitore istituisca un solido sistema di gestione della qualità, garantisca l'espletamento della procedura di valutazione della conformità richiesta, rediga la documentazione pertinente e istituisca un sistema robusto per il monitoraggio successivo all'immissione sul mercato. Per i fornitori che dispongono già di sistemi di gestione della qualità basati su norme quali la norma ISO 9001 o altre norme pertinenti, non si dovrebbe prevedere una duplicazione completa del sistema di gestione della qualità, bensì un adeguamento dei loro sistemi esistenti a taluni aspetti connessi alla conformità ai requisiti specifici del presente regolamento. Ciò dovrebbe riflettersi anche nelle future attività di normazione o negli orientamenti adottati dalla Commissione a tale riguardo. Le autorità pubbliche che mettono in servizio sistemi di IA ad alto rischio per uso proprio possono adottare e attuare le regole per il sistema di gestione della qualità nell'ambito del sistema di gestione della qualità adottato a livello nazionale o regionale, a seconda dei casi, tenendo conto delle specificità del settore come pure delle competenze e dell'organizzazione dell'autorità pubblica in questione.
Emendamento 90 Proposta di regolamento Considerando 56
(56) Al fine di consentire l'applicazione del presente regolamento e di creare condizioni di parità per gli operatori, e tenendo conto delle diverse forme di messa a disposizione di prodotti digitali, è importante garantire che, in qualsiasi circostanza, una persona stabilita nell'Unione possa fornire alle autorità tutte le informazioni necessarie sulla conformità di un sistema di IA. Pertanto, prima di mettere a disposizione i propri sistemi di IA nell'Unione, nel caso in cui non possa essere identificato un importatore, i fornitori stabiliti al di fuori dell'Unione dovrebbero nominare, mediante mandato scritto, un rappresentante autorizzato stabilito nell'Unione.
(56) Al fine di consentire l'applicazione del presente regolamento e di creare condizioni di parità per gli operatori, e tenendo conto delle diverse forme di messa a disposizione di prodotti digitali, è importante garantire che, in qualsiasi circostanza, una persona stabilita nell'Unione possa fornire alle autorità tutte le informazioni necessarie sulla conformità di un sistema di IA. Pertanto, prima di mettere a disposizione i propri sistemi di IA nell'Unione, i fornitori stabiliti al di fuori dell'Unione dovrebbero nominare, mediante mandato scritto, un rappresentante autorizzato stabilito nell'Unione.
Emendamento 91 Proposta di regolamento Considerando 58
(58) In considerazione della natura dei sistemi di IA e dei possibili rischi per la sicurezza e i diritti fondamentali associati al loro utilizzo, anche per quanto riguarda la necessità di garantire un adeguato monitoraggio delle prestazioni di un sistema di IA in un contesto reale, è opportuno stabilire responsabilità specifiche per gli utenti. È in particolare opportuno che gli utenti usino i sistemi di IA ad alto rischio conformemente alle istruzioni per l'uso e che siano previsti alcuni altri obblighi in materia di monitoraggio del funzionamento dei sistemi di IA e conservazione delle registrazioni, a seconda dei casi.
(58) In considerazione della natura dei sistemi di IA e dei possibili rischi per la sicurezza e i diritti fondamentali associati al loro utilizzo, anche per quanto riguarda la necessità di garantire un adeguato monitoraggio delle prestazioni di un sistema di IA in un contesto reale, è opportuno stabilire responsabilità specifiche per gli operatori. È in particolare opportuno che gli operatori usino i sistemi di IA ad alto rischio conformemente alle istruzioni per l'uso e che siano previsti alcuni altri obblighi in materia di monitoraggio del funzionamento dei sistemi di IA e conservazione delle registrazioni, a seconda dei casi.
Emendamento 92 Proposta di regolamento Considerando 58 bis (nuovo)
(58 bis) Se da un lato i rischi legati ai sistemi di IA possono risultare dal modo in cui tali sistemi sono progettati, dall'altro essi possono derivare anche dal modo in cui tali sistemi di IA sono utilizzati. Gli operatori di sistemi di IA ad alto rischio svolgono pertanto un ruolo fondamentale nel garantire la tutela dei diritti fondamentali, integrando gli obblighi del fornitore nello sviluppo del sistema di IA. Gli operatori sono nella posizione migliore per comprendere come il sistema di IA ad alto rischio sarà utilizzato concretamente e possono pertanto individuare potenziali rischi significativi non previsti nella fase di sviluppo, in ragione di una conoscenza più puntuale del contesto di utilizzo e delle persone o dei gruppi di persone che potrebbero essere interessati, compresi i gruppi emarginati e vulnerabili. Gli operatori dovrebbero individuare strutture di governance adeguate in tale contesto specifico di utilizzo, quali le modalità di sorveglianza umana, le procedure di gestione dei reclami e le procedure di ricorso, dal momento che le scelte relative alle strutture di governance possono essere determinanti per attenuare i rischi per i diritti fondamentali in casi d'uso concreti. Al fine di garantire in maniera efficiente la tutela dei diritti fondamentali, l'operatore di sistemi di IA ad alto rischio dovrebbe quindi effettuare una valutazione d'impatto sui diritti fondamentali prima di metterli in servizio. La valutazione d'impatto dovrebbe essere corredata di un piano dettagliato che descriva le misure o gli strumenti che contribuiranno ad attenuare i rischi per i diritti fondamentali individuati al più tardi a partire dal momento della loro messa in servizio. Se tale piano non può essere individuato, l'operatore dovrebbe astenersi dal mettere in servizio il sistema. Nell'effettuare tale valutazione d'impatto, l'operatore dovrebbe informare l'autorità nazionale di controllo e, nella misura più ampia possibile, i pertinenti portatori di interessi nonché i rappresentanti dei gruppi di persone che potrebbero essere interessati dal sistema di IA al fine di raccogliere le informazioni pertinenti ritenute necessarie per effettuare la valutazione d'impatto e sono incoraggiati a rendere pubblica la sintesi della loro valutazione d'impatto sui diritti fondamentali sul loro sito web online. Tali obblighi non dovrebbero applicarsi alle PMI che, data la mancanza di risorse, potrebbero incontrare difficoltà nello svolgimento di tale consultazione. Tuttavia, esse dovrebbero altresì adoperarsi per coinvolgere tali rappresentanti nello svolgimento della loro valutazione d'impatto sui diritti fondamentali. Inoltre, dati il potenziale impatto e la necessità di sorveglianza e controllo democratici, gli operatori di sistemi di IA ad alto rischio che sono autorità pubbliche o istituzioni, organi e organismi dell'Unione, nonché gli operatori che sono imprese designate come gatekeeper a norma del regolamento (UE) 2022/1925, dovrebbero essere tenuti a registrare l'uso di qualsiasi sistema di IA ad alto rischio in una banca dati pubblica. La registrazione è possibile, su base volontaria, anche per altri operatori.
Emendamento 93 Proposta di regolamento Considerando 59
(59) È opportuno prevedere che l'utente del sistema di IA sia la persona fisica o giuridica, l'autorità pubblica, l'agenzia o altro organismo sotto la cui autorità è utilizzato il sistema di IA, salvo nel caso in cui il sistema sia utilizzato nel corso di un'attività personale non professionale.
(59) È opportuno prevedere che l'operatore del sistema di IA sia la persona fisica o giuridica, l'autorità pubblica, l'agenzia o altro organismo sotto la cui autorità è utilizzato il sistema di IA, salvo nel caso in cui il sistema sia utilizzato nel corso di un'attività personale non professionale.
Emendamento 94 Proposta di regolamento Considerando 60
(60) Alla luce della complessità della catena del valore dell'intelligenza artificiale, i terzi pertinenti, in particolare quelli coinvolti nella vendita e nella fornitura di software, strumenti e componenti software, modelli preaddestrati e dati, o i fornitori di servizi di rete, dovrebbero cooperare, a seconda dei casi, con i fornitori e con gli utenti per consentire loro di rispettare gli obblighi previsti dal presente regolamento e con le autorità competenti istituite a norma del presente regolamento.
(60) All'interno della catena del valore dell'IA, spesso più soggetti forniscono strumenti e servizi, ma anche componenti o processi, che sono poi integrati dal fornitore nel sistema di IA, anche in relazione alla raccolta e al pretrattamento dei dati, all'addestramento dei modelli, alla riqualificazione dei modelli, alla prova e alla valutazione dei modelli, all'integrazione nel software o ad altri aspetti dello sviluppo dei modelli. I soggetti coinvolti possono far sì che la loro offerta sia disponibile sul mercato, direttamente o indirettamente, attraverso interfacce, quali le interfacce per programmi applicativi (API), e distribuita sulla base di licenze libere e open source, ma anche sempre più mediante piattaforme di forza lavoro nel settore dell'IA, la rivendita di parametri addestrati, kit "fai da te" per costruire modelli o l'offerta di un accesso a pagamento a un modello che funga da architettura per lo sviluppo e l'addestramento di modelli. Alla luce di tale complessità della catena del valore dell'IA, tutti i terzi pertinenti, in particolare quelli coinvolti nello sviluppo, nella vendita e nella fornitura commerciale di software, strumenti, componenti software, modelli preaddestrati o dati integrati nel sistema di IA, o i fornitori di servizi di rete, dovrebbero, senza compromettere i loro diritti di proprietà intellettuale o segreti commerciali, rendere disponibili le informazioni, l'addestramento o le competenze richiesti e cooperare, a seconda dei casi, con i fornitori per consentire loro di controllare tutti gli aspetti pertinenti del sistema di IA relativi alla conformità che rientrano nell'ambito di applicazione del presente regolamento. Per consentire una governance efficace sotto il profilo dei costi della catena del valore dell'IA, il livello di controllo è esplicitamente comunicato da ciascun terzo che fornisce al fornitore uno strumento, un servizio, un componente o un processo che è successivamente integrato dal fornitore nel sistema di IA.
Emendamento 95 Proposta di regolamento Considerando 60 bis (nuovo)
(60 bis) Se una parte si trova in una posizione negoziale più forte, vi è il rischio che tale parte possa sfruttare tale posizione a scapito dell'altra parte nel negoziare la fornitura di strumenti, servizi, componenti o processi che sono utilizzati o integrati in un sistema di IA ad alto rischio o i mezzi di ricorso in caso di violazione o cessazione dei relativi obblighi. Tali squilibri contrattuali danneggiano in particolare le microimprese, le piccole e medie imprese e le start-up, a meno che non siano detenute o subappaltate da un'impresa in grado di compensare adeguatamente il subappaltatore, in quanto non dispongono di una capacità significativa di negoziare le condizioni dell'accordo contrattuale e potrebbero non avere altra scelta se non quella di accettare le clausole contrattuali "prendere o lasciare". Le clausole contrattuali abusive che disciplinano la fornitura di strumenti, servizi, componenti o processi utilizzati o integrati in un sistema di IA ad alto rischio o i mezzi di ricorso in caso di violazione o cessazione dei relativi obblighi non dovrebbero pertanto essere vincolanti per tali microimprese, piccole o medie imprese e start-up laddove siano state imposte loro in modo unilaterale.
Emendamento 96 Proposta di regolamento Considerando 60 ter (nuovo)
(60 ter) Le norme sulle clausole contrattuali dovrebbero tenere conto del principio della libertà contrattuale quale concetto essenziale nelle relazioni tra imprese. È pertanto opportuno che non tutte le clausole contrattuali siano soggette a un test di abusività, ma solo quelle imposte unilateralmente alle microimprese, alle piccole e medie imprese e alle start-up. Ciò riguarda le situazioni "prendere o lasciare" nelle quali una parte propone una determinata clausola contrattuale e la microimpresa, la piccola o media impresa o la start-up non può influenzarne il contenuto malgrado un tentativo di negoziarla. Una clausola contrattuale semplicemente proposta da una parte e accettata dalla microimpresa, dalla piccola o media impresa o dalla start-up o una clausola negoziata e successivamente concordata in una versione modificata tra le parti contraenti non dovrebbe essere considerata una clausola imposta unilateralmente.
Emendamento 97 Proposta di regolamento Considerando 60 quater (nuovo)
(60 quater) Inoltre, le norme sulle clausole contrattuali abusive dovrebbero applicarsi solo alle parti di un contratto che riguardano la fornitura di strumenti, servizi, componenti o processi utilizzato o integrati in un sistema di IA ad alto rischio o i mezzi di ricorso in caso di violazione o cessazione dei relativi obblighi. Altre parti dello stesso contratto, non correlate a tali elementi, non dovrebbero essere soggette al test di abusività di cui al presente regolamento.
Emendamento 98 Proposta di regolamento Considerando 60 quinquies (nuovo)
(60 quinquies) È opportuno applicare i criteri per l'individuazione delle clausole contrattuali abusive solo alle clausole contrattuali eccessive, in caso di abuso di una posizione negoziale più forte. La stragrande maggioranza delle clausole contrattuali che dal punto di vista commerciale sono più favorevoli a una parte rispetto all'altra, comprese quelle che sono normali nei contratti tra imprese, sono una normale espressione del principio della libertà contrattuale e continuano ad applicarsi. Se una clausola contrattuale non è inclusa nell'elenco delle clausole che sono sempre considerate abusive, si applica la disposizione generale sul carattere abusivo. A tale riguardo le clausole che figurano nell'elenco delle clausole abusive dovrebbero servire da parametro per l'interpretazione della disposizione generale sul carattere abusivo.
Emendamento 99 Proposta di regolamento Considerando 60 sexies (nuovo)
(60 sexies) I modelli di base sono uno sviluppo recente, in cui i modelli di IA sono sviluppati a partire da algoritmi progettati per ottimizzare la generalità e la versatilità degli output. Tali modelli sono spesso addestrati su un'ampia gamma di fonti di dati e su grandi quantità di dati per svolgere un'ampia gamma di compiti a valle, compresi alcuni per i quali non sono stati specificamente sviluppati e addestrati. Il modello di base può essere unimodale o multimodale e può addestrato con diversi metodi, come l'apprendimento supervisionato o l'apprendimento per rinforzo. I sistemi di IA con finalità previste specifiche o i sistemi di IA per finalità generali possono essere l'attuazione di un modello di base, il che significa che ciascun modello di base può essere riutilizzato in innumerevoli sistemi di IA a valle o in sistemi di IA per finalità generali. Questi modelli rivestono un'importanza crescente per molte applicazioni e molti sistemi a valle.
Emendamento 100 Proposta di regolamento Considerando 60 septies (nuovo)
(60 septies) Nel caso dei modelli di base forniti come servizio, ad esempio attraverso l'accesso API, la cooperazione con i fornitori a valle dovrebbe estendersi per tutto il periodo in cui tale servizio è fornito e supportato, al fine di consentire un'adeguata attenuazione dei rischi, a meno che il fornitore del modello di base non trasferisca il modello di addestramento nonché informazioni ampie e adeguate sulle serie di dati e sul processo di sviluppo del sistema o limiti il servizio, come l'accesso API, in un modo che consente al fornitore a valle di conformarsi pienamente al presente regolamento senza ulteriore sostegno da parte del fornitore originario del modello di base.
Emendamento 101 Proposta di regolamento Considerando 16 octies (nuovo)
(60 octies) Alla luce della natura e della complessità della catena del valore dei sistemi di IA, è essenziale chiarire il ruolo degli attori che contribuiscono allo sviluppo dei sistemi di IA. Vi è grande incertezza in merito all'evoluzione futura dei modelli di base, sia in termini di tipologia dei modelli sia in termini di autogoverno. È pertanto essenziale chiarire la situazione giuridica dei fornitori di modelli di base. Unitamente alla loro complessità e al loro impatto inatteso, alla mancanza di controllo da parte del fornitore di IA a valle sullo sviluppo del modello di base e al conseguente squilibrio di potere, nonché al fine di garantire un'equa ripartizione delle responsabilità lungo la catena del valore dell'IA, tali modelli dovrebbero essere soggetti a requisiti e obblighi proporzionati e più specifici a norma del presente regolamento. In particolare, i modelli di base dovrebbero valutare e attenuare i possibili rischi e danni attraverso una progettazione, prove e un'analisi adeguate, dovrebbero attuare misure di governance dei dati, compresa la valutazione delle distorsioni, dovrebbero rispettare i requisiti tecnici di progettazione onde assicurare livelli adeguati di prestazioni, prevedibilità, interpretabilità, correggibilità, sicurezza e cibersicurezza, e dovrebbero rispettare le norme ambientali. Tali obblighi dovrebbero essere accompagnati da norme. Inoltre, i modelli di base dovrebbero essere soggetti a obblighi di informazione e preparare tutta la documentazione tecnica necessaria affinché i potenziali fornitori a valle siano in grado di adempiere i loro obblighi a norma del presente regolamento. I modelli di base generativi dovrebbero garantire trasparenza quanto al fatto che i contenuti sono generati da un sistema di IA e non da un essere umano. Tali requisiti e obblighi specifici non equivalgono a considerare i modelli di base come sistemi di IA ad alto rischio, ma dovrebbero garantire il conseguimento degli obiettivi del presente regolamento di assicurare un elevato livello di protezione dei diritti fondamentali, della salute e della sicurezza, dell'ambiente, della democrazia e dello Stato di diritto. I modelli preaddestrati sviluppati per un insieme più ristretto, meno generale e più limitato di applicazioni che non possono essere adattate a un'ampia gamma di compiti, come i semplici sistemi di IA multifunzionali, non dovrebbero essere considerati modelli di base ai fini del presente regolamento alla luce della loro maggiore interpretabilità, che rende il loro comportamento meno imprevedibile.
Emendamento 102 Proposta di regolamento Considerando 60 nonies (nuovo)
(60 nonies) In considerazione della natura dei modelli di base, vi è una mancanza di competenze per quanto riguarda la valutazione della conformità e i metodi di audit da parte di terzi sono ancora in fase di sviluppo. Il settore stesso sta quindi sviluppando nuove modalità di valutazione dei modelli di base che soddisfano in parte l'obiettivo di audit (come la valutazione dei modelli, le simulazioni di attacchi informatici o le tecniche di verifica e convalida dell'apprendimento automatico). Tali valutazioni interne dei modelli di base dovrebbero essere ampiamente applicabili (ad esempio indipendentemente dai canali di distribuzione, dalla modalità e dai metodi di sviluppo) al fine di affrontare i rischi specifici per tali modelli tenendo conto delle pratiche più avanzate del settore e concentrarsi sullo sviluppo di una comprensione tecnica e controllo del modello sufficienti, sulla gestione dei rischi ragionevolmente prevedibili nonché su un'analisi e prove approfondite del modello attraverso misure adeguate, ad esempio con il coinvolgimento di valutatori indipendenti. Poiché i modelli di base sono uno sviluppo nuovo e in rapida evoluzione nel settore dell'intelligenza artificiale, è opportuno che la Commissione e l'ufficio per l'IA monitorino e valutino periodicamente il quadro legislativo e di governance di tali modelli, in particolare per quanto riguarda i sistemi di IA generativi basati su tali modelli, che sollevano interrogativi significativi in merito alla generazione di contenuti in violazione del diritto dell'Unione, alle norme sul diritto d'autore e ai potenziali usi impropri. È opportuno chiarire che il presente regolamento non dovrebbe pregiudicare il diritto dell'Unione in materia di diritto d'autore e diritti connessi, comprese le direttive 2001/29/CE, 2004/48/CE e (UE) 2019/790 del Parlamento europeo e del Consiglio.
Emendamento 103 Proposta di regolamento Considerando 61
(61) La normazione dovrebbe svolgere un ruolo fondamentale nel fornire soluzioni tecniche ai fornitori per garantire la conformità al presente regolamento. La conformità alle norme armonizzate quali definite nel regolamento (UE) n. 1025/2012 del Parlamento europeo e del Consiglio54 dovrebbe essere un modo per i fornitori di dimostrare la conformità ai requisiti del presente regolamento. La Commissione potrebbe tuttavia adottare specifiche tecniche comuni nei settori in cui le norme armonizzate non esistono oppure sono insufficienti.
(61) La normazione dovrebbe svolgere un ruolo fondamentale nel fornire soluzioni tecniche ai fornitori per garantire la conformità al presente regolamento. La conformità alle norme armonizzate quali definite nel regolamento (UE) n. 1025/2012 del Parlamento europeo e del Consiglio[1] dovrebbe essere un modo per i fornitori di dimostrare la conformità ai requisiti del presente regolamento. Per garantire l'efficacia delle norme quale strumento politico dell'Unione e considerata l'importanza delle norme per assicurare la conformità ai requisiti del presente regolamento e ai fini della competitività delle imprese, è necessario garantire una rappresentanza equilibrata degli interessi coinvolgendo tutte le parti interessate nell'elaborazione delle norme. Il processo di normazione dovrebbe essere trasparente in termini di persone fisiche e giuridiche che vi partecipano.
__________________
__________________
54 Regolamento (UE) n. 1025/2012 del Parlamento europeo e del Consiglio, del 25 ottobre 2012, sulla normazione europea, che modifica le direttive 89/686/CEE e 93/15/CEE del Consiglio nonché le direttive 94/9/CE, 94/25/CE, 95/16/CE, 97/23/CE, 98/34/CE, 2004/22/CE, 2007/23/CE, 2009/23/CE e 2009/105/CE del Parlamento europeo e del Consiglio e che abroga la decisione 87/95/CEE del Consiglio e la decisione n. 1673/2006/CE del Parlamento europeo e del Consiglio (GU L 316 del 14.11.2012, pag. 12).
54 Regolamento (UE) n. 1025/2012 del Parlamento europeo e del Consiglio, del 25 ottobre 2012, sulla normazione europea, che modifica le direttive 89/686/CEE e 93/15/CEE del Consiglio nonché le direttive 94/9/CE, 94/25/CE, 95/16/CE, 97/23/CE, 98/34/CE, 2004/22/CE, 2007/23/CE, 2009/23/CE e 2009/105/CE del Parlamento europeo e del Consiglio e che abroga la decisione 87/95/CEE del Consiglio e la decisione n. 1673/2006/CE del Parlamento europeo e del Consiglio (GU L 316 del 14.11.2012, pag. 12).
Emendamento 104 Proposta di regolamento Considerando 61 bis (nuovo)
(61 bis) Al fine di agevolare la conformità, le prime richieste di normazione dovrebbero essere presentate dalla Commissione al più tardi due mesi dopo l'entrata in vigore del presente regolamento. Ciò dovrebbe servire a migliorare la certezza del diritto, promuovendo in tal modo gli investimenti e l'innovazione nell'IA, nonché la competitività e la crescita del mercato dell'Unione, rafforzando nel contempo la governance multipartecipativa che rappresenta tutti i pertinenti portatori di interessi europei, quali l'ufficio per l'IA, le organizzazioni e gli organismi europei di normazione o i gruppi di esperti istituiti a norma del pertinente diritto settoriale dell'Unione, nonché l'industria, le PMI, le start-up, la società civile, i ricercatori e le parti sociali, e dovrebbe infine agevolare la cooperazione globale in materia di normazione nel settore dell'IA in modo coerente con i valori dell'Unione. In sede di elaborazione della richiesta di normazione, la Commissione dovrebbe consultare l'ufficio per l'IA e il forum consultivo per l'IA al fine di ottenere le competenze pertinenti.
Emendamento 105 Proposta di regolamento Considerando 61 ter (nuovo)
(61 ter) Qualora i sistemi di IA siano destinati a essere utilizzati sul posto di lavoro, le norme armonizzate dovrebbero limitarsi alle specifiche tecniche e alle procedure.
Emendamento 106 Proposta di regolamento Considerando 61 quater (nuovo)
(61 quater) La Commissione dovrebbe poter adottare specifiche comuni a determinate condizioni laddove non esista alcuna norma armonizzata pertinente o per affrontare specifiche preoccupazioni in materia di diritti fondamentali. Durante l'intero processo di elaborazione, la Commissione dovrebbe consultare regolarmente l'ufficio per l'IA e il suo forum consultivo, le organizzazioni e gli organismi europei di normazione o i gruppi di esperti istituiti a norma del pertinente diritto settoriale dell'Unione, nonché i pertinenti portatori di interessi, quali l'industria, le PMI, le start-up, la società civile, i ricercatori e le parti sociali.
Emendamento 107 Proposta di regolamento Considerando 61 quinquies (nuovo)
(61 quinquies) Nell'adottare specifiche comuni, la Commissione dovrebbe adoperarsi ai fini dell'allineamento normativo dell'IA con partner globali che condividono gli stessi principi, il che è fondamentale per promuovere l'innovazione e i partenariati transfrontalieri nel settore dell'IA, in quanto il coordinamento con partner che condividono gli stessi principi in seno agli organismi internazionali di normazione riveste grande importanza.
Emendamento 108 Proposta di regolamento Considerando 62
(62) Al fine di garantire un elevato livello di affidabilità dei sistemi di IA ad alto rischio, è opportuno sottoporre tali sistemi a una valutazione della conformità prima della loro immissione sul mercato o messa in servizio.
(62) Al fine di garantire un elevato livello di affidabilità dei sistemi di IA ad alto rischio, è opportuno sottoporre tali sistemi a una valutazione della conformità prima della loro immissione sul mercato o messa in servizio. Al fine di rafforzare la fiducia nella catena del valore e dare sicurezza alle imprese in merito alle prestazioni dei loro sistemi, i terzi che forniscono componenti di IA possono chiedere volontariamente una valutazione della conformità da parte di terzi.
Emendamento 109 Proposta di regolamento Considerando 64
(64) In considerazione della più ampia esperienza dei certificatori professionali pre-commercializzazione nel settore della sicurezza dei prodotti e della diversa natura dei rischi connessi, è opportuno limitare, almeno in una fase iniziale di applicazione del presente regolamento, l'ambito di applicazione della valutazione della conformità da parte di terzi ai sistemi di IA ad alto rischio diversi da quelli collegati ai prodotti. È pertanto opportuno che la valutazione della conformità di tali sistemi sia di norma effettuata dal fornitore sotto la propria responsabilità, con la sola eccezione dei sistemi di IA destinati a essere utilizzati per l'identificazione biometrica remota di persone, per i quali è opportuno prevedere il coinvolgimento di un organismo notificato nella valutazione della conformità, nella misura in cui tali sistemi non siano vietati.
(64) In considerazione della complessità dei sistemi di IA ad alto rischio e dei rischi ad essi associati, è essenziale sviluppare una capacità più adeguata per l'applicazione della valutazione della conformità da parte di terzi ai sistemi di IA ad alto rischio. Tuttavia, in ragione dell'attuale esperienza dei certificatori professionali pre-commercializzazione nel settore della sicurezza dei prodotti e della diversa natura dei rischi connessi, è opportuno limitare, almeno in una fase iniziale di applicazione del presente regolamento, l'ambito di applicazione della valutazione della conformità da parte di terzi ai sistemi di IA ad alto rischio diversi da quelli collegati ai prodotti. È pertanto opportuno che la valutazione della conformità di tali sistemi sia di norma effettuata dal fornitore sotto la propria responsabilità, con la sola eccezione dei sistemi di IA destinati a essere utilizzati per l'identificazione biometrica remota di persone o i sistemi di IA destinati a essere utilizzati per dedurre caratteristiche personali di persone fisiche sulla base di dati biometrici o basati su elementi biometrici, inclusi i sistemi di riconoscimento delle emozioni, per i quali è opportuno prevedere il coinvolgimento di un organismo notificato nella valutazione della conformità, nella misura in cui tali sistemi non siano vietati.
Emendamento 110 Proposta di regolamento Considerando 65
(65) Ai fini della valutazione della conformità da parte di terzi dei sistemi di IA destinati a essere utilizzati per l'identificazione biometrica remota delle persone, è opportuno che le autorità nazionali competenti designino organismi notificati a norma del presente regolamento, a condizione che tali organismi soddisfino una serie di requisiti, in particolare in materia di indipendenza, competenza e assenza di conflitti di interesse.
(65) Ai fini delle valutazioni della conformità da parte di terzi, laddove richieste, è opportuno che le autorità nazionali competenti designino organismi notificati a norma del presente regolamento, a condizione che tali organismi soddisfino una serie di requisiti, in particolare in materia di indipendenza, competenza, assenza di conflitti di interesse e requisiti minimi di cibersicurezza. Gli Stati membri dovrebbero incoraggiare la designazione di un numero sufficiente di organismi di valutazione della conformità, in modo che la certificazione possa essere realizzata tempestivamente. Le procedure di valutazione, designazione, notifica e monitoraggio degli organismi di valutazione della conformità dovrebbero essere applicate nel modo più uniforme possibile negli Stati membri, al fine di eliminare gli ostacoli amministrativi alle frontiere e garantire la realizzazione del potenziale del mercato interno.
Emendamento 111 Proposta di regolamento Considerando 65 bis (nuovo)
(65 bis) In linea con gli impegni assunti dall'UE nel quadro dell'accordo dell'Organizzazione mondiale del commercio sugli ostacoli tecnici agli scambi, è opportuno massimizzare l'accettazione dei risultati delle prove realizzate dagli organismi di valutazione della conformità competenti, indipendentemente dal luogo in cui siano stabiliti, se necessario per dimostrare il rispetto delle prescrizioni applicabili del regolamento. La Commissione dovrebbe esaminare attivamente eventuali strumenti internazionali a tal fine e, in particolare, perseguire l'eventuale conclusione di accordi di riconoscimento reciproco con paesi che si trovano a un livello di sviluppo tecnico comparabile e che adottano un approccio compatibile in materia di IA e valutazione della conformità.
Emendamento 112 Proposta di regolamento Considerando 66
(66) In linea con la nozione generalmente riconosciuta di modifica sostanziale dei prodotti disciplinati dalla normativa di armonizzazione dell'Unione, è opportuno che un sistema di IA sia sottoposto a una nuova valutazione della conformità ogniqualvolta intervenga una modifica che possa incidere sulla conformità del sistema al presente regolamento oppure quando viene modificata la finalità prevista del sistema. È inoltre necessario, per quanto riguarda i sistemi di IA che proseguono il loro "apprendimento" dopo essere stati immessi sul mercato o messi in servizio (ossia adattano automaticamente le modalità di svolgimento delle funzioni), prevedere regole atte a stabilire che le modifiche apportate all'algoritmo e alle sue prestazioni, predeterminate dal fornitore e valutate al momento della valutazione della conformità, non costituiscano una modifica sostanziale.
(66) In linea con la nozione generalmente riconosciuta di modifica sostanziale dei prodotti disciplinati dalla normativa di armonizzazione dell'Unione, è opportuno che un sistema di IA ad alto rischio sia sottoposto a una nuova valutazione della conformità ogniqualvolta intervenga una modifica non pianificata che va oltre le modifiche controllate o predeterminate da parte del fornitore, incluso l'apprendimento continuo, e che possa creare un nuovo rischio inaccettabile e incidere in modo significativo sulla conformità del sistema di IA ad alto rischio al presente regolamento oppure quando viene modificata la finalità prevista del sistema. È inoltre necessario, per quanto riguarda i sistemi di IA che proseguono il loro "apprendimento" dopo essere stati immessi sul mercato o messi in servizio (ossia adattano automaticamente le modalità di svolgimento delle funzioni), prevedere regole atte a stabilire che le modifiche apportate all'algoritmo e alle sue prestazioni, predeterminate dal fornitore e valutate al momento della valutazione della conformità, non costituiscano una modifica sostanziale. Lo stesso dovrebbe valere per gli aggiornamenti del sistema di IA per motivi generali di sicurezza e per far fronte all'evoluzione dei rischi di manipolazione del sistema, a condizione che non costituiscano una modifica sostanziale.
Emendamento 113 Proposta di regolamento Considerando 67
(67) I sistemi di IA ad alto rischio dovrebbero recare la marcatura CE per indicare la loro conformità al presente regolamento, in modo da poter circolare liberamente nel mercato interno. Gli Stati membri non dovrebbero ostacolare in maniera ingiustificata l'immissione sul mercato o la messa in servizio di sistemi di IA ad alto rischio che soddisfano i requisiti stabiliti nel presente regolamento e recano la marcatura CE.
(67) I sistemi di IA ad alto rischio dovrebbero recare la marcatura CE per indicare la loro conformità al presente regolamento, in modo da poter circolare liberamente nel mercato interno. Per i sistemi fisici di IA ad alto rischio, dovrebbe essere apposta una marcatura CE fisica, integrabile con una marcatura CE digitale. Per i sistemi esclusivamente digitali di IA ad alto rischio, dovrebbe essere utilizzata una marcatura CE digitale. Gli Stati membri non dovrebbero ostacolare in maniera ingiustificata l'immissione sul mercato o la messa in servizio di sistemi di IA ad alto rischio che soddisfano i requisiti stabiliti nel presente regolamento e recano la marcatura CE.
Emendamento 114 Proposta di regolamento Considerando 68
(68) La disponibilità in tempi rapidi di tecnologie innovative può, a determinate condizioni, essere fondamentale per la salute e la sicurezza delle persone e per la società nel suo insieme. È pertanto opportuno che, per motivi eccezionali di pubblica sicurezza o di tutela della vita e della salute delle persone fisiche nonché della proprietà industriale e commerciale, gli Stati membri possano autorizzare l'immissione sul mercato o la messa in servizio di sistemi di IA che non sono stati sottoposti a una valutazione della conformità.
(68) La disponibilità in tempi rapidi di tecnologie innovative può, a determinate condizioni, essere fondamentale per la salute e la sicurezza delle persone, per l'ambiente e i cambiamenti climatici e per la società nel suo insieme. È pertanto opportuno che, per motivi eccezionali di tutela della vita e della salute delle persone fisiche, dell'ambiente nonché delle infrastrutture critiche, gli Stati membri possano autorizzare l'immissione sul mercato o la messa in servizio di sistemi di IA che non sono stati sottoposti a una valutazione della conformità.
Emendamento 115 Proposta di regolamento Considerando 69
(69) Al fine di agevolare il lavoro della Commissione e degli Stati membri nel settore dell'intelligenza artificiale e di aumentare la trasparenza nei confronti del pubblico, è opportuno che i fornitori di sistemi di IA ad alto rischio diversi da quelli collegati a prodotti che rientrano nell'ambito di applicazione della pertinente normativa di armonizzazione dell'Unione vigente siano tenuti a registrare il loro sistema di IA ad alto rischio in una banca dati dell'UE, che sarà istituita e gestita dalla Commissione. È opportuno che la Commissione sia la titolare del trattamento di tale banca dati conformemente al regolamento (UE) 2018/1725 del Parlamento europeo e del Consiglio55. Al fine di garantire la piena funzionalità della banca dati, è opportuno che, al momento dell'attivazione, la procedura per l'istituzione della banca dati preveda l'elaborazione di specifiche funzionali da parte della Commissione e una relazione di audit indipendente.
(69) Al fine di agevolare il lavoro della Commissione e degli Stati membri nel settore dell'intelligenza artificiale e di aumentare la trasparenza nei confronti del pubblico, è opportuno che i fornitori di sistemi di IA ad alto rischio diversi da quelli collegati a prodotti che rientrano nell'ambito di applicazione della pertinente normativa di armonizzazione dell'Unione vigente siano tenuti a registrare il loro sistema di IA ad alto rischio e i loro modelli di base in una banca dati dell'UE, che sarà istituita e gestita dalla Commissione. Tale banca dati dovrebbe essere liberamente e pubblicamente accessibile, facilmente comprensibile e leggibile meccanicamente. La banca dati dovrebbe inoltre essere di facile utilizzo e facilmente navigabile, con funzionalità di ricerca che consentano come minimo al pubblico di cercare nella banca dati specifici sistemi ad alto rischio, luoghi, categorie di rischio di cui all'allegato IV e parole chiave. Anche gli operatori che sono autorità pubbliche o istituzioni, organi e organismi dell'Unione o gli operatori che agiscono per loro conto e gli operatori che sono imprese designate come gatekeeper a norma del regolamento (UE) 2022/1925 dovrebbero registrarsi nella banca dati dell'UE prima di mettere in servizio o utilizzare un sistema di IA ad alto rischio per la prima volta e in seguito a ogni modifica sostanziale. Gli altri operatori dovrebbero essere autorizzati a farlo su base volontaria. Qualsiasi modifica sostanziale dei sistemi di IA ad alto rischio è registrata anche nella banca dati dell'UE. È opportuno che la Commissione sia la titolare del trattamento di tale banca dati conformemente al regolamento (UE) 2018/1725 del Parlamento europeo e del Consiglio55. Al fine di garantire la piena funzionalità della banca dati, è opportuno che, al momento dell'attivazione, la procedura per l'istituzione della banca dati preveda l'elaborazione di specifiche funzionali da parte della Commissione e una relazione di audit indipendente. Nello svolgimento dei suoi compiti di titolare del trattamento dei dati nella banca dati dell'UE, la Commissione dovrebbe tenere conto della cibersicurezza e dei rischi connessi al rischio. Onde massimizzare la disponibilità e l'uso della banca dati da parte del pubblico, la banca dati, comprese le informazioni ivi messe a disposizione, dovrebbe essere conforme ai requisiti della direttiva (UE) 2019/882.
__________________
__________________
55 Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio, del 27 aprile 2016, relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati e che abroga la direttiva 95/46/CE (regolamento generale sulla protezione dei dati) (GU L 119 del 4.5.2016, pag. 1).
55 Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio, del 27 aprile 2016, relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati e che abroga la direttiva 95/46/CE (regolamento generale sulla protezione dei dati) (GU L 119 del 4.5.2016, pag. 1).
Emendamento 116 Proposta di regolamento Considerando 71
(71) L'intelligenza artificiale è una famiglia di tecnologie in rapida evoluzione che richiede nuove forme di sorveglianza regolamentare e uno spazio sicuro per la sperimentazione, garantendo nel contempo un'innovazione responsabile e l'integrazione di tutele adeguate e di misure di attenuazione dei rischi. Al fine di garantire un quadro giuridico favorevole all'innovazione, adeguato alle esigenze future e resiliente alle perturbazioni, è opportuno incoraggiare le autorità nazionali competenti di uno o più Stati membri a istituire spazi di sperimentazione normativa in materia di intelligenza artificiale per agevolare lo sviluppo e le prove di sistemi di IA innovativi, sotto una rigorosa sorveglianza regolamentare, prima che tali sistemi siano immessi sul mercato o altrimenti messi in servizio.
(71) L'intelligenza artificiale è una famiglia di tecnologie in rapida evoluzione che richiede sorveglianza regolamentare e uno spazio sicuro e controllato per la sperimentazione, garantendo nel contempo un'innovazione responsabile e l'integrazione di tutele adeguate e di misure di attenuazione dei rischi. Al fine di garantire un quadro giuridico che promuove l'innovazione, adeguato alle esigenze future e resiliente alle perturbazioni, gli Stati membri dovrebbero istituire almeno uno spazio di sperimentazione normativa in materia di intelligenza artificiale per agevolare lo sviluppo e le prove di sistemi di IA innovativi, sotto una rigorosa sorveglianza regolamentare, prima che tali sistemi siano immessi sul mercato o altrimenti messi in servizio. È infatti auspicabile che, come prossimo passo, sia resa obbligatoria, mediante criteri stabiliti, la creazione di spazi di sperimentazione normativa, la cui istituzione è attualmente a discrezione degli Stati membri. Tale spazio di sperimentazione obbligatorio potrebbe essere istituito anche congiuntamente a uno o più altri Stati membri, purché tale spazio di sperimentazione copra il rispettivo livello nazionale degli Stati membri interessati. Possono altresì essere istituiti ulteriori spazi di sperimentazione a diversi livelli, anche tra gli Stati membri, al fine di agevolare la cooperazione e le sinergie transfrontaliere. Ad eccezione dello spazio di sperimentazione obbligatorio a livello nazionale, gli Stati membri dovrebbero poter istituire anche spazi di sperimentazione virtuali o ibridi. Tutti gli spazi di sperimentazione normativa dovrebbero essere in grado di accogliere prodotti sia fisici che virtuali. Le autorità costituenti dovrebbero altresì garantire che gli spazi di sperimentazione normativa dispongano delle risorse finanziarie e umane adeguate per il loro funzionamento.
Emendamento 117 Proposta di regolamento Considerando 72
(72) Gli obiettivi degli spazi di sperimentazione normativa dovrebbero essere la promozione dell'innovazione in materia di IA, mediante la creazione di un ambiente controllato di sperimentazione e prova nella fase di sviluppo e pre-commercializzazione al fine di garantire la conformità dei sistemi di IA innovativi al presente regolamento e ad altre normative pertinenti dell'Unione e degli Stati membri, e il rafforzamento della certezza del diritto per gli innovatori e della sorveglianza e della comprensione da parte delle autorità competenti delle opportunità, dei rischi emergenti e degli impatti dell'uso dell'IA, nonché l'accelerazione dell'accesso ai mercati, anche mediante l'eliminazione degli ostacoli per le piccole e medie imprese (PMI) e le start-up. Al fine di garantire un'attuazione uniforme in tutta l'Unione ed economie di scala, è opportuno stabilire regole comuni per l'attuazione degli spazi di sperimentazione normativa e un quadro per la cooperazione tra le autorità competenti coinvolte nel controllo degli spazi di sperimentazione. Il presente regolamento dovrebbe fornire la base giuridica per l'utilizzo dei dati personali raccolti per altre finalità ai fini dello sviluppo di determinati sistemi di IA di interesse pubblico nell'ambito dello spazio di sperimentazione normativa per l'IA, in linea con l'articolo 6, paragrafo 4, del regolamento (UE) 2016/679, e con l'articolo 6 del regolamento (UE) 2018/1725, e fatto salvo l'articolo 4, paragrafo 2, della direttiva (UE) 2016/680. I partecipanti allo spazio di sperimentazione dovrebbero fornire garanzie adeguate e cooperare con le autorità competenti, anche seguendo i loro orientamenti e agendo rapidamente e in buona fede per attenuare eventuali rischi elevati per la sicurezza e i diritti fondamentali che possono emergere durante lo sviluppo e la sperimentazione nello spazio sopraindicato. È opportuno che le autorità competenti, nel decidere se infliggere una sanzione amministrativa pecuniaria a norma dell'articolo 83, paragrafo 2, del regolamento 2016/679 e dell'articolo 57 della direttiva 2016/680, tengano conto della condotta dei partecipanti allo spazio di sperimentazione.
(72) Gli obiettivi degli spazi di sperimentazione normativa dovrebbero essere: per quanto riguarda le autorità costituenti, migliorare la loro comprensione degli sviluppi tecnici, migliorare i metodi di controllo e fornire orientamenti agli sviluppatori e ai fornitori di sistemi di IA al fine di conseguire la conformità normativa al presente regolamento o, se del caso, ad altre normative applicabili dell'Unione e degli Stati membri, nonché alla Carta dei diritti fondamentali;per quanto riguarda i potenziali fornitori, consentire e agevolare le prove e lo sviluppo di soluzioni innovative relative ai sistemi di IA nella fase di pre-commercializzazione, al fine di rafforzare la certezza del diritto, consentire un maggiore apprendimento normativo istituendo autorità in un ambiente controllato per sviluppare orientamenti migliori e individuare possibili miglioramenti futuri del quadro giuridico attraverso la procedura legislativa ordinaria. Qualsiasi rischio significativo individuato durante lo sviluppo e le prove di tali sistemi di IA dovrebbe comportare l'adozione di immediate misure di attenuazione e, in mancanza di ciò, la sospensione del processo di sviluppo e di prova fino a che tali rischi non risultino attenuati. Al fine di garantire un'attuazione uniforme in tutta l'Unione ed economie di scala, è opportuno stabilire regole comuni per l'attuazione degli spazi di sperimentazione normativa e un quadro per la cooperazione tra le autorità competenti coinvolte nel controllo degli spazi di sperimentazione. Gli Stati membri dovrebbero garantire che gli spazi di sperimentazione normativa siano ampiamente disponibili in tutta l'Unione, mentre la partecipazione dovrebbe rimanere volontaria. È particolarmente importante garantire che le PMI e le start-up possano accedere facilmente a questi spazi di sperimentazione normativa, siano attivamente coinvolte e partecipino allo sviluppo e alle prove di sistemi di IA innovativi per poter contribuire con il loro bagaglio di know-how ed esperienza.
Emendamento 118 Proposta di regolamento Considerando 72 bis (nuovo)
(72 bis) Il presente regolamento dovrebbe fornire la base giuridica per l'utilizzo dei dati personali raccolti per altre finalità ai fini dello sviluppo di determinati sistemi di IA di interesse pubblico nell'ambito dello spazio di sperimentazione normativa per l'IA, esclusivamente a determinate condizioni e in linea con l'articolo 6, paragrafo 4, del regolamento (UE) 2016/679, e con l'articolo 6 del regolamento (UE) 2018/1725, e fatto salvo l'articolo 4, paragrafo 2, della direttiva (UE) 2016/680. I potenziali fornitori nello spazio di sperimentazione dovrebbero fornire garanzie adeguate e cooperare con le autorità competenti, anche seguendo i loro orientamenti e agendo rapidamente e in buona fede per attenuare eventuali rischi elevati per la sicurezza, la salute, l'ambiente e i diritti fondamentali che possono emergere durante lo sviluppo e la sperimentazione nello spazio sopraindicato. È opportuno che, nel decidere se sospendere in maniera temporanea o permanente la loro partecipazione allo spazio di sperimentazione o se infliggere una sanzione amministrativa pecuniaria a norma dell'articolo 83, paragrafo 2, del regolamento 2016/679 e dell'articolo 57 della direttiva 2016/680, le autorità competenti tengano conto della condotta dei potenziali fornitori nello spazio di sperimentazione.
Emendamento 119 Proposta di regolamento Considerando 72 ter (nuovo)
(72 ter) Per garantire che l'intelligenza artificiale determini risultati vantaggiosi dal punto di vista sociale e ambientale, gli Stati membri dovrebbero sostenere e promuovere la ricerca e lo sviluppo dell'IA a sostegno di risultati vantaggiosi dal punto di vista sociale e ambientale, assegnando risorse sufficienti, compresi i finanziamenti pubblici e dell'Unione, e concedendo accesso prioritario agli spazi di sperimentazione normativa per i progetti guidati dalla società civile. Tali progetti dovrebbero basarsi sul principio della cooperazione interdisciplinare tra sviluppatori dell'IA, esperti in materia di disuguaglianza e non discriminazione, accessibilità e diritti ambientali, digitali e dei consumatori, nonché personalità accademiche.
Emendamento 120 Proposta di regolamento Considerando 73
(73) Al fine di promuovere e proteggere l'innovazione, è importante che siano tenuti in particolare considerazione gli interessi dei fornitori di piccole dimensioni e degli utenti di sistemi di IA. È a tal fine opportuno che gli Stati membri sviluppino iniziative destinate a tali operatori, anche in materia di sensibilizzazione e comunicazione delle informazioni. È inoltre opportuno che gli organismi notificati, nel fissare le tariffe per la valutazione della conformità, tengano in considerazione gli interessi e le esigenze specifici dei fornitori di piccole dimensioni. Le spese di traduzione connesse alla documentazione obbligatoria e alla comunicazione con le autorità possono rappresentare un costo significativo per i fornitori e gli altri operatori, in particolare quelli di dimensioni ridotte. Gli Stati membri dovrebbero garantire, se possibile, che una delle lingue da essi indicate e accettate per la documentazione dei fornitori pertinenti e per la comunicazione con gli operatori sia una lingua ampiamente compresa dal maggior numero possibile di utenti transfrontalieri.
(73) Al fine di promuovere e proteggere l'innovazione, è importante che siano tenuti in particolare considerazione gli interessi dei fornitori di piccole dimensioni e degli utenti di sistemi di IA. È a tal fine opportuno che gli Stati membri sviluppino iniziative destinate a tali operatori, anche relative all'alfabetizzazione in materia di IA, alla sensibilizzazione e alla comunicazione delle informazioni. Gli Stati membri dovrebbero utilizzare i canali esistenti e, ove opportuno, istituire nuovi canali dedicati per la comunicazione con le PMI, le start-up, gli utenti e altri innovatori, al fine di fornire orientamenti e rispondere alle domande sull'attuazione del presente regolamento. Tali canali esistenti potrebbero includere, a titolo esemplificativo ma non esaustivo, i gruppi di intervento per la sicurezza informatica in caso di incidente dell'ENISA, le agenzie nazionali per la protezione dei dati, la piattaforma di IA on demand, i poli europei dell'innovazione digitale e altri strumenti pertinenti finanziati dai programmi dell'UE, nonché le strutture di prova e sperimentazione istituiti dalla Commissione e dagli Stati membri a livello nazionale o dell'Unione. Se del caso, tali canali dovrebbero collaborare per creare sinergie e garantire l'omogeneità dei loro orientamenti per le start-up, le PMI e gli utenti. È inoltre opportuno che gli organismi notificati, nel fissare le tariffe per la valutazione della conformità, tengano in considerazione gli interessi e le esigenze specifici dei fornitori di piccole dimensioni. La Commissione valuta periodicamente i costi di certificazione e di conformità per le PMI e le start-up, anche attraverso consultazioni trasparenti con le PMI, le start-up e gli utenti, e collabora con gli Stati membri per ridurre tali costi. Ad esempio, le spese di traduzione connesse alla documentazione obbligatoria e alla comunicazione con le autorità possono rappresentare un costo significativo per i fornitori e gli altri operatori, in particolare quelli di dimensioni ridotte. Gli Stati membri dovrebbero garantire, se possibile, che una delle lingue da essi indicate e accettate per la documentazione dei fornitori pertinenti e per la comunicazione con gli operatori sia una lingua ampiamente compresa dal maggior numero possibile di utenti transfrontalieri. Le medie imprese che di recente sono passate dalla categoria delle piccole imprese a quelle delle medie imprese ai sensi dell'allegato della raccomandazione 2003/361/CE (articolo 16) dovrebbero avere accesso a tali iniziative e orientamenti per un periodo di tempo ritenuto opportuno dagli Stati membri, in quanto a volte queste nuove imprese di medie dimensioni potrebbero non disporre delle risorse giuridiche e della formazione necessarie per garantire una corretta comprensione e la conformità alle disposizioni.
Emendamento 121 Proposta di regolamento Considerando 74
(74) Al fine di ridurre al minimo i rischi per l'attuazione derivanti dalla mancanza di conoscenze e competenze sul mercato, nonché per agevolare il rispetto, da parte dei fornitori e degli organismi notificati, degli obblighi loro imposti dal presente regolamento, è opportuno che la piattaforma di IA on demand, i poli europei dell'innovazione digitale e le strutture di prova e sperimentazione istituiti dalla Commissione e dagli Stati membri a livello nazionale o dell'UE contribuiscano, se possibile, all'attuazione del presente regolamento. Nell'ambito delle rispettive missioni e dei rispettivi settori di competenza essi possono fornire, in particolare, sostegno tecnico e scientifico ai fornitori e agli organismi notificati.
(74) Al fine di ridurre al minimo i rischi per l'attuazione derivanti dalla mancanza di conoscenze e competenze sul mercato, nonché per agevolare il rispetto, da parte dei fornitori e degli organismi notificati, degli obblighi loro imposti dal presente regolamento, è opportuno che la piattaforma di IA on demand, i poli europei dell'innovazione digitale e le strutture di prova e sperimentazione istituiti dalla Commissione e dagli Stati membri a livello nazionale o dell'UE contribuiscano all'attuazione del presente regolamento. Nell'ambito delle rispettive missioni e dei rispettivi settori di competenza essi possono fornire, in particolare, sostegno tecnico e scientifico ai fornitori e agli organismi notificati.
Emendamento 122 Proposta di regolamento Considerando 76
(76) Al fine di facilitare un'attuazione agevole, efficace e armonizzata del presente regolamento, è opportuno istituire un comitato europeo per l'intelligenza artificiale. Il comitato dovrebbe essere responsabile di una serie di compiti consultivi, tra cui l'emanazione di pareri, raccomandazioni, consulenze o orientamenti su questioni relative all'attuazione del presente regolamento, comprese le specifiche tecniche o le norme esistenti per quanto riguarda i requisiti stabiliti nel presente regolamento, e la fornitura di consulenza e assistenza alla Commissione su questioni specifiche connesse all'intelligenza artificiale.
(76) Al fine di evitare la frammentazione, assicurare il funzionamento ottimale del mercato unico, garantire un'attuazione efficace e armonizzata del presente regolamento, conseguire un elevato livello di affidabilità e di protezione della salute, della sicurezza, dei diritti fondamentali, dell'ambiente, della democrazia e dello Stato di diritto in tutta l'Unione per quanto concerne i sistemi di IA, sostenere attivamente le autorità nazionali di controllo e le istituzioni, gli organi e gli organismi dell'Unione nelle questioni attinenti al presente regolamento e accrescere l'adozione dell'intelligenza artificiale in tutta l'Unione, è opportuno istituire un ufficio dell'Unione europea per l'intelligenza artificiale. L'ufficio per l'IA dovrebbe avere personalità giuridica, agire in piena indipendenza, essere responsabile di una serie di compiti consultivi e di coordinamento, tra cui l'emanazione di pareri, raccomandazioni, consulenze o orientamenti su questioni relative all'attuazione del presente regolamento e dovrebbe essere dotata di risorse finanziarie e umane adeguate. Gli Stati membri dovrebbero fornire l'orientamento e il controllo strategici dell'ufficio per l'IA tramite il consiglio di amministrazione di detto ufficio, unitamente alla Commissione, al GEPD, alla FRA e all'ENISA. Un direttore esecutivo dovrebbe essere responsabile della gestione delle attività della segreteria dell'ufficio per l'IA e della rappresentanza di quest'ultimo. I portatori di interessi dovrebbero formalmente partecipare all'attività dell'ufficio per l'IA tramite un forum consultivo, che dovrebbe garantire una rappresentanza varia ed equilibrata dei portatori di interessi e fornire consulenza all'ufficio per l'IA sulle questioni attinenti al presente regolamento. Qualora l'istituzione dell'ufficio per l'IA non si riveli sufficiente a garantire un'applicazione pienamente coerente del presente regolamento a livello dell'Unione nonché misure di esecuzione transfrontaliere efficienti, dovrebbe essere presa in considerazione la creazione di un'agenzia per l'IA.
Emendamento 123 Proposta di regolamento Considerando 77
(77) Gli Stati membri svolgono un ruolo chiave nell'applicare il presente regolamento e nel garantirne il rispetto. A tale riguardo, è opportuno che ciascuno Stato membro designi una o più autorità nazionali competenti al fine di controllare l'applicazione e l'attuazione del presente regolamento. Al fine di incrementare l'efficienza organizzativa da parte degli Stati membri e di istituire un punto di contatto ufficiale nei confronti del pubblico e di altre controparti sia a livello di Stati membri sia a livello di Unione, è opportuno che in ciascuno Stato membro sia designata come autorità nazionale di controllo un'autorità nazionale.
(77) È opportuno che ciascuno Stato membro designi un'autorità nazionale di controllo al fine di controllare l'applicazione e l'attuazione del presente regolamento. Essa dovrebbe rappresentare anche il proprio Stato membro in seno al consiglio di amministrazione dell'ufficio per l'IA. Al fine di incrementare l'efficienza organizzativa da parte degli Stati membri e di istituire un punto di contatto ufficiale nei confronti del pubblico e di altre controparti sia a livello di Stati membri sia a livello di Unione. Ogni autorità nazionale di controllo dovrebbe agire in piena indipendenza nell'adempimento dei propri compiti e nell'esercizio dei propri poteri conformemente al presente regolamento.
Emendamento 124 Proposta di regolamento Considerando 77 bis (nuovo)
(77 bis) Le autorità nazionali di controllo dovrebbero sorvegliare l'applicazione delle disposizioni a norma del presente regolamento e contribuire alla loro coerente applicazione in tutta l'Unione. A tal fine, le autorità nazionali di controllo dovrebbero cooperare tra loro, con le pertinenti autorità nazionali competenti, con la Commissione e con l'ufficio per l'IA.
Emendamento 125 Proposta di regolamento Considerando 77 ter (nuovo)
(77 ter) I membri o il personale di ogni autorità nazionale di controllo dovrebbero essere tenuti, in virtù del diritto dell'Unione o nazionale, al segreto professionale in merito alle informazioni riservate cui hanno avuto accesso nell'esecuzione dei loro compiti o nell'esercizio dei loro poteri, sia durante che dopo il mandato. Per tutta la durata del loro mandato, tale obbligo del segreto professionale si dovrebbe applicare in particolare ai segreti commerciali e alle segnalazioni da parte di persone fisiche di violazioni del presente regolamento.
Emendamento 126 Proposta di regolamento Considerando 78
(78) Al fine di garantire che i fornitori di sistemi di IA ad alto rischio possano tenere in considerazione l'esperienza sull'uso di sistemi di IA ad alto rischio per migliorare i loro sistemi e il processo di progettazione e sviluppo o possano adottare tempestivamente eventuali misure correttive, è opportuno che tutti i fornitori dispongano di un sistema di monitoraggio successivo all'immissione sul mercato. Tale sistema è altresì fondamentale per garantire che i possibili rischi derivanti dai sistemi di IA che proseguono il loro "apprendimento" dopo essere stati immessi sul mercato o messi in servizio possano essere affrontati in modo più efficiente e tempestivo. I fornitori dovrebbero anche essere tenuti, in tale contesto, a predisporre un sistema per segnalare alle autorità competenti eventuali incidenti gravi o violazioni della normativa nazionale e dell'Unione che tutela i diritti fondamentali derivanti dall'uso dei loro sistemi di IA.
(78) Al fine di garantire che i fornitori di sistemi di IA ad alto rischio possano tenere in considerazione l'esperienza sull'uso di sistemi di IA ad alto rischio per migliorare i loro sistemi e il processo di progettazione e sviluppo o possano adottare tempestivamente eventuali misure correttive, è opportuno che tutti i fornitori dispongano di un sistema di monitoraggio successivo all'immissione sul mercato. Tale sistema è altresì fondamentale per garantire che i possibili rischi derivanti dai sistemi di IA che proseguono il loro "apprendimento" o che evolvono dopo essere stati immessi sul mercato o messi in servizio possano essere affrontati in modo più efficiente e tempestivo. I fornitori dovrebbero anche essere tenuti, in tale contesto, a predisporre un sistema per segnalare alle autorità competenti eventuali incidenti gravi o violazioni della normativa nazionale e dell'Unione, anche quella che tutela i diritti fondamentali e i diritti dei consumatori derivanti dall'uso dei loro sistemi di IA, e adottare le misure correttive appropriate. I fornitori dovrebbero inoltre segnalare alle autorità competenti eventuali incidenti gravi o violazioni della normativa nazionale e dell'Unione derivanti dall'uso dei loro sistemi di IA quando vengono a conoscenza di tali incidenti gravi o violazioni.
Emendamento 127 Proposta di regolamento Considerando 79
(79) Al fine di garantire un'applicazione adeguata ed efficace dei requisiti e degli obblighi stabiliti dal presente regolamento, che costituisce la normativa di armonizzazione dell'Unione, è opportuno che si applichi nella sua interezza il sistema di vigilanza del mercato e di conformità dei prodotti istituito dal regolamento (UE) 2019/1020. Ove necessario per il loro mandato, è opportuno che le autorità o gli organismi pubblici nazionali che controllano l'applicazione della normativa dell'Unione che tutela i diritti fondamentali, compresi gli organismi per la parità, abbiano altresì accesso alla documentazione creata a norma del presente regolamento.
(79) Al fine di garantire un'applicazione adeguata ed efficace dei requisiti e degli obblighi stabiliti dal presente regolamento, che costituisce la normativa di armonizzazione dell'Unione, è opportuno che si applichi nella sua interezza il sistema di vigilanza del mercato e di conformità dei prodotti istituito dal regolamento (UE) 2019/1020. Ai fini del presente regolamento, le autorità nazionali di controllo dovrebbero agire in qualità di autorità di vigilanza del mercato per i sistemi di IA contemplati dal presente regolamento, ad eccezione dei sistemi di IA di cui all'allegato II del presente regolamento. Per i sistemi di IA contemplati dagli atti giuridici di cui all'allegato II, le autorità competenti a norma di tali atti giuridici dovrebbero rimanere l'autorità capofila. Le autorità nazionali di controllo e le autorità competenti indicate negli atti giuridici di cui all'allegato II dovrebbero collaborare ogniqualvolta necessario. Se del caso, le autorità competenti degli atti giuridici di cui all'allegato II dovrebbero inviare personale competente all'autorità nazionale di controllo per assisterla nello svolgimento dei suoi compiti. Ai fini del presente regolamento, le autorità nazionali di controllo dovrebbero avere gli stessi poteri e obblighi delle autorità di vigilanza del mercato ai sensi del regolamento (UE) 2019/1020. Ove necessario per il loro mandato, è opportuno che le autorità o gli organismi pubblici nazionali che controllano l'applicazione della normativa dell'Unione che tutela i diritti fondamentali, compresi gli organismi per la parità, abbiano altresì accesso alla documentazione creata a norma del presente regolamento. Dopo aver esaurito tutti gli altri modi ragionevoli per valutare/verificare la conformità e su richiesta motivata, l'autorità nazionale di controllo dovrebbe avere accesso ai set di dati di addestramento, convalida e prova, al modello addestrato e di addestramento del sistema di IA ad alto rischio, compresi i pertinenti parametri del modello, e al relativo ambiente di esecuzione/funzionamento. Nei casi di sistemi software più semplici che rientrano nell'ambito di applicazione del presente regolamento e che non si basano su modelli addestrati, e qualora siano stati esauriti tutti gli altri modi per verificare la conformità, l'autorità nazionale di controllo può, in via eccezionale, avere accesso al codice sorgente, su richiesta motivata. Qualora all'autorità nazionale di controllo sia stato concesso l'accesso ai set di dati di addestramento, convalida e prova conformemente al presente regolamento, tale accesso dovrebbe essere effettuato mediante mezzi e strumenti tecnici adeguati, compreso l'accesso in loco e, in circostanze eccezionali, l'accesso remoto. L'autorità nazionale di controllo dovrebbe trattare tutte le informazioni ottenute, compresi il codice sorgente, il software e i dati, a seconda dei casi, come informazioni riservate e rispettare la pertinente normativa dell'Unione in materia di protezione della proprietà intellettuale e dei segreti commerciali. L'autorità nazionale di controllo dovrebbe cancellare tutte le informazioni ottenute al termine dell'indagine.
Emendamento 128 Proposta di regolamento Considerando 80
(80) La legislazione dell'Unione in materia di servizi finanziari comprende regole e requisiti in materia di governance interna e di gestione dei rischi che sono applicabili agli istituti finanziari regolamentati durante la fornitura di tali servizi, anche quando si avvalgono di sistemi di IA. Al fine di garantire la coerenza dell'applicazione e dell'attuazione degli obblighi previsti dal presente regolamento e delle regole e dei requisiti pertinenti della normativa dell'Unione in materia di servizi finanziari, è opportuno che le autorità responsabili del controllo e dell'applicazione della normativa in materia di servizi finanziari, compresa, se del caso, la Banca centrale europea, siano designate come autorità competenti ai fini del controllo dell'attuazione del presente regolamento, anche in relazione alle attività di vigilanza del mercato, per quanto riguarda i sistemi di IA forniti o utilizzati da istituti finanziari regolamentati e sottoposti a vigilanza. Per migliorare ulteriormente la coerenza tra il presente regolamento e le regole applicabili agli enti creditizi disciplinati dalla direttiva 2013/36/UE del Parlamento europeo e del Consiglio56, è altresì opportuno integrare negli obblighi e nelle procedure esistenti a norma di tale direttiva la procedura di valutazione della conformità e alcuni degli obblighi procedurali dei fornitori in materia di gestione dei rischi, monitoraggio successivo alla commercializzazione e documentazione. Al fine di evitare sovrapposizioni, è opportuno prevedere deroghe limitate anche in relazione al sistema di gestione della qualità dei fornitori e all'obbligo di monitoraggio imposto agli utenti dei sistemi di IA ad alto rischio nella misura in cui si applicano agli enti creditizi disciplinati dalla direttiva 2013/36/UE.
(80) La normativa dell'Unione in materia di servizi finanziari comprende regole e requisiti in materia di governance interna e di gestione dei rischi che sono applicabili agli istituti finanziari regolamentati durante la fornitura di tali servizi, anche quando si avvalgono di sistemi di IA. Al fine di garantire la coerenza dell'applicazione e dell'attuazione degli obblighi previsti dal presente regolamento e delle regole e dei requisiti pertinenti della normativa dell'Unione in materia di servizi finanziari, è opportuno che le autorità competenti responsabili del controllo e dell'applicazione della normativa in materia di servizi finanziari, compresa, se del caso, la Banca centrale europea, siano designate come autorità competenti ai fini del controllo dell'attuazione del presente regolamento, anche in relazione alle attività di vigilanza del mercato, per quanto riguarda i sistemi di IA forniti o utilizzati da istituti finanziari regolamentati e sottoposti a vigilanza. Per migliorare ulteriormente la coerenza tra il presente regolamento e le regole applicabili agli enti creditizi disciplinati dalla direttiva 2013/36/UE del Parlamento europeo e del Consiglio56, è altresì opportuno integrare negli obblighi e nelle procedure esistenti a norma di tale direttiva la procedura di valutazione della conformità e alcuni degli obblighi procedurali dei fornitori in materia di gestione dei rischi, monitoraggio successivo alla commercializzazione e documentazione. Al fine di evitare sovrapposizioni, è opportuno prevedere deroghe limitate anche in relazione al sistema di gestione della qualità dei fornitori e all'obbligo di monitoraggio imposto agli operatori dei sistemi di IA ad alto rischio nella misura in cui si applicano agli enti creditizi disciplinati dalla direttiva 2013/36/UE.
__________________
__________________
56 Direttiva 2013/36/UE del Parlamento europeo e del Consiglio, del 26 giugno 2013, sull'accesso all'attività degli enti creditizi e sulla vigilanza prudenziale sugli enti creditizi e sulle imprese di investimento, che modifica la direttiva 2002/87/CE e abroga le direttive 2006/48/CE e 2006/49/CE (GU L 176 del 27.6.2013, pag. 338).
56 Direttiva 2013/36/UE del Parlamento europeo e del Consiglio, del 26 giugno 2013, sull'accesso all'attività degli enti creditizi e sulla vigilanza prudenziale sugli enti creditizi e sulle imprese di investimento, che modifica la direttiva 2002/87/CE e abroga le direttive 2006/48/CE e 2006/49/CE (GU L 176 del 27.6.2013, pag. 338).
Emendamento 129 Proposta di regolamento Considerando 80 bis (nuovo)
(80 bis) Considerati gli obiettivi del presente regolamento, vale a dire garantire un livello equivalente di protezione della salute, della sicurezza e dei diritti fondamentali delle persone fisiche, garantire la protezione dello Stato di diritto e della democrazia e tenuto conto del fatto che l'attenuazione dei rischi dei sistemi di IA contro tali diritti può non essere realizzata in misura sufficiente a livello nazionale o può essere oggetto di interpretazioni divergenti che potrebbero in ultima analisi portare a un livello disomogeneo di protezione delle persone fisiche e creare frammentazione del mercato, alle autorità nazionale di controllo dovrebbero essere conferito il potere di svolgere indagini congiunte o di avvalersi della procedura di salvaguardia dell'Unione prevista dal presente regolamento per un'applicazione efficace. Le indagini congiunte dovrebbero essere avviate qualora l'autorità nazionale di controllo abbia motivi sufficienti per ritenere che una violazione del presente regolamento costituisca un'infrazione diffusa o un'infrazione diffusa avente una dimensione unionale, o qualora il sistema di IA o il modello di base presenti un rischio che riguarda o possa riguardare almeno 45 milioni di persone in più di uno Stato membro.
Emendamento 130 Proposta di regolamento Considerando 82
(82) È importante che i sistemi di IA collegati a prodotti che non sono ad alto rischio in conformità al presente regolamento e che pertanto non sono tenuti a rispettare i requisiti ivi stabiliti siano comunque sicuri al momento dell'immissione sul mercato o della messa in servizio. Per contribuire a tale obiettivo, sarebbe opportuno applicare come rete di sicurezza la direttiva 2001/95/CE del Parlamento europeo e del Consiglio57.
(82) È importante che i sistemi di IA collegati a prodotti che non sono ad alto rischio in conformità al presente regolamento e che pertanto non sono tenuti a rispettare i requisiti stabiliti per i sistemi di IA ad alto rischio siano comunque sicuri al momento dell'immissione sul mercato o della messa in servizio. Per contribuire a tale obiettivo, sarebbe opportuno applicare come rete di sicurezza la direttiva 2001/95/CE del Parlamento europeo e del Consiglio57.
__________________
__________________
57 Direttiva 2001/95/CE del Parlamento europeo e del Consiglio, del 3 dicembre 2001, relativa alla sicurezza generale dei prodotti (GU L 11 del 15.1.2002, pag. 4).
57 Direttiva 2001/95/CE del Parlamento europeo e del Consiglio, del 3 dicembre 2001, relativa alla sicurezza generale dei prodotti (GU L 11 del 15.1.2002, pag. 4).
Emendamento 131 Proposta di regolamento Considerando 83
(83) Al fine di garantire una cooperazione affidabile e costruttiva delle autorità competenti a livello nazionale e dell'Unione, è opportuno che tutte le parti coinvolte nell'applicazione del presente regolamento rispettino la riservatezza delle informazioni e dei dati ottenuti nell'assolvimento dei loro compiti.
(83) Al fine di garantire una cooperazione affidabile e costruttiva delle autorità competenti a livello nazionale e dell'Unione, è opportuno che tutte le parti coinvolte nell'applicazione del presente regolamento mirino alla trasparenza e all'apertura rispettando nel contempo la riservatezza delle informazioni e dei dati ottenuti nell'assolvimento dei loro compiti, adottando misure tecniche e organizzative per proteggere la sicurezza e la riservatezza delle informazioni ottenute nell'esercizio delle loro attività, anche per quanto riguarda i diritti di proprietà intellettuale e gli interessi di sicurezza pubblica e nazionale.Se le attività della Commissione, delle autorità nazionali competenti e degli organismi notificati ai sensi del presente regolamento comportano la violazione di diritti di proprietà intellettuale, gli Stati membri dovrebbero prevedere misure e mezzi di ricorso adeguati per garantire l'applicazione dei diritti di proprietà intellettuale in applicazione della direttiva 2004/48/CE.
Emendamento 132 Proposta di regolamento Considerando 84
(84) Gli Stati membri dovrebbero adottare tutte le misure necessarie per assicurare l'attuazione delle disposizioni di cui al presente regolamento, anche stabilendo sanzioni effettive, proporzionate e dissuasive in caso di violazione. Per talune violazioni specifiche, è opportuno che gli Stati membri tengano conto dei margini e dei criteri stabiliti nel presente regolamento. Il Garante europeo della protezione dei dati dovrebbe disporre del potere di infliggere sanzioni pecuniarie alle istituzioni, alle agenzie e agli organismi dell'Unione che rientrano nell'ambito di applicazione del presente regolamento.
(84) Il rispetto del presente regolamento dovrebbe essere reso esecutivo mediante l'imposizione di ammende da parte dell'autorità nazionale di controllo nell'ambito dei procedimenti avviati secondo la procedura di cui al presente regolamento. Gli Stati membri dovrebbero adottare tutte le misure necessarie per assicurare l'attuazione delle disposizioni di cui al presente regolamento, anche stabilendo sanzioni effettive, proporzionate e dissuasive in caso di violazione. Al fine di rafforzare e armonizzare le sanzioni amministrative in caso di violazione del presente regolamento, è opportuno stabilire limiti massimi per la fissazione delle sanzioni amministrative pecuniarie per talune violazioni specifiche; Nel valutare l'importo delle sanzioni amministrative pecuniarie, le autorità nazionali competenti dovrebbero, in ogni singolo caso, tenere conto di tutte le circostanze pertinenti della situazione specifica, in particolare, della natura, della gravitàe della durata della violazione e delle sue conseguenze e delle dimensioni del fornitore, in particolare se si tratta di una PMI o di una start-up. Il Garante europeo della protezione dei dati dovrebbe disporre del potere di infliggere sanzioni pecuniarie alle istituzioni, alle agenzie e agli organismi dell'Unione che rientrano nell'ambito di applicazione del presente regolamento. Le sanzioni e le spese di contenzioso di cui al presente regolamento non dovrebbero essere soggette a clausole contrattuali o ad altri accordi.
Emendamento 133 Proposta di regolamento Considerando 84 bis (nuovo)
(84 bis) Poiché i diritti e le libertà delle persone fisiche e giuridiche e dei gruppi di persone fisiche possono essere gravemente compromessi dai sistemi di IA, è essenziale che le persone fisiche e giuridiche o i gruppi di persone fisiche abbiano un accesso significativo a meccanismi di segnalazione e di ricorso e abbiano il diritto di accedere a mezzi di ricorso proporzionati ed efficaci. Essi dovrebbero poter segnalare le violazioni del presente regolamento alla propria autorità nazionale di controllo e avere il diritto di presentare un reclamo contro i fornitori o gli operatori di sistemi di IA. Se del caso, gli operatori dovrebbero prevedere meccanismi interni di reclamo che possano essere utilizzati dalle persone fisiche e giuridiche o dai gruppi di persone fisiche. Fatto salvo ogni altro ricorso amministrativo o extragiudiziale, le persone fisiche e giuridiche e i gruppi di persone fisiche dovrebbero avere il diritto anche a un ricorso giurisdizionale effettivo nei confronti di una decisione giuridicamente vincolante di un'autorità nazionale di controllo che li riguarda o, qualora l'autorità nazionale di controllo non tratti un reclamo, non informi il ricorrente dello stato o dell'esito preliminare del reclamo presentato o non adempia all'obbligo di adottare una decisione definitiva in merito al reclamo.
Emendamento 134 Proposta di regolamento Considerando 84 ter (nuovo)
(84 ter) Le persone interessate dovrebbero sempre essere informate del fatto che sono soggette all'uso di un sistema di IA ad alto rischio quando gli operatori utilizzano un sistema di IA ad alto rischio per assisterle in un processo decisionale o nel prendere decisioni relative a persone fisiche. Tali informazioni possono costituire una base per consentire alle persone interessate di esercitare il loro diritto a una spiegazione ai sensi del presente regolamento. Quando gli operatori forniscono una spiegazione alle persone interessate a norma del presente regolamento, essi dovrebbero tenere conto del livello di competenza e conoscenza della persona media o del consumatore medio.
Emendamento 135 Proposta di regolamento Considerando 84 quater (nuovo)
(84 quater) La normativa dell'Unione riguardante la protezione degli informatori (direttiva (UE) 2019/1937) si applica pienamente agli accademici, ai progettisti, agli sviluppatori, alle persone che contribuiscono al progetto, ai revisori, ai responsabili di prodotto, agli ingegneri e agli operatori economici che acquisiscono informazioni in merito a violazioni del diritto dell'Unione da parte di un fornitore di sistemi di IA o del suo sistema di IA.
Emendamento 136 Proposta di regolamento Considerando 85
(85) Al fine di garantire che il quadro normativo possa essere adeguato ove necessario, è opportuno delegare alla Commissione il potere di adottare atti conformemente all'articolo 290 TFUE per modificare le tecniche e gli approcci di cui all'allegato I per definire i sistemi di IA, la normativa di armonizzazione dell'Unione elencata nell'allegato II, i sistemi di IA ad alto rischio elencati nell'allegato III, le disposizioni relative alla documentazione tecnica di cui all'allegato IV, il contenuto della dichiarazione di conformità UE di cui all'allegato V, le disposizioni relative alle procedure di valutazione della conformità di cui agli allegati VI e VII e le disposizioni che stabiliscono i sistemi di IA ad alto rischio cui dovrebbe applicarsi la procedura di valutazione della conformità sulla base della valutazione del sistema di gestione della qualità e della valutazione della documentazione tecnica. È di particolare importanza che durante i lavori preparatori la Commissione svolga adeguate consultazioni, anche a livello di esperti, nel rispetto dei principi stabiliti nell'accordo interistituzionale "Legiferare meglio" del 13 aprile 201658. In particolare, al fine di garantire la parità di partecipazione alla preparazione degli atti delegati, il Parlamento europeo e il Consiglio ricevono tutti i documenti contemporaneamente agli esperti degli Stati membri, e i loro esperti hanno sistematicamente accesso alle riunioni dei gruppi di esperti della Commissione incaricati della preparazione di tali atti delegati.
(85) Al fine di garantire che il quadro normativo possa essere adeguato ove necessario, è opportuno delegare alla Commissione il potere di adottare atti conformemente all'articolo 290 TFUE per modificare la normativa di armonizzazione dell'Unione elencata nell'allegato II, i sistemi di IA ad alto rischio elencati nell'allegato III, le disposizioni relative alla documentazione tecnica di cui all'allegato IV, il contenuto della dichiarazione di conformità UE di cui all'allegato V, le disposizioni relative alle procedure di valutazione della conformità di cui agli allegati VI e VII e le disposizioni che stabiliscono i sistemi di IA ad alto rischio cui dovrebbe applicarsi la procedura di valutazione della conformità sulla base della valutazione del sistema di gestione della qualità e della valutazione della documentazione tecnica. È di particolare importanza che durante i lavori preparatori la Commissione svolga adeguate consultazioni, anche a livello di esperti, nel rispetto dei principi stabiliti nell'accordo interistituzionale "Legiferare meglio" del 13 aprile 201658. Tali consultazioni dovrebbero prevedere la partecipazione di portatori di interessi selezionati in modo equilibrato, tra cui le organizzazioni dei consumatori, la società civile, le associazioni che rappresentano le persone interessate, i rappresentanti delle imprese di diversi settori e dimensioni nonché ricercatori e scienziati. In particolare, al fine di garantire la parità di partecipazione alla preparazione degli atti delegati, il Parlamento europeo e il Consiglio ricevono tutti i documenti contemporaneamente agli esperti degli Stati membri, e i loro esperti hanno sistematicamente accesso alle riunioni dei gruppi di esperti della Commissione incaricati della preparazione di tali atti delegati.
__________________
__________________
58 GU L 123 del 12.5.2016, pag. 1.
58 GU L 123 del 12.5.2016, pag. 1.
Emendamento 137 Proposta di regolamento Considerando 85 bis (nuovo)
(85 bis) Dati i rapidi sviluppi tecnologici e le competenze tecniche necessarie per effettuare la valutazione dei sistemi di IA ad alto rischio, la Commissione dovrebbe riesaminare periodicamente l'attuazione del presente regolamento, in particolare i sistemi di IA vietati, gli obblighi di trasparenza e l'elenco dei settori e dei casi d'uso ad alto rischio, almeno ogni anno, consultando nel contempo l'ufficio per l'IA e i pertinenti portatori di interessi.
Emendamento 138 Proposta di regolamento Considerando 87 bis (nuovo)
(87 bis) Essendo limitate le informazioni affidabili sull'uso delle risorse e dell'energia, sulla produzione di rifiuti e su altri impatti ambientali dei sistemi di IA e della relativa tecnologia TIC, compresi il software, l'hardware e in particolare i centri dati, è opportuno che la Commissione introduca una metodologia adeguata per misurare l'impatto ambientale e l'efficacia del presente regolamento alla luce degli obiettivi ambientali e climatici dell'Unione.
Emendamento 139 Proposta di regolamento Considerando 89
(89) Conformemente all'articolo 42, paragrafo 2, del regolamento (UE) 2018/1725, il Garante europeo della protezione dei dati e il comitato europeo per la protezione dei dati sono stati consultati e hanno formulato il loro parere il [...]",
(89) Conformemente all'articolo 42, paragrafo 2, del regolamento (UE) 2018/1725, il Garante europeo della protezione dei dati e il comitato europeo per la protezione dei dati sono stati consultati e hanno formulato il loro parere il 18 giugno 2021.
1. L'obiettivo del presente regolamento è promuovere la diffusione di un'intelligenza artificiale antropocentrica e affidabile e garantire un livello elevato di protezione della salute, della sicurezza, dei diritti fondamentali, della democrazia e dello Stato di diritto e dell'ambiente dagli effetti nocivi dei sistemi di intelligenza artificiale nell'Unione, promuovendo nel contempo l'innovazione;
Emendamento 141 Proposta di regolamento Articolo 1 – paragrafo 1 – lettera d
d) regole di trasparenza armonizzate per i sistemi di IA destinati a interagire con le persone fisiche, i sistemi di riconoscimento delle emozioni, i sistemi di categorizzazione biometrica e i sistemi di IA utilizzati per generare o manipolare immagini o contenuti audio o video;
d) regole di trasparenza armonizzate per taluni sistemi di IA;
Emendamento 142 Proposta di regolamento Articolo 1 – paragrafo 1 – lettera e
e) regole in materia di monitoraggio e vigilanza del mercato.
e) regole in materia di monitoraggio del mercato, governance della vigilanza del mercato e applicazione;
Emendamento 143 Proposta di regolamento Articolo 1 – paragrafo 1 – lettera e bis (nuova)
e bis) misure a sostegno dell'innovazione, con particolare attenzione alle PMI e alle start-up, compresa la creazione di spazi di sperimentazione normativa e misure mirate per ridurre l'onere normativo per le PMI e le start-up;
Emendamento 144 Proposta di regolamento Articolo 1 – paragrafo 1 – lettera e ter (nuova)
e ter) regole per l'istituzione e il funzionamento dell'ufficio dell'Unione europea per l'intelligenza artificiale (l'ufficio per l'IA);
Emendamento 145 Proposta di regolamento Articolo 2 – paragrafo 1 – lettera b
b) agli utenti dei sistemi di IA situati nell'Unione;
b) agli operatori dei sistemi di IA che hanno il loro luogo di stabilimento o che sono situati all'interno dell'Unione;
Emendamento 146 Proposta di regolamento Articolo 2 – paragrafo 1 – lettera c
c) ai fornitori e agli utenti di sistemi di IA situati in un paese terzo, laddove l'output prodotto dal sistema sia utilizzato nell'Unione.
c) ai fornitori e agli operatori di sistemi di IA che hanno il loro luogo di stabilimento o che sono situati in un paese terzo, laddove si applichi il diritto di uno Stato membro in virtù di una normativa internazionale pubblica o l'output prodotto dal sistema sia destinato a essere utilizzato nell'Unione;
Emendamento 147 Proposta di regolamento Articolo 2 – paragrafo 1 – lettera c bis (nuova)
c bis) ai fornitori che immettono sul mercato o mettono in servizio sistemi di IA di cui all'articolo 5 al di fuori dell'Unione, se il fornitore o il distributore di tali sistemi è situato nell'Unione;
Emendamento 148 Proposta di regolamento Articolo 2 – paragrafo 1 – lettera c ter (nuova)
c ter) agli importatori e ai distributori di sistemi di IA nonché ai rappresentanti autorizzati dei fornitori di sistemi di IA, qualora tali importatori, distributori o rappresentanti autorizzati abbiano la loro sede o siano situati nell'Unione;
Emendamento 149 Proposta di regolamento Articolo 2 – paragrafo 1 – lettera c quater (nuova)
c quater) alle persone interessate, quali definite all'articolo 3, paragrafo 8 bis, che si trovano nell'Unione e sulla salute, la sicurezza o i diritti fondamentali delle quali incide negativamente l'uso di un sistema di IA immesso sul mercato o messo in servizio all'interno dell'Unione.
Emendamento 150 Proposta di regolamento Articolo 2 – paragrafo 2 – parte introduttiva
2. Solo l'articolo 84 del presente regolamento si applica ai sistemi di IA ad alto rischio che sono componenti di sicurezza di prodotti o sistemi, o che sono essi stessi prodotti o sistemi, che rientrano nell'ambito di applicazione dei seguenti atti:
2. Solo l'articolo 84 del presente regolamento si applica ai sistemi di IA ad alto rischio che sono componenti di sicurezza di prodotti o sistemi, o che sono essi stessi prodotti o sistemi e rientrano nell'ambito di applicazione della normativa di armonizzazione di cui all'allegato II - sezione B.
Emendamento 151 Proposta di regolamento Articolo 2 – paragrafo 2 – lettera a
a) regolamento (CE) n. 300/2008;
soppresso
Emendamento 152 Proposta di regolamento Articolo 2 – paragrafo 2 – lettera b
b) regolamento (UE) n. 167/2013;
soppresso
Emendamento 153 Proposta di regolamento Articolo 2 – paragrafo 2 – lettera c
c) regolamento (UE) n. 168/2013;
soppresso
Emendamento 154 Proposta di regolamento Articolo 2 – paragrafo 2 – lettera d
d) direttiva 2014/90/UE;
soppresso
Emendamento 155 Proposta di regolamento Articolo 2 – paragrafo 2 – lettera e
e) direttiva (UE) 2016/797;
soppresso
Emendamento 156 Proposta di regolamento Articolo 2 – paragrafo 2 – lettera f
f) regolamento (UE) 2018/858;
soppresso
Emendamento 157 Proposta di regolamento Articolo 2 – paragrafo 2 – lettera g
g) regolamento (UE) 2018/1139;
soppresso
Emendamento 158 Proposta di regolamento Articolo 2 – paragrafo 2 – lettera h
h) regolamento (UE) 2019/2144.
soppresso
Emendamento 159 Proposta di regolamento Articolo 2 – paragrafo 4
4. Il presente regolamento non si applica alle autorità pubbliche di un paese terzo né alle organizzazioni internazionali che rientrano nell'ambito di applicazione del presente regolamento a norma del paragrafo 1, laddove tali autorità o organizzazioni utilizzino i sistemi di IA nel quadro di accordi internazionali per la cooperazione delle autorità di contrasto e giudiziarie con l'Unione o con uno o più Stati membri.
4. Il presente regolamento non si applica alle autorità pubbliche di un paese terzo né alle organizzazioni internazionali che rientrano nell'ambito di applicazione del presente regolamento a norma del paragrafo 1, laddove tali autorità o organizzazioni utilizzino i sistemi di IA nel quadro di accordi internazionali per la cooperazione delle autorità di contrasto e giudiziarie con l'Unione o con uno o più Stati membri e siano oggetto di una decisione della Commissione adottata a norma dell'articolo 36 della direttiva (UE) 2016/680 o dell'articolo 45 del regolamento (UE) 2016/679 ("decisione di adeguatezza"), o siano parti di un accordo internazionale concluso tra l'Unione e il paese terzo o l'organizzazione internazionale in questione, a norma dell'articolo 218 TFUE, che prevede garanzie adeguate per quanto riguarda la protezione della vita privata e dei diritti e delle libertà fondamentali delle persone;
Emendamento 160 Proposta di regolamento Articolo 2 – paragrafo 5 bis (nuovo)
5 bis. Il diritto dell'Unione in materia di protezione dei dati personali, della vita privata e della riservatezza delle comunicazioni si applica ai trattamenti di dati personali in relazione ai diritti e agli obblighi stabiliti nel presente regolamento. Il presente regolamento lascia impregiudicati i regolamenti (UE) 2016/679 e (UE) 2018/1725 e le direttive 2002/58/CE e (UE) 2016/680, fatte salve le disposizioni di cui all'articolo 10, paragrafo 5, e all'articolo 54 del presente regolamento.;
Emendamento 161 Proposta di regolamento Articolo 2 – paragrafo 5 ter (nuovo)
5 ter. Il presente regolamento lascia impregiudicate le norme stabilite da altri atti giuridici dell'Unione in materia di protezione dei consumatori e di sicurezza dei prodotti;
5 quater. Il presente regolamento non osta a che gli Stati membri o l'Unione mantengano o introducano disposizioni legislative, regolamentari o amministrative più favorevoli ai lavoratori in termini di tutela dei loro diritti in relazione all'uso dei sistemi di IA da parte dei datori di lavoro, o di incoraggiare o consentire l'applicazione di contratti collettivi più favorevoli ai lavoratori.
5 quinquies. Il presente regolamento non si applica alle attività di ricerca, prova e sviluppo relative ai sistemi di IA prima che tali sistemi siano immessi sul mercato o messi in servizio, a condizione che tali attività siano condotte nel rispetto dei diritti fondamentali e della normativa dell'Unione applicabile. La presente esenzione non si applica alle prove in condizioni reali. Alla Commissione è conferito il potere di adottare atti delegati conformemente all'articolo 73 che chiariscano l'applicazione del presente paragrafo per specificare tale esenzione al fine di prevenirne gli abusi esistenti e potenziali. L'ufficio per l'IA fornisce orientamenti sulla governance della ricerca e dello sviluppo a norma dell'articolo 56 anche al fine di coordinarne l'applicazione da parte delle autorità nazionali di controllo;
5 sexies. Il presente regolamento non si applica ai componenti di IA forniti in base a licenze gratuite e open source, tranne nella misura in cui sono immessi sul mercato o messi in servizio da un fornitore nell'ambito di un sistema di IA ad alto rischio o di un sistema di IA che rientra nel titolo II o IV. Tale esenzione non si applica ai modelli di base definiti all'articolo 3.
Emendamento 165 Proposta di regolamento Articolo 3 – punto 1
1) "sistema di intelligenza artificiale" (sistema di IA): un software sviluppato con una o più delle tecniche e degli approcci elencati nell'allegato I, che può, per una determinata serie di obiettivi definiti dall'uomo, generare output quali contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono;
1) "sistema di intelligenza artificiale" (sistema di IA): un sistema automatizzato progettato per operare con livelli di autonomia variabili e che, per obiettivi espliciti o impliciti, può generare output quali previsioni, raccomandazioni o decisioni che influenzano gli ambienti fisici o virtuali;
Emendamento 166 Proposta di regolamento Articolo 3 – punto 1 bis (nuovo)
1 bis) "rischio": la combinazione della probabilità del verificarsi di un danno e la gravità del danno stesso;
Emendamento 167 Proposta di regolamento Articolo 3 – punto 1 ter (nuovo)
1 ter) "rischio significativo": un rischio che è significativo per la combinazione della sua gravità, intensità, probabilità che si verifichi e della durata dei suoi effetti e della sua capacità di incidere su una persona, su una pluralità di persone o su un particolare gruppo di persone;
Emendamento 168 Proposta di regolamento Articolo 3 – punto 1 quater (nuovo)
1 quater) "modello di base": un modello di sistema di IA addestrato su un'ampia scala di dati, progettato per la generalità dell'output e che può essere adattato a un'ampia gamma di compiti distinti;
Emendamento 169 Proposta di regolamento Articolo 3 – punto 1 quinquies (nuovo)
1 quinquies) "sistema di IA per finalità generali": un sistema di IA che può essere utilizzato e adattato a un'ampia gamma di applicazioni per le quali non è stato intenzionalmente e specificamente progettato;
Emendamento 170 Proposta di regolamento Articolo 3 – punto 1 sexies (nuovo)
1 sexies) "grandi cicli di addestramento": il processo di produzione di un potente modello di IA che richiede risorse informatiche al di sopra di una soglia molto elevata;
Emendamento 171 Proposta di regolamento Articolo 3 – punto 3
3) "fornitore di piccole dimensioni": un fornitore che è una microimpresa o una piccola impresa ai sensi della raccomandazione 2003/361/CE della Commissione61;
soppresso
__________________
61Raccomandazione della Commissione, del 6 maggio 2003, relativa alla definizione delle microimprese, piccole e medie imprese (GU L 124 del 20.5.2003, pag. 36).
Emendamento 172 Proposta di regolamento Articolo 3 – punto 4
4) "utente": qualsiasi persona fisica o giuridica, autorità pubblica, agenzia o altro organismo che utilizza un sistema di IA sotto la sua autorità, tranne nel caso in cui il sistema di IA sia utilizzato nel corso di un'attività personale non professionale;
4) "operatore": qualsiasi persona fisica o giuridica, autorità pubblica, agenzia o altro organismo che utilizza un sistema di IA sotto la sua autorità, tranne nel caso in cui il sistema di IA sia utilizzato nel corso di un'attività personale non professionale;
Emendamento 173 Proposta di regolamento Articolo 3 – punto 8
8) "operatore": il fornitore, l'utente, il rappresentante autorizzato, l'importatore e il distributore;
8) "operatore": il fornitore, l'operatore, il rappresentante autorizzato, l'importatore e il distributore;
Emendamento 174 Proposta di regolamento Articolo 3 – punto 8 bis (nuovo)
8 bis) "persona interessata": una persona fisica o un gruppo di persone che sono soggetti a un sistema di IA o in altro modo interessati;
Emendamento 175 Proposta di regolamento Articolo 3 – punto 11
11) "messa in servizio": la fornitura di un sistema di IA direttamente all'utente per il primo uso o per uso proprio sul mercato dell'Unione per la finalità prevista;
11) "messa in servizio": la fornitura di un sistema di IA direttamente all'operatore per il primo uso o per uso proprio sul mercato dell'Unione per la finalità prevista;
Emendamento 176 Proposta di regolamento Articolo 3 – punto 13
13) "uso improprio ragionevolmente prevedibile": l'uso di un sistema di IA in un modo non conforme alla sua finalità prevista, ma che può derivare da un comportamento umano o da un'interazione con altri sistemi ragionevolmente prevedibile;
13) "uso improprio ragionevolmente prevedibile": l'uso di un sistema di IA in un modo non conforme alla sua finalità prevista quale indicata nelle istruzioni per l'uso stabilite dal fornitore, ma che può derivare da un comportamento umano o da un'interazione con altri sistemi ragionevolmente prevedibile, compresi altri sistemi di IA;
Emendamento 177 Proposta di regolamento Articolo 3 – punto 14
14) "componente di sicurezza di un prodotto o di un sistema": un componente di un prodotto o di un sistema che svolge una funzione di sicurezza per tale prodotto o sistema o il cui guasto o malfunzionamento mette in pericolo la salute e la sicurezza di persone o beni;
14) "componente di sicurezza di un prodotto o di un sistema": conformemente alla normativa di armonizzazione dell'Unione di cui all'allegato II, un componente di un prodotto o di un sistema che svolge una funzione di sicurezza per tale prodotto o sistema o il cui guasto o malfunzionamento mette in pericolo la salute e la sicurezza di persone o beni;
Emendamento 178 Proposta di regolamento Articolo 3 – punto 15
15) "istruzioni per l'uso": le informazioni comunicate dal fornitore per informare l'utente in particolare della finalità prevista e dell'uso corretto di un sistema di IA, compreso lo specifico contesto geografico, comportamentale o funzionale all'interno del quale il sistema di IA ad alto rischio è destinato a essere utilizzato;
15) "istruzioni per l'uso": le informazioni comunicate dal fornitore per informare l'operatore in particolare della finalità prevista e dell'uso corretto di un sistema di IA nonché le informazioni sulle eventuali precauzioni da adottare; compreso lo specifico contesto geografico, comportamentale o funzionale all'interno del quale il sistema di IA ad alto rischio è destinato a essere utilizzato;
Emendamento 179 Proposta di regolamento Articolo 3 – punto 16
16) "richiamo di un sistema di IA": qualsiasi misura volta a ottenere la restituzione al fornitore di un sistema di IA messo a disposizione degli utenti;
16) "richiamo di un sistema di IA": qualsiasi misura volta a ottenere la restituzione al fornitore di un sistema di IA che è stato messo a disposizione degli operatori;
Emendamento 180 Proposta di regolamento Articolo 3 – punto 20
20) "valutazione della conformità": la procedura atta a verificare se i requisiti di cui al titolo III, capo 2, del presente regolamento relativi a un sistema di IA sono stati soddisfatti;
20) "valutazione della conformità": la procedura atta a dimostrare se i requisiti di cui al titolo III, capo 2, del presente regolamento relativi a un sistema di IA sono stati soddisfatti;
Emendamento 181 Proposta di regolamento Articolo 3 – punto 22
22) "organismo notificato": un organismo di valutazione della conformità designato in conformità al presente regolamento e ad altre pertinenti normative di armonizzazione dell'Unione;
22) "organismo notificato": un organismo di valutazione della conformità notificato in conformità al presente regolamento e ad altre pertinenti normative di armonizzazione dell'Unione;
Emendamento 182 Proposta di regolamento Articolo 3 – punto 23
23) "modifica sostanziale": una modifica del sistema di IA a seguito della sua immissione sul mercato o messa in servizio che incide sulla conformità del sistema di IA ai requisiti di cui al titolo III, capo 2, del presente regolamento o comporta una modifica della finalità prevista per la quale il sistema di IA è stato valutato;
23) "modifica sostanziale": una modifica o una serie di modifiche del sistema di IA a seguito della sua immissione sul mercato o messa in servizio che non è prevista o programmata nella valutazione iniziale dei rischi da parte del fornitore e che ha l'effetto di incidere sulla conformità del sistema di IA ai requisiti di cui al titolo III, capo 2, del presente regolamento o comporta una modifica della finalità prevista per la quale il sistema di IA è stato valutato.
Emendamento 183 Proposta di regolamento Articolo 3 – punto 24
24) "marcatura CE di conformità" (marcatura CE): una marcatura mediante la quale un fornitore indica che un sistema di IA è conforme ai requisiti stabiliti al titolo III, capo 2, del presente regolamento e in altre normative applicabili dell'Unione che armonizzano le condizioni per la commercializzazione dei prodotti ("normativa di armonizzazione dell'Unione") e che ne prevedono l'apposizione;
24) "marcatura CE di conformità" (marcatura CE): una marcatura fisica o digitale mediante la quale un fornitore indica che un sistema di IA o un prodotto con un sistema di IA incorporato è conforme ai requisiti stabiliti al titolo III, capo 2, del presente regolamento e in altre normative applicabili dell'Unione che armonizzano le condizioni per la commercializzazione dei prodotti ("normativa di armonizzazione dell'Unione") e che ne prevedono l'apposizione;
Emendamento 184 Proposta di regolamento Articolo 3 – punto 29
29) "dati di addestramento": i dati utilizzati per addestrare un sistema di IA adattandone i parametri che può apprendere, compresi i pesi di una rete neurale;
29) "dati di addestramento": i dati utilizzati per addestrare un sistema di IA adattandone i parametri che può apprendere;
Emendamento 185 Proposta di regolamento Articolo 3 – punto 30
30) "dati di convalida": i dati utilizzati per fornire una valutazione del sistema di IA addestrato e per metterne a punto, tra l'altro, i parametri che non può apprendere e il processo di apprendimento, al fine di evitare l'eccessivo adattamento ai dati di addestramento (overfitting), considerando che il set di dati di convalida può essere un set di dati distinto o essere costituito da una partizione fissa o variabile del set di dati di addestramento;
30) "dati di convalida": i dati utilizzati per fornire una valutazione del sistema di IA addestrato e per metterne a punto, tra l'altro, i parametri che non può apprendere e il processo di apprendimento, al fine di evitare lo scarso (underfitting) o l'eccessivo adattamento ai dati di addestramento (overfitting); considerando che il set di dati di convalida è un set di dati distinto o è costituito da una partizione fissa o variabile del set di dati di addestramento;
Emendamento 186 Proposta di regolamento Articolo 3 – punto 33
33) "dati biometrici": i dati personali ottenuti da un trattamento tecnico specifico relativi alle caratteristiche fisiche, fisiologiche o comportamentali di una persona fisica che ne consentono o confermano l'identificazione univoca, quali l'immagine facciale o i dati dattiloscopici;
33) "dati biometrici": i dati biometrici quali definiti all'articolo 4, punto 14, del regolamento (UE) 2016/679;
Emendamento 187 Proposta di regolamento Articolo 3 – punto 33 bis (nuovo)
33 bis) "dati basati su elementi biometrici": i dati aggiuntivi ottenuti da un trattamento tecnico specifico in relazione ai segnali fisici, fisiologici o comportamentali di una persona fisica;
Emendamento 188 Proposta di regolamento Articolo 3 – punto 33 ter (nuovo)
33 ter) "identificazione biometrica": il riconoscimento automatizzato delle caratteristiche umane fisiche, fisiologiche, comportamentali e psicologiche al fine di stabilire l'identità di una persona confrontando i dati biometrici di tale persona con i dati biometrici di persone in una banca dati (identificazione uno a molti);
Emendamento 189 Proposta di regolamento Articolo 3 – punto 33 quater (nuovo)
33 quater) "verifica biometrica": la verifica automatizzata dell'identità di persone fisiche mediante il confronto dei dati biometrici di una persona fisica con i dati biometrici forniti in precedenza (verifica uno a uno, compresa l'autenticazione);
Emendamento 190 Proposta di regolamento Articolo 3 – punto 33 quinquies (nuovo)
33 quinquies) "categorie particolari di dati personali": le categorie di dati personali di cui all'articolo 9, paragrafo 1, del regolamento (UE) 2016/679;
Emendamento 191 Proposta di regolamento Articolo 3 – punto 34
34) "sistema di riconoscimento delle emozioni": un sistema di IA finalizzato all'identificazione o alla deduzione di emozioni o intenzioni di persone fisiche sulla base dei loro dati biometrici;
34) "sistema di riconoscimento delle emozioni": un sistema di IA finalizzato all'identificazione o alla deduzione di emozioni, pensieri, stati d'animo o intenzioni di individui o gruppi sulla base dei loro dati biometrici e basati su elementi biometrici;
Emendamento 192 Proposta di regolamento Articolo 3 – punto 35
35) "sistema di categorizzazione biometrica": un sistema di IA che utilizza i dati biometrici di persone fisiche al fine di assegnarle a categorie specifiche, quali quelle basate sul sesso, l'età, il colore deicapelli, il colore degli occhi, i tatuaggi, l'origine etnica o l'orientamento sessuale o politico;
35) "categorizzazione biometrica: l'assegnazione di persone fisiche a categorie specifiche o la deduzione delle loro caratteristiche e attributi sulla basedei loro dati biometrici o basati su elementi biometrici, o che possono essere desunte da tali dati;
Emendamento 193 Proposta di regolamento Articolo 3 – punto 36
36) "sistema di identificazione biometrica remota": un sistema di IA finalizzato all'identificazione a distanza di persone fisiche mediante il confronto dei dati biometrici di una persona con i dati biometrici contenuti in una banca dati di riferimento, e senza che l'utente del sistema di IA sappia in anticipo se la persona sarà presente e può essere identificata;
36) "sistema di identificazione biometrica remota": un sistema di IA finalizzato all'identificazione a distanza di persone fisiche mediante il confronto dei dati biometrici di una persona con i dati biometrici contenuti in una banca dati di riferimento, e senza che l'operatore del sistema di IA sappia in anticipo se la persona sarà presente e può essere identificata, esclusi i sistemi di verifica;
Emendamento 194 Proposta di regolamento Articolo 3 – punto 37
37) "sistema di identificazione biometrica remota "in tempo reale"": un sistema di identificazione biometrica remota in cui il rilevamento dei dati biometrici, il confronto e l'identificazione avvengono senza ritardi significativi. Sono incluse non solo le identificazioni istantanee, ma anche quelle che avvengono con brevi ritardi limitati al fine di evitare l'elusione della normativa;
37) "sistema di identificazione biometrica remota "in tempo reale"": un sistema di identificazione biometrica remota in cui il rilevamento dei dati biometrici, il confronto e l'identificazione avvengono senza ritardi significativi. Sono incluse non solo le identificazioni istantanee, ma anche quelle che avvengono con ritardi limitati al fine di evitare l'elusione della normativa;
Emendamento 195 Proposta di regolamento Articolo 3 – punto 39
39) "spazio accessibile al pubblico": qualsiasi luogo fisico accessibile al pubblico, indipendentemente dall'applicabilità di determinate condizioni di accesso;
39) "spazio accessibile al pubblico": qualsiasi luogo fisico pubblico o privato accessibile al pubblico, indipendentemente dall'applicabilità di determinate condizioni di accesso e a prescindere dalle potenziali restrizioni in materia di capienza;
Emendamento 196 Proposta di regolamento Articolo 3 – punto 41
41) "attività di contrasto": le attività svolte dalle autorità di contrasto a fini di prevenzione, indagine, accertamento o perseguimento di reati o esecuzione di sanzioni penali, incluse la salvaguardia contro le minacce alla sicurezza pubblica e la prevenzione delle stesse;
41) "attività di contrasto": le attività svolte dalle autorità di contrasto o per loro conto a fini di prevenzione, indagine, accertamento o perseguimento di reati o esecuzione di sanzioni penali, incluse la salvaguardia contro le minacce alla sicurezza pubblica e la prevenzione delle stesse;
Emendamento 197 Proposta di regolamento Articolo 3 – punto 42
42) "autorità nazionale di controllo": l'autorità alla quale uno Stato membro attribuisce la responsabilità di attuare e applicare il presente regolamento, di coordinare le attività affidate a tale Stato membro, di fungere da punto di contatto unico per la Commissione e di rappresentare lo Stato membro in seno al comitato europeo per l'intelligenza artificiale;
42) "autorità nazionale di controllo": un'autorità pubblica (emendamento 69) alla quale uno Stato membro attribuisce la responsabilità di attuare e applicare il presente regolamento, di coordinare le attività affidate a tale Stato membro, di fungere da punto di contatto unico per la Commissione e di rappresentare lo Stato membro in seno al consiglio di amministrazione dell'ufficio per l'IA;
Emendamento 198 Proposta di regolamento Articolo 3 – punto 43
43) "autorità nazionale competente": l'autorità nazionale di controllo, l'autorità dinotifica e l'autorità di vigilanza del mercato;
43) "autorità nazionale competente": una delle autorità nazionali di controllo responsabili dell'applicazione del presente regolamento;
Emendamento 199 Proposta di regolamento Articolo 3 – punto 44 – parte introduttiva
44) "incidente grave": qualsiasi incidente che, direttamente o indirettamente, causa, può aver causato o può causare una delle seguenti conseguenze:
44) "incidente grave": qualsiasi incidente o malfunzionamento di un sistema di IA che, direttamente o indirettamente, causa, può aver causato o può causare una delle seguenti conseguenze:
a) il decesso di una persona o gravi danni alla salute di una persona, alle cose o all'ambiente,
a) il decesso di una persona o gravi danni alla salute di una persona,
b) una perturbazione grave della gestione e del funzionamento delle infrastrutture critiche.
b) una perturbazione grave della gestione e del funzionamento delle infrastrutture critiche;
b bis) una violazione dei diritti fondamentali tutelati dal diritto dell'Unione;
b ter) danni gravi a beni materiali o all'ambiente;
Emendamento 200 Proposta di regolamento Articolo 3 – punto 44 bis (nuovo)
44 bis) "dati personali": i dati personali quali definiti all'articolo 4, punto 1, del regolamento (UE) 2016/679;
Emendamento 201 Proposta di regolamento Articolo 3 – punto 44 ter (nuovo)
44 ter) "dati non personali": dati diversi dai dati personali;
Emendamento 202 Proposta di regolamento Articolo 3 – punto 44 quater (nuovo)
44 quater) "profilazione": qualsiasi forma di trattamento automatizzato dei dati personali ai sensi dell'articolo 4, punto 4, del regolamento (UE) 2016/679; o, nel caso delle autorità di contrasto, dell'articolo 3, punto 4, della direttiva (UE) 2016/680 o, nel caso delle istituzioni, degli organi o degli organismi dell'Unione, dell'articolo 3, punto 5, del regolamento (UE) 2018/1725;
Emendamento 203 Proposta di regolamento Articolo 3 – punto 44 quinquies (nuovo)
44 quinquies) "deep fake": contenuto audio, immagine o video manipolato o sintetico che appare falsamente autentico o veritiero e che raffigura persone che sembrano dire o fare cose che non hanno dichiarato o fatto e che è stato prodotto utilizzando tecniche di IA, compresi l'apprendimento automatizzato e l'apprendimento profondo;
Emendamento 204 Proposta di regolamento Articolo 3 – punto 44 sexies (nuovo)
44 sexies) "infrazione diffusa": qualsiasi azione od omissione contraria alla normativa dell'Unione che tutela gli interessi delle persone:
a) che abbia arrecato o possa arrecare un danno agli interessi collettivi di persone che risiedono in almeno due Stati membri diversi dallo Stato membro in cui:
i) ha avuto origine o si è verificato l'azione o l'omissione in questione;
ii) è stabilito il fornitore interessato o, se del caso, il suo rappresentante autorizzato; o
iii) è stabilito l'operatore, quando la violazione è commessa dall'operatore;
b) che tuteli gli interessi delle persone che hanno arrecato, arrecano o possono arrecare un danno agli interessi collettivi di persone e che hanno caratteristiche comuni, compresa la stessa pratica illecita e lo stesso interesse leso e che si verificano simultaneamente, sono commesse dal medesimo operatore, in almeno tre Stati membri;
Emendamento 205 Proposta di regolamento Articolo 3 – punto 44 septies (nuovo)
44 septies) "infrazione diffusa avente una dimensione unionale": un'infrazione diffusa che abbia arrecato o possa arrecare un danno agli interessi collettivi di persone in almeno due terzi degli Stati membri, che insieme rappresentano almeno i due terzi della popolazione dell'Unione;
Emendamento 206 Proposta di regolamento Articolo 3 – punto 44 octies (nuovo)
44 octies) "spazio di sperimentazione normativa": un ambiente controllato stabilito da un'autorità pubblica che facilita lo sviluppo, le prove e la convalida in condizioni di sicurezza di sistemi di IA innovativi per un periodo di tempo limitato prima della loro immissione sul mercato o della loro messa in servizio conformemente a un piano specifico soggetto a vigilanza regolamentare;
Emendamento 207 Proposta di regolamento Articolo 3 – punto 44 nonies (nuovo)
44 nonies) "infrastruttura critica": un bene, un impianto, un'apparecchiatura, una rete o un sistema, o una parte di un bene, un impianto, un'apparecchiatura, una rete o un sistema, che è necessario per la fornitura di un servizio essenziale ai sensi dell'articolo 2, paragrafo 4, della direttiva (UE) 2022/2557;
Emendamento 208 Proposta di regolamento Articolo 3 – punto 44 duodecies (nuovo)
44 duodecies) "punteggio sociale" la valutazione o la classificazione di persone fisiche sulla base del loro comportamento sociale, del loro status socio-economico o di caratteristiche personali o della personalità note o previste;
Emendamento 209 Proposta di regolamento Articolo 3 – punto 44 terdecies (nuovo)
44 terdecies) "comportamento sociale": il modo in cui una persona fisica interagisce con altre persone fisiche o la società e le influenza;
Emendamento 210 Proposta di regolamento Articolo 3 – punto 44 quaterdecies (nuovo)
44 quaterdecies) "stato dell'arte": la fase sviluppata di capacità tecnica in un determinato momento per quanto riguarda i prodotti, i processi e i servizi, sulla base dei pertinenti risultati consolidati della scienza, della tecnologia e dell'esperienza;
Emendamento 211 Proposta di regolamento Articolo 3 – punto 44 quindecies (nuovo)
44 quindecies) "prova in condizioni reali": la prova temporanea di un sistema di IA per la sua finalità prevista in condizioni reali al di fuori di un laboratorio o di un ambiente altrimenti simulato;
Emendamento 212 Proposta di regolamento Articolo 4
Articolo 4
soppresso
Modifiche dell'allegato I
Alla Commissione è conferito il potere di adottare atti delegati conformemente all'articolo 73 al fine di modificare l'elenco delle tecniche e degli approcci di cui all'allegato I, per aggiornare tale elenco agli sviluppi tecnologici e di mercato sulla base di caratteristiche simili alle tecniche e agli approcci ivi elencati.
Emendamento 213 Proposta di regolamento Articolo 4 bis (nuovo)
Articolo 4 bis
Principi generali applicabili a tutti i sistemi di IA
1. Tutti gli operatori che rientrano nel presente regolamento si adoperano al massimo per sviluppare e utilizzare sistemi di IA o modelli di base conformemente ai seguenti principi generali che istituiscono un quadro di alto livello che promuova un approccio europeo antropocentrico coerente a un'intelligenza artificiale etica e affidabile, che sia pienamente in linea con la Carta e con i valori su cui si fonda l'Unione:
a) "intervento e sorveglianza umani": i sistemi di IA sono sviluppati e utilizzati come strumenti al servizio delle persone, nel rispetto della dignità umana e dell'autonomia personale, e funzionano in modo da poter essere adeguatamente controllati e sorvegliati dagli esseri umani;
b) "robustezza tecnica e sicurezza": i sistemi di IA sono sviluppati e utilizzati in modo da ridurre al minimo i danni involontari e inaspettati, nonché per essere robusti in caso di problemi involontari e resilienti ai tentativi di alterare l'uso o le prestazioni del sistema di IA in modo da consentirne l'uso illegale da parte di terzi malintenzionati;
c) "vita privata e governance dei dati": i sistemi di IA sono sviluppati e utilizzati nel rispetto delle norme vigenti in materia di vita privata e protezione dei dati, elaborando al contempo dati che soddisfino livelli elevati in termini di qualità e integrità;
d) "trasparenza": i sistemi di IA sono sviluppati e utilizzati in modo da consentire un'adeguata tracciabilità e spiegabilità, rendendo gli esseri umani consapevoli del fatto di comunicare o interagire con un sistema di IA e informando debitamente gli utenti delle capacità e dei limiti di tale sistema di IA e le persone interessate dei loro diritti;.
e) "diversità, non discriminazione ed equità": i sistemi di IA sono sviluppati e utilizzati in modo da includere soggetti diversi e promuovere la parità di accesso, l'uguaglianza di genere e la diversità culturale, evitando nel contempo effetti discriminatori e pregiudizi ingiusti vietati dal diritto dell'Unione o nazionale;
f) "benessere sociale e ambientale": i sistemi di IA sono sviluppati e utilizzati in modo sostenibile e rispettoso dell'ambiente e in modo da apportare benefici a tutti gli esseri umani, monitorando e valutando gli impatti a lungo termine sull'individuo, sulla società e sulla democrazia.
2. Il paragrafo 1 lascia impregiudicati gli obblighi stabiliti dal diritto dell'Unione e nazionale vigente. Per i sistemi di IA ad alto rischio, i principi generali sono tradotti e rispettati dai fornitori o dagli operatori mediante i requisiti di cui agli articoli da 8 a 15 e i pertinenti obblighi stabiliti al Capo 3 del Titolo III del presente regolamento. Per i modelli di base, i principi generali sono applicati e rispettati dai fornitori mediante i requisiti di cui agli articoli da 28 a 28 ter. Per tutti i sistemi di IA, l'applicazione dei principi di cui al paragrafo 1 può essere conseguita, a seconda dei casi, mediante le disposizioni dell'articolo 28 e dell'articolo 52 o mediante l'applicazione di norme armonizzate, specifiche tecniche e codici di condotta di cui all'articolo 69, senza creare nuovi obblighi a norma del presente regolamento.
3. La Commissione e l'ufficio per l'IA integrano tali principi guida nelle richieste di normazione nonché nelle raccomandazioni consistenti in orientamenti tecnici per assistere i fornitori e gli operatori su come sviluppare e utilizzare i sistemi di IA. Le organizzazioni europee di normazione tengono conto dei principi generali di cui al paragrafo 1 del presente articolo come obiettivi basati sui risultati quando elaborano le norme armonizzate appropriate per i sistemi di IA ad alto rischio di cui all'articolo 40, paragrafo 2 ter.
Emendamento 214 Proposta di regolamento Articolo 4 ter (nuovo)
Articolo 4 ter
Alfabetizzazione in materia di IA
1. Nell'attuazione del presente regolamento, l'Unione e gli Stati membri promuovono misure per lo sviluppo di un livello adeguato di alfabetizzazione in materia di IA, in tutti i settori e tenendo conto delle diverse esigenze dei gruppi di fornitori, operatori e persone interessate coinvolti, anche attraverso l'istruzione e la formazione, programmi di riqualificazione e sviluppo delle competenze e garantendo nel contempo un corretto equilibrio di genere e di età, nell'ottica di consentire un controllo democratico dei sistemi di IA.
2. I fornitori e gli operatori dei sistemi di IA adottano misure per garantire un livello sufficiente di alfabetizzazione in materia di IA del loro personale nonché di qualsiasi altra persona che si occupa del funzionamento e dell'utilizzo dei sistemi di IA per loro conto, prendendo in considerazione le loro conoscenze tecniche, la loro esperienza, istruzione e formazione nonché il contesto in cui i sistemi di IA devono essere utilizzati, e tenendo conto delle persone o dei gruppi di persone su cui i sistemi di IA devono essere utilizzati.
3. Tali misure di alfabetizzazione consistono in particolare nell'insegnamento di competenze e nozioni di base relative ai sistemi di IA e al loro funzionamento, compresi i vari tipi di prodotti e utilizzi, i loro rischi e i loro vantaggi.
4. Il livello di alfabetizzazione in materia di IA è considerato sufficiente se contribuisce, ove necessario, alla capacità dei fornitori e degli operatori di assicurare la conformità e l'applicazione del presente regolamento.
Emendamento 215 Proposta di regolamento Articolo 5 – paragrafo 1 – lettera a
a) l'immissione sul mercato, la messa in servizio o l'uso di un sistema di IA che utilizza tecniche subliminali che agiscono senza che una persona ne sia consapevole al fine di distorcerne materialmente il comportamento in un modo che provochi o possa provocare a tale persona o a un'altra persona un danno fisico o psicologico;
a) l'immissione sul mercato, la messa in servizio o l'uso di un sistema di IA che utilizza tecniche subliminali che agiscono senza che una persona ne sia consapevole o tecniche volutamente manipolative o ingannevoli aventi lo scopo o l'effetto di distorcere materialmente il comportamento di una persona o di un gruppo di persone, pregiudicando in modo considerevole la capacità della persona di prendere una decisione informata, inducendo pertanto la persona a prendere una decisione che non avrebbe altrimenti preso, in un modo che provochi o possa provocare a tale persona, a un'altra persona o a gruppo di persone un danno significativo;
Il divieto di sistemi di IA che utilizzano tecniche subliminali di cui al primo comma non si applica ai sistemi di IA destinati a essere utilizzati per scopi terapeutici approvati sulla base del consenso informato specifico delle persone che sono esposte a tali tecniche o, se del caso, del loro tutore legale;
Emendamento 216 Proposta di regolamento Articolo 5 – paragrafo 1 – lettera b
b) l'immissione sul mercato, la messa in servizio o l'uso di un sistema di IA che sfrutta le vulnerabilità di uno specifico gruppo di persone, dovute all'etàb alla disabilità fisica o mentale, al fine di distorcere materialmente il comportamento di una persona che appartiene a tale gruppo in un modo che provochi o possa provocare a tale persona o a un'altra persona un danno fisico o psicologico;
b) l'immissione sul mercato, la messa in servizio o l'uso di un sistema di IA che sfrutta le vulnerabilità di una persona o di un gruppo specifico di persone, comprese le caratteristiche note o previste della personalitàodella situazione sociale o economica, dell'età, della capacità fisica o mentale di tale persona o di tale gruppo allo scopo o avente l'effetto di distorcere materialmente il comportamento di tale persona o di una persona appartenente tale gruppo in un modo che provochi o possa provocare a tale persona o a un'altra persona un danno significativo;
Emendamento 217 Proposta di regolamento Articolo 5 – paragrafo 1 – lettera b bis (nuova)
b bis) l'immissione sul mercato, la messa in servizio o l'uso di sistemi di categorizzazione biometrica che classificano le persone fisiche in base ad attributi o caratteristiche sensibili o protetti o basati sulla deduzione di tali attributi o caratteristiche. Tale divieto non si applica ai sistemi di IA destinati a essere utilizzati per scopi terapeutici approvati sulla base del consenso informato specifico delle persone che sono esposte a tali tecniche o, se del caso, del loro tutore legale;
Emendamento 218 Proposta di regolamento Articolo 5 – paragrafo 1 – lettera c – parte introduttiva
c) l'immissione sul mercato, la messa in servizio o l'uso di sistemi di IA da parte delle autorità pubbliche o per loro conto ai fini della valutazione o della classificazione dell'affidabilità delle persone fisiche per un determinato periodo di tempo sulla base del loro comportamento sociale o di caratteristiche personali o della personalità note o previste, in cui il punteggio sociale così ottenuto comporti il verificarsi di uno o di entrambi i seguenti scenari:
c) l'immissione sul mercato, la messa in servizio o l'uso di sistemi di IA ai fini della valutazione o della classificazione del punteggio sociale di persone fisiche o di un gruppo di persone fisiche per un determinato periodo di tempo sulla base del loro comportamento sociale o di caratteristiche personali o della personalità note, dedotte o previste, in cui il punteggio sociale così ottenuto comporti il verificarsi di uno o di entrambi i seguenti scenari:
Emendamento 219 Proposta di regolamento Articolo 5 – paragrafo 1 – lettera c – punto i
i) un trattamento pregiudizievole o sfavorevole di determinate persone fisiche o di interi gruppi di persone fisiche in contesti sociali che non sono collegati ai contesti in cui i dati sono stati originariamente generati o raccolti;
i) (Non concerne la versione italiana)
Emendamento 220 Proposta di regolamento Articolo 5 – paragrafo 1 – lettera d – parte introduttiva
d) l'uso di sistemi di identificazione biometrica remota "in tempo reale" in spazi accessibili al pubblico a fini di attività di contrasto, a meno che e nella misura in cui tale uso sia strettamente necessario per uno dei seguenti obiettivi:
d) l'uso di sistemi di identificazione biometrica remota "in tempo reale" in spazi accessibili al pubblico;
Emendamento 221 Proposta di regolamento Articolo 5 – paragrafo 1 – lettera d – punto i
i) la ricerca mirata di potenziali vittime specifiche di reato, compresi i minori scomparsi;
soppresso
Emendamento 222 Proposta di regolamento Articolo 5 – paragrafo 1 – lettera d – punto ii
ii) la prevenzione di una minaccia specifica, sostanziale e imminente per la vita o l'incolumità fisica delle persone fisiche o di un attacco terroristico;
soppresso
Emendamento 223 Proposta di regolamento Articolo 5 – paragrafo 1 – lettera d – punto iii
iii) il rilevamento, la localizzazione, l'identificazione o l'azione penale nei confronti di un autore o un sospettato di un reato di cui all'articolo 2, paragrafo 2, della decisione quadro 2002/584/GAI del Consiglio62, punibile nello Stato membro interessato con una pena o una misura di sicurezza privativa della libertà della durata massima di almeno tre anni, come stabilito dalla legge di tale Stato membro.
soppresso
__________________
62 Decisione quadro del Consiglio 2002/584/GAI, del 13 giugno 2002, relativa al mandato d'arresto europeo e alle procedure di consegna tra Stati membri (GU L 190 del 18.7.2002, pag. 1).
Emendamento 224 Proposta di regolamento Articolo 5 – paragrafo 1 – lettera d bis (nuova)
d bis) l'immissione sul mercato, la messa in servizio o l'uso di un sistema di IA per effettuare valutazioni di rischio riguardo a persone fisiche o gruppi di persone fisiche al fine di valutare il rischio di reato o di recidiva di una persona fisica o per prevedere il verificarsi o il ripetersi di un reato o di un illecito amministrativo effettivo o potenziale sulla base della profilazione di una persona fisica o della valutazione dei tratti e delle caratteristiche della personalità, compresa l'ubicazione della persona, o del comportamento criminale pregresso di persone fisiche o di gruppi di persone fisiche;
Emendamento 225 Proposta di regolamento Articolo 5 – paragrafo 1 – lettera d ter (nuova)
d ter) L'immissione sul mercato, la messa in servizio o l'uso di sistemi di IA che creano o ampliano le banche dati di riconoscimento facciale mediante scraping non mirato di immagini facciali da internet o da filmati di telecamere a circuito chiuso;
Emendamento 226 Proposta di regolamento Articolo 5 – paragrafo 1 – lettera d quater (nuova)
d quater) l'immissione sul mercato, la messa in servizio o l'uso di sistemi di IA per dedurre le emozioni di una persona fisica nei settori dell'applicazione della legge, della gestione delle frontiere, sul luogo di lavoro e negli istituti di insegnamento.
Emendamento 227 Proposta di regolamento Articolo 5 – paragrafo 1 – lettera d quinquies (nuova)
d quinquies) la messa in servizio o l'uso di sistemi di IA per l'analisi di filmati registrati di spazi accessibili al pubblico attraverso sistemi di identificazione biometrica remota "a posteriori", a meno che non siano soggetti a previa autorizzazione giudiziaria conformemente alla normativa dell'Unione e siano strettamente necessari per la ricerca mirata collegata a uno specifico reato grave quale definito all'articolo 83, paragrafo 1, TFUE, già avvenuto a fini di contrasto.
Emendamento 228 Proposta di regolamento Articolo 5 – paragrafo 1 bis (nuovo)
1 bis. Il presente articolo lascia impregiudicati i divieti che si applicano qualora una pratica di intelligenza artificiale violi un altro atto legislativo dell'Unione, tra cui l'acquis dell'UE in materia di protezione dei dati, non discriminazione, tutela dei consumatori o concorrenza;
Emendamento 229 Proposta di regolamento Articolo 5 – paragrafo 2
2. L'uso di sistemi di identificazione biometrica remota "in tempo reale" in spazi accessibili al pubblico a fini di attività di contrasto per uno qualsiasi degli obiettivi di cui al paragrafo 1, lettera d), tiene conto dei seguenti elementi:
soppresso
a) la natura della situazione che dà luogo al possibile uso, in particolare la gravità, la probabilità e l'entità del danno causato dal mancato uso del sistema;
b) le conseguenze dell'uso del sistema per i diritti e le libertà di tutte le persone interessate, in particolare la gravità, la probabilità e l'entità di tali conseguenze.
L'uso di sistemi di identificazione biometrica remota "in tempo reale" in spazi accessibili al pubblico a fini di attività di contrasto per uno qualsiasi degli obiettivi di cui al paragrafo 1, lettera d), rispetta inoltre le tutele e le condizioni necessarie e proporzionate in relazione all'uso, in particolare per quanto riguarda le limitazioni temporali, geografiche e personali.
Emendamento 230 Proposta di regolamento Articolo 5 – paragrafo 3
3. Per quanto riguarda il paragrafo 1, lettera d), e il paragrafo 2, ogni singolo uso di un sistema di identificazione biometrica remota "in tempo reale" in spazi accessibili al pubblico a fini di attività di contrasto è subordinato a un'autorizzazione preventiva rilasciata da un'autorità giudiziaria o da un'autorità amministrativa indipendente dello Stato membro in cui deve avvenire l'uso, rilasciata su richiesta motivata e in conformità alle regole dettagliate del diritto nazionale di cui al paragrafo 4. Tuttavia, in una situazione di urgenza debitamente giustificata, è possibile iniziare a usare il sistema senza autorizzazione e richiedere l'autorizzazione solo durante o dopo l'uso.
soppresso
L'autorità giudiziaria o amministrativa competente rilascia l'autorizzazione solo se ha accertato, sulla base di prove oggettive o indicazioni chiare che le sono state presentate, che l'uso del sistema di identificazione biometrica remota "in tempo reale" in questione è necessario e proporzionato al conseguimento di uno degli obiettivi di cui al paragrafo 1, lettera d), come indicato nella richiesta. Nel decidere in merito alla richiesta, l'autorità giudiziaria o amministrativa competente tiene conto degli elementi di cui al paragrafo 2.
Emendamento 231 Proposta di regolamento Articolo 5 – paragrafo 4
4. Uno Stato membro può decidere di prevedere la possibilità di autorizzare in tutto o in parte l'uso di sistemi di identificazione biometrica remota "in tempo reale" in spazi accessibili al pubblico a fini di attività di contrasto, entro i limiti e alle condizioni di cui al paragrafo 1, lettera d), e ai paragrafi 2 e 3. Tale Stato membro stabilisce nel proprio diritto nazionale le necessarie regole dettagliate per la richiesta, il rilascio, l'esercizio delle autorizzazioni di cui al paragrafo 3, nonché per le attività di controllo ad esse relative. Tali regole specificano inoltre per quali degli obiettivi elencati al paragrafo 1, lettera d), compresi i reati di cui al punto iii), le autorità competenti possono essere autorizzate ad utilizzare tali sistemi a fini di attività di contrasto.
soppresso
Emendamento 232 Proposta di regolamento Articolo 6 – paragrafo 1 – lettera a
a) il sistema di IA è destinato a essere utilizzato come componente di sicurezza di un prodotto, o è esso stesso un prodotto, disciplinato dalla normativa di armonizzazione dell'Unione elencata nell'allegato II;
a) il sistema di IA è destinato a essere utilizzato come componente di sicurezza di un prodotto, o il sistema di IA è esso stesso un prodotto, disciplinato dalla normativa di armonizzazione dell'Unione elencata nell'allegato II;
Emendamento 233 Proposta di regolamento Articolo 6 – paragrafo 1 – lettera b
b) il prodotto, il cui componente di sicurezza è il sistema di IA, o il sistema di IA stesso in quanto prodotto è soggetto a una valutazione della conformità da parte di terzi ai fini dell'immissione sul mercato o della messa in servizio di tale prodotto ai sensi della normativa di armonizzazione dell'Unione elencata nell'allegato II.
b) il prodotto, il cui componente di sicurezza ai sensi della lettera a) è il sistema di IA, o il sistema di IA stesso in quanto prodotto è soggetto a una valutazione della conformità da parte di terzi in relazione ai rischi per la salute e la sicurezza ai fini dell'immissione sul mercato o della messa in servizio di tale prodotto ai sensi della normativa di armonizzazione dell'Unione elencata nell'allegato II;
Emendamento 234 Proposta di regolamento Articolo 6 – paragrafo 2
2. Oltre ai sistemi di IA ad alto rischio di cui al paragrafo 1, sono considerati ad alto rischio anche i sistemi di IA di cui all'allegato III.
2. Oltre ai sistemi di IA ad alto rischio di cui al paragrafo 1, sono considerati ad alto rischio i sistemi di IA che rientrano in uno o più settori critici e casi d'uso di cui all'allegato III, se presentano un rischio significativo di danno per la salute umana, la sicurezza o i diritti fondamentali delle persone fisiche. Qualoraun sistema di IA rientri nell'allegato III, punto 2, è considerato ad alto rischio se presenta un rischio significativo di danno per l'ambiente.
Sei mesi prima dell'entrata in vigore del presente regolamento, la Commissione, previa consultazione dell'ufficio per l'IA e dei pertinenti portatori di interessi, fornisce orientamenti che specificano chiaramente le circostanze in cui l'output dei sistemi di IA di cui all'allegato III comporterebbe un rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche o i casi in cui non lo farebbe.
Emendamento 235 Proposta di regolamento Articolo 6 – paragrafo 2 bis (nuovo)
2 bis. Se i fornitori che rientrano in uno o più dei settori critici e dei casi d'uso di cui all'allegato III ritengono che il loro sistema di IA non presenti un rischio significativo come descritto al paragrafo 2, essi presentano all'autorità nazionale di vigilanza una notifica motivata attestante che non sono soggetti ai requisiti di cui al titolo III, capo 2, del presente regolamento. Se il sistema di IA è destinato a essere utilizzato in due o più Stati membri, tale notifica è indirizzata all'ufficio per l'IA. Fatto salvo l'articolo 65, l'autorità nazionale di vigilanza esamina la notifica e vi risponde, direttamente o tramite l'ufficio per l'IA, entro tre mesi se ritiene che il sistema di IA sia classificato erroneamente.
Emendamento 236 Proposta di regolamento Articolo 6 – paragrafo 2 ter (nuovo)
2 ter. I fornitori che classificano erroneamente il loro sistema di IA come non soggetto ai requisiti di cui al titolo III, capo 2, del presente regolamento e lo immettono sul mercato prima del termine per sollevare obiezioni da parte delle autorità nazionali di vigilanza sono soggetti a sanzioni pecuniarie a norma dell'articolo 71.
2 quater. Le autorità nazionali di vigilanza presentano all'ufficio per l'IA una relazione annuale che illustra nel dettaglio il numero di notifiche ricevute, le relative aree ad alto rischio in questione e le decisioni adottate in merito alle notifiche ricevute.
Emendamento 238 Proposta di regolamento Articolo 7 – paragrafo 1 – parte introduttiva
1. Alla Commissione è conferito il potere di adottare atti delegati conformemente all'articolo 73 al fine di aggiornare l'elenco di cui all'allegato III aggiungendo sistemi di IA ad alto rischio se sono soddisfatte entrambe le condizioni seguenti:
1. Alla Commissione è conferito il potere di adottare atti delegati conformemente all'articolo 73 al fine di modificare l'allegato III, aggiungendo o modificando settori o casi d'uso di sistemi di IA ad alto rischio, se questi presentano un rischio di danno per la salute e la sicurezza, di un impatto negativo sui diritti fondamentali, sull'ambiente o sulla democrazia e sullo Stato di diritto e tale rischio è, in relazione alla sua gravità e alla probabilità di insorgenza, equivalente o superiore al rischio di danno o di impatto negativo presentato dai sistemi di IA ad alto rischio già indicati nell'allegato III.
Emendamento 239 Proposta di regolamento Articolo 7 – paragrafo 1 – lettera a
a) i sistemi di IA sono destinati a essere usati in uno dei settori elencati ai punti da 1 a 8 dell'allegato III;
soppresso
Emendamento 240 Proposta di regolamento Articolo 7 – paragrafo 1 – lettera b
b) i sistemi di IA presentano un rischio di danno per la salute e la sicurezza, o un rischio di impatto negativo sui diritti fondamentali, che è, in relazione alla sua gravità e alla probabilità che si verifichi, equivalente o superiore al rischio di danno o di impatto negativo presentato dai sistemi di IA ad alto rischio di cui all'allegato III.
soppresso
Emendamento 241 Proposta di regolamento Articolo 7 – paragrafo 1 bis (nuovo)
1 bis. Alla Commissione è inoltre conferito il potere di adottare atti delegati conformemente all'articolo 73 al fine di rimuovere casi d'uso di sistemi di IA ad alto rischio dall'elenco di cui all'allegato III se non sussistono più le condizioni di cui al paragrafo 1;
Emendamento 242 Proposta di regolamento Articolo 7 – paragrafo 2 – parte introduttiva
2. Nel valutare, ai fini del paragrafo 1, se un sistema di IA presenti un rischio di danno per la salute e la sicurezza o un rischio di impatto negativo sui diritti fondamentali equivalente o superiore al rischio di danno presentato dai sistemidi IA ad alto rischio di cui all'allegato III, la Commissione tiene conto dei criteri seguenti:
2. Nel valutare, ai fini dei paragrafi 1 e 1 bis, un sistema di IA, la Commissione tiene conto dei criteri seguenti:
Emendamento 243 Proposta di regolamento Articolo 7 – paragrafo 2 – lettera a bis (nuova)
a bis) le capacità e funzionalità generali del sistema di IA indipendentemente dalla sua finalità prevista;
Emendamento 244 Proposta di regolamento Articolo 7 – paragrafo 2 – lettera b bis (nuova)
b bis) la natura e la quantità dei dati trattati e utilizzati dal sistema di IA;
Emendamento 245 Proposta di regolamento Articolo 7 – paragrafo 2 – lettera b ter (nuova)
b ter) la misura in cui il sistema di IA agisce in modo autonomo;
Emendamento 246 Proposta di regolamento Articolo 7 – paragrafo 2 – lettera c
c) la misura in cui l'uso di un sistema di IA ha già causato un danno alla salute e alla sicurezza o un impatto negativo sui diritti fondamentali o ha suscitato gravi preoccupazioni in relazione al verificarsi di tale danno o impatto negativo, come dimostrato da relazioni o da prove documentate presentate alle autorità nazionali competenti;
c) la misura in cui l'uso di un sistema di IA ha già causato un danno alla salute e alla sicurezza, ha avuto un impatto negativo sui diritti fondamentali, sull'ambiente, sulla democrazia e sullo Stato di diritto o ha suscitato gravi preoccupazioni in relazione alla probabilità di tale danno o impatto negativo, come dimostrato ad esempio da relazioni o da prove documentate presentate alle autorità nazionali di vigilanza, alla Commissione, all'ufficio per l'IA, al GEPD o all'Agenzia dell'Unione europea per i diritti fondamentali;
Emendamento 247 Proposta di regolamento Articolo 7 – paragrafo 2 – lettera d
d) la portata potenziale di tale danno o di tale impatto negativo, in particolare in termini di intensità e capacità di incidere su una pluralità di persone;
d) la portata potenziale di tale danno o di tale impatto negativo, in particolare in termini di intensità e capacità di incidere su una pluralità di persone o di incidere in modo sproporzionato su un particolare gruppo di persone;
Emendamento 248 Proposta di regolamento Articolo 7 – paragrafo 2 – lettera e
e) la misura in cui le persone che potrebbero subire il danno o l'impatto negativo dipendono dal risultato prodotto da un sistema di IA, in particolare perché per motivi pratici o giuridici non è ragionevolmente possibile sottrarsi a tale risultato;
e) la misura in cui le persone che potrebbero subire il danno o l'impatto negativo dipendono dall'output prodotto coinvolgendo un sistema di IA, e tale output è puramente accessorio rispetto all'azione o alla decisione pertinente da adottare, in particolare perché per motivi pratici o giuridici non è ragionevolmente possibile sottrarsi a tale output;
Emendamento 249 Proposta di regolamento Articolo 7 – paragrafo 2 – lettera e bis (nuova)
e bis) il potenziale uso improprio e doloso del sistema di IA e della tecnologia alla base dello stesso;
Emendamento 250 Proposta di regolamento Articolo 7 – paragrafo 2 – lettera f
f) la misura in cui le persone che potrebbero subire il danno o l'impatto negativo si trovano in una posizione vulnerabile rispetto all'utente di un sistema di IA, in particolare a causa di uno squilibrio di potere, conoscenza, situazione economica o sociale o età;
f) la misura in cui esiste uno squilibrio di potere o le persone che potrebbero subire il danno o l'impatto negativo si trovano in una posizione vulnerabile rispetto all'utente di un sistema di IA, in particolare a causa della condizione, autorità, conoscenza, situazione economica o sociale o età;
Emendamento 251 Proposta di regolamento Articolo 7 – paragrafo 2 – lettera g
g) la misura in cui il risultato prodotto con un sistema di IA è facilmente reversibile, considerando non facilmente reversibili i risultati che hanno un impatto sulla salute o sulla sicurezza delle persone;
g) la misura in cui il risultato prodotto coinvolgendo un sistema di IA è facilmente reversibile o correggibile, considerando non facilmente reversibili i risultati che hanno un impatto nocivo sulla salute, sulla sicurezza, sui diritti fondamentali delle persone, sull'ambiente, o sulla democrazia e lo Stato di diritto;
Emendamento 252 Proposta di regolamento Articolo 7 – paragrafo 2 – lettera g bis (nuova)
g bis) l'entità della disponibilità e dell'uso di soluzioni e meccanismi tecnici efficaci per il controllo, l'affidabilità e la correggibilità del sistema di IA;
Emendamento 253 Proposta di regolamento Articolo 7 – paragrafo 2 – lettera g ter (nuova)
g ter) l'entità e la probabilità di beneficio derivante dalla diffusione del sistema di IA per le persone, i gruppi o la società in generale, compresi i possibili miglioramenti della sicurezza del prodotto;
Emendamento 254 Proposta di regolamento Articolo 7 – paragrafo 2 – lettera g quater (nuova)
g quater) l'entità della sorveglianza umana e la possibilità per un essere umano di intervenire al fine di annullare una decisione o raccomandazioni che possano causare un danno potenziale;
Emendamento 255 Proposta di regolamento Articolo 7 – paragrafo 2 – lettera h
i) misure di ricorso efficaci in relazione ai rischi presentati da un sistema di IA, ad esclusione delle richieste di risarcimento del danno;
h) la misura in cui la legislazione vigente dell'Unione prevede:
i) misure di ricorso efficaci in relazione al danno causato da un sistema di IA, ad esclusione delle richieste di risarcimento del danno diretto o indiretto;
ii) misure efficaci per prevenire o ridurre sostanzialmente tali rischi.
Emendamento 256 Proposta di regolamento Articolo 7 – paragrafo 2 bis (nuovo)
2 bis. Nel valutare un sistema di IA ai fini dei paragrafi 1 o 1 bis, la Commissione consulta l'ufficio per l'IA e, se del caso, i rappresentanti dei gruppi sui quali un sistema di IA ha un impatto, il settore, gli esperti indipendenti, le parti sociali e le organizzazioni della società civile. La Commissione organizza inoltre consultazioni pubbliche al riguardo e rende pubblici i risultati di tali consultazioni e della valutazione finale;
Emendamento 257 Proposta di regolamento Articolo 7 – paragrafo 2 ter (nuovo)
2 ter. L'ufficio per l'IA, le autorità nazionali di controllo o il Parlamento europeo possono chiedere alla Commissione di rivalutare e riclassificare la categorizzazione del rischio di un sistema di IA conformemente ai paragrafi 1 e 1 bis. La Commissione motiva la sua decisione e pubblica i motivi.
Emendamento 258 Proposta di regolamento Articolo 8 – paragrafo 1 bis (nuovo)
1 bis. Nel rispettare i requisiti stabiliti nel presente capo, si tiene debitamente conto degli orientamenti elaborati di cui all'articolo 82 ter e dello stato dell'arte generalmente riconosciuto, anche come indicato nelle pertinenti norme armonizzate e nelle specifiche comuni di cui agli articoli 40 e 41 o in quelle già stabilite nella normativa di armonizzazione dell'Unione.
Emendamento 259 Proposta di regolamento Articolo 8 – paragrafo 2
2. Nel garantire conformità a tali requisiti si tiene conto della finalità prevista del sistema di IA ad alto rischio e del sistema di gestione dei rischi di cui all'articolo 9.
2. Nel garantire conformità a tali requisiti si tiene conto della finalità prevista del sistema di IA ad alto rischio,degli usi impropri ragionevolmente prevedibili e del sistema di gestione dei rischi di cui all'articolo 9.
Emendamento 260 Proposta di regolamento Articolo 8 – paragrafo 2 bis (nuovo)
2 bis. Purché i requisiti di cui al titolo III, capi 2 e 3, o al titolo VIII, capi 1, 2 e 3, per i sistemi di IA ad alto rischio siano contemplati dalla normativa di armonizzazione dell'Unione elencata nell'allegato II, sezione A, i requisiti o gli obblighi previsti nei suddetti capi del presente regolamento sono considerati soddisfatti, purché includano la componente di IA. I requisiti di cui al titolo III, capi 2 e 3, o al titolo VIII, capi 1, 2 e 3, per i sistemi di IA ad alto rischio non contemplati dalla normativa di armonizzazione dell'Unione elencata nell'allegato II, sezione A, sono integrati, se del caso, in tale normativa di armonizzazione dell'Unione. La pertinente valutazione della conformità è effettuata nell'ambito delle procedure stabilite conformemente alla normativa di armonizzazione dell'Unione elencata nell'allegato II, sezione A.
Emendamento 261 Proposta di regolamento Articolo 9 – paragrafo 1
1. In relazione ai sistemi di IA ad alto rischio è istituito, attuato, documentato e mantenuto un sistema di gestione dei rischi.
1. In relazione ai sistemi di IA ad alto rischio è istituito, attuato, documentato e mantenuto un sistema di gestione dei rischi nel corso dell'intero ciclo di vita del sistema di IA. È possibile integrare il sistema di gestione dei rischi, o una parte di esso, nelle procedure di gestione dei rischi già esistenti relative alla pertinente normativa settoriale dell'Unione, nella misura in cui ciò rispetti i requisiti del presente articolo.
Emendamento 262 Proposta di regolamento Articolo 9 – paragrafo 2 – parte introduttiva
2. Il sistema di gestione dei rischi è costituito da un processo iterativo continuo eseguito nel corso dell'intero ciclo di vita di un sistema di IA ad alto rischio, che richiede un aggiornamento costante e sistematico. Esso comprende le fasi seguenti:
2. Il sistema di gestione dei rischi è costituito da un processo iterativo continuo eseguito nel corso dell'intero ciclo di vita di un sistema di IA ad alto rischio, che richiede un riesame e un aggiornamento costanti del processo di gestione dei rischi, per garantirne l'efficacia costante, nonché la documentazione delle eventuali decisioni e azioni significative adottate a norma del presente articolo. Esso comprende le fasi seguenti:
Emendamento 263 Proposta di regolamento Articolo 9 – paragrafo 2 – lettera a
a) identificazione e analisi dei rischi noti e prevedibili associati a ciascun sistema di IA ad alto rischio;
a) identificazione, stima e valutazione dei rischi noti e ragionevolmente prevedibili che il sistema di IA ad alto rischio può presentare per la salute o la sicurezza delle persone fisiche, i loro diritti fondamentali, tra cui la parità di accesso e opportunità, la democrazia e lo Stato di diritto o l'ambiente, quando il sistema di IA ad alto rischio è usato conformemente alla sua finalità prevista e in condizioni di uso improprio ragionevolmente prevedibile;
Emendamento 264 Proposta di regolamento Articolo 9 – paragrafo 2 – lettera b
b) stima e valutazione dei rischi che possono emergere quando il sistema di IA ad alto rischio è usato conformemente alla sua finalità prevista e in condizioni di uso improprio ragionevolmente prevedibile;
soppresso
Emendamento 265 Proposta di regolamento Articolo 9 – paragrafo 2 – lettera c
c) valutazione di altri eventuali rischi derivanti dall'analisi dei dati raccolti dal sistema di monitoraggio successivo all'immissione sul mercato di cui all'articolo 61;
c) valutazione dell'emergere di rischi significativi quali descritti alla lettera a) e individuati sulla base dell'analisi dei dati raccolti dal sistema di monitoraggio successivo all'immissione sul mercato di cui all'articolo 61;
Emendamento 266 Proposta di regolamento Articolo 9 – paragrafo 2 – lettera d
d) adozione di adeguate misure di gestione dei rischi conformemente alle disposizioni dei paragrafi seguenti.
d) adozione di misure di gestione dei rischi adeguate e mirate, concepite per far fronte ai rischi individuati di cui alle lettere a) e b) del presente paragrafo, conformemente alle disposizioni dei paragrafi seguenti.
Emendamento 267 Proposta di regolamento Articolo 9 – paragrafo 3
3. Le misure di gestione dei rischi di cui al paragrafo 2, lettera d), tengono in debita considerazione gli effetti e le possibili interazioni derivanti dall'applicazione combinata dei requisiti di cui al presente capo 2. Esse tengono conto dello stato dell'arte generalmente riconosciuto, anche come indicato nelle pertinenti norme armonizzate o specifiche comuni.
3. Le misure di gestione dei rischi di cui al paragrafo 2, lettera d), tengono in debita considerazione gli effetti e le possibili interazioni derivanti dall'applicazione combinata dei requisiti di cui al presente capo 2, con l'obiettivo di attenuare i rischi in modo efficace garantendo nel contempo un'attuazione adeguata e proporzionata dei requisiti.
Emendamento 268 Proposta di regolamento Articolo 9 – paragrafo 4 – parte introduttiva
4. Le misure di gestione dei rischi di cui al paragrafo 2, lettera d), sono tali che qualsiasi rischio residuo associato a ciascun pericolo nonché il rischio residuo complessivo dei sistemi di IA ad alto rischio sono considerati accettabili, a condizione che il sistema di IA ad alto rischio sia usato conformemente alla sua finalità prevista o in condizioni di uso improprio ragionevolmente prevedibile. Tali rischi residui sono comunicati all'utente.
4. Le misure di gestione dei rischi di cui al paragrafo 2, lettera d), sono tali che il rischio residuo significativo associato a ciascun pericolo nonché il rischio residuo complessivo dei sistemi di IA ad alto rischio sono ragionevolmente considerati accettabili, a condizione che il sistema di IA ad alto rischio sia usato conformemente alla sua finalità prevista o in condizioni di uso improprio ragionevolmente prevedibile. Tali rischi residui e i giudizi motivati formulati sono comunicati all'operatore.
Nell'individuare le misure di gestione dei rischi più appropriate, occorre garantire quanto segue:
Emendamento 269 Proposta di regolamento Articolo 9 – paragrafo 4 – comma 1 – lettera a
a) l'eliminazione o la riduzione dei rischi per quanto possibile attraverso un'adeguata progettazione e fabbricazione;
a) l'eliminazione o la riduzione dei rischi individuati, per quanto tecnicamente fattibile, attraverso un'adeguata progettazione e fabbricazione del sistema di IA ad alto rischio, se del caso con la partecipazione di esperti e portatori di interessi esterni;
Emendamento 270 Proposta di regolamento Articolo 9 – paragrafo 4 – comma 1 – lettera b
b) ove opportuno, l'attuazione di adeguate misure di attenuazione e di controllo in relazione ai rischi che non possono essere eliminati;
b) ove opportuno, l'attuazione di adeguate misure di attenuazione e di controllo per far fronte ai rischi significativi che non possono essere eliminati;
Emendamento 271 Proposta di regolamento Articolo 9 – paragrafo 4 – comma 1 – lettera c
c) la fornitura di informazioni adeguate a norma dell'articolo 13, in particolare per quanto riguarda i rischi di cui al paragrafo 2, lettera b), del presente articolo e, ove opportuno, la formazione degli utenti.
c) la fornitura delle informazioni richieste a norma dell'articolo 13 e, ove opportuno, la formazione degli operatori.
Nell'eliminare o ridurre i rischi connessi all'uso del sistema di IA ad alto rischio, si tengono debitamente in considerazione le conoscenze tecniche, l'esperienza, l'istruzione e la formazione che ci si può aspettare dall'utente e l'ambiente in cui il sistema è destinato ad essere usato.
Nell'eliminare o ridurre i rischi connessi all'uso del sistema di IA ad alto rischio, i fornitori tengono debitamente in considerazione le conoscenze tecniche, l'esperienza, l'istruzione e la formazione di cui l'operatore può avere bisogno, anche in relazione al contesto di utilizzo presumibile.
Emendamento 273 Proposta di regolamento Articolo 9 – paragrafo 5
5. I sistemi di IA ad alto rischio sono sottoposti a prova al fine di individuare le misure di gestione dei rischi più appropriate. Le prove garantiscono che i sistemi di IA ad alto rischio funzionino in modo coerente per la finalità prevista e che siano conformi ai requisiti di cui al presente capo.
5. I sistemi di IA ad alto rischio sono sottoposti a prova al fine di individuare le misure di gestione dei rischi più appropriate e mirate, nonché di ponderare tali misure rispetto ai potenziali benefici e agli obiettivi previsti del sistema. Le prove garantiscono che i sistemi di IA ad alto rischio funzionino in modo coerente per la finalità prevista e che siano conformi ai requisiti di cui al presente capo.
Emendamento 274 Proposta di regolamento Articolo 9 – paragrafo 6
6. Le procedure di prova sono idonee a conseguire la finalità prevista del sistema di IA e non devono andare al di là di quanto necessario per conseguire tale finalità.
6. Le procedure di prova sono idonee a conseguire la finalità prevista del sistema di IA.
Emendamento 275 Proposta di regolamento Articolo 9 – paragrafo 7
7. Le prove dei sistemi di IA ad alto rischio sono effettuate, a seconda dei casi, in un qualsiasi momento dell'intero processo di sviluppo e, in ogni caso, prima dell'immissione sul mercato o della messa in servizio. Le prove sono effettuate sulla base di metriche e soglie probabilistiche definite in via preliminare e adeguate alla finalità prevista perseguita dal sistema di IA ad alto rischio.
7. Le prove dei sistemi di IA ad alto rischio sono effettuate prima dell'immissione sul mercato o della messa in servizio. Le prove sono effettuate sulla base di metriche e soglie probabilistiche definite in precedenza e adeguate alla finalità prevista perseguita dal sistema di IA ad alto rischio o al suo uso improprio ragionevolmente prevedibile.
Emendamento 276 Proposta di regolamento Articolo 9 – paragrafo 8
8. Nell'attuare il sistema di gestione dei rischi di cui ai paragrafi da 1 a 7, è prestata particolare attenzione all'eventualità che il sistema di IA ad alto rischio sia accessibile ai minori o abbia un impatto su di essi.
8. Nell'attuare il sistema di gestione dei rischi di cui ai paragrafi da 1 a 7, i fornitori prestano particolare attenzione all'eventualità che il sistema di IA ad alto rischio possa avere un impatto negativo sui gruppi di persone vulnerabili o sui minori.
Emendamento 277 Proposta di regolamento Articolo 9 – paragrafo 9
9. Per gli enti creditizi disciplinati dalla direttiva 2013/36/UE, gli aspetti descritti ai paragrafi da 1 a 8 fanno parte delle procedure di gestione dei rischi stabilite da tali enti a norma dell'articolo 74 di tale direttiva.
9. Per i fornitori e i sistemi di IA già contemplati dal diritto dell'Unione che impone loro di predisporre sistemi specifici di gestione dei rischi, compresi gli enti creditizi disciplinati dalla direttiva 2013/36/UE, gli aspetti descritti ai paragrafi da 1 a 8 fanno parte delle procedure di gestione dei rischi stabilite dal suddetto diritto dell'Unione, o sono combinati con tali procedure.
Emendamento 278 Proposta di regolamento Articolo 10 – paragrafo 1
1. I sistemi di IA ad alto rischio che utilizzano tecniche che prevedono l'uso di dati per l'addestramento di modelli sono sviluppati sulla base di set di dati di addestramento, convalida e prova che soddisfano i criteri di qualità di cui ai paragrafi da 2 a 5.
1. I sistemi di IA ad alto rischio che utilizzano tecniche che prevedono l'uso di dati per l'addestramento di modelli sono sviluppati sulla base di set di dati di addestramento, convalida e prova che soddisfano i criteri di qualità di cui ai paragrafi da 2 a 5 nella misura in cui ciò sia tecnicamente fattibile secondo lo specifico segmento di mercato o campo di applicazione.
Le tecniche che non richiedono dati di input etichettati, come l'apprendimento non supervisionato e l'apprendimento per rinforzo, sono sviluppate sulla base di set di dati, ad esempio per le prove e le verifiche, che soddisfano i criteri di qualità di cui ai paragrafi da 2 a 5.
Emendamento 279 Proposta di regolamento Articolo 10 – paragrafo 2 – parte introduttiva
2. I set di dati di addestramento, convalida e prova sono soggetti ad adeguate pratiche di governance e gestione dei dati. Tali pratiche riguardano in particolare:
2. I set di dati di addestramento, convalida e prova sono soggetti a misure di governance dei dati adeguate al contesto di utilizzo come pure alla finalità prevista del sistema di IA. Tali misure riguardano in particolare:
Emendamento 280 Proposta di regolamento Articolo 10 – paragrafo 2 – lettera a bis (nuova)
a bis) la trasparenza riguardo alla finalità originaria della raccolta dei dati;
Emendamento 281 Proposta di regolamento Articolo 10 – paragrafo 2 – lettera b
b) la raccolta dei dati;
b) i processi di raccolta dei dati;
Emendamento 282 Proposta di regolamento Articolo 10 – paragrafo 2 – lettera c
c) le operazioni di trattamento pertinenti ai fini della preparazione dei dati, quali annotazione, etichettatura, pulizia, arricchimento e aggregazione;
c) le operazioni di trattamento ai fini della preparazione dei dati, quali annotazione, etichettatura, pulizia, aggiornamento, arricchimento e aggregazione;
Emendamento 283 Proposta di regolamento Articolo 10 – paragrafo 2 – lettera d
d) la formulazione di ipotesi pertinenti, in particolare per quanto riguarda le informazioni che si presume che i dati misurino e rappresentino;
d) la formulazione di ipotesi, in particolare per quanto riguarda le informazioni che si presume che i dati misurino e rappresentino;
Emendamento 284 Proposta di regolamento Articolo 10 – paragrafo 2 – lettera e
e) una valutazione preliminare della disponibilità, della quantità e dell'adeguatezza dei set di dati necessari;
e) una valutazione della disponibilità, della quantità e dell'adeguatezza dei set di dati necessari;
Emendamento 285 Proposta di regolamento Articolo 10 – paragrafo 2 – lettera f
f) un esame atto a valutare le possibili distorsioni;
f) un esame atto a valutare le possibili distorsioni che possono incidere sulla salute e sulla sicurezza delle persone, avere un impatto negativo sui diritti fondamentali o comportare discriminazioni vietate dal diritto dell'Unione, in particolare quando i dati di output influenzano gli input per operazioni future ("circuiti di feedback", feedback loops), nonché misure adeguate per individuare, prevenire e attenuare le possibili distorsioni;
Emendamento 286 Proposta di regolamento Articolo 10 – paragrafo 2 – lettera f bis (nuova)
f bis) le misure adeguate per individuare, prevenire e attenuare le possibili distorsioni;
Emendamento 287 Proposta di regolamento Articolo 10 – paragrafo 2 – lettera g
g) l'individuazione di eventuali lacune o carenze nei dati e il modo in cui tali lacune e carenze possono essere colmate.
g) l'individuazione di lacune o carenze rilevanti nei dati, tali da pregiudicare il rispetto del presente regolamento, e il modo in cui tali lacune e carenze possono essere colmate.
Emendamento 288 Proposta di regolamento Articolo 10 – paragrafo 3
3. I set di dati di addestramento, convalida e prova devono essere pertinenti, rappresentativi, esenti da errori e completi. Essi possiedono le proprietà statistiche appropriate, anche, ove applicabile, per quanto riguarda le persone o i gruppi di persone sui quali il sistema di IA ad alto rischio è destinato a essere usato. Queste caratteristiche dei set di dati possono essere soddisfatte a livello di singoli set di dati o di una combinazione degli stessi.
3. I set di dati di addestramento e, ove applicabile, i set di dati di convalida e prova, incluse le etichette, devono essere pertinenti, sufficientemente rappresentativi, adeguatamente verificati in termini di errori e il più possibile completi alla luce della finalità prevista. Essi possiedono le proprietà statistiche appropriate, anche, ove applicabile, per quanto riguarda le persone o i gruppi di persone in relazione ai quali il sistema di IA ad alto rischio è destinato a essere usato. Queste caratteristiche dei set di dati devono essere soddisfatte a livello di singoli set di dati o di una combinazione degli stessi.
Emendamento 289 Proposta di regolamento Articolo 10 – paragrafo 4
4. I set di dati di addestramento, convalida e prova tengono conto, nella misura necessaria per la finalità prevista, delle caratteristiche o degli elementi particolari dello specifico contesto geografico, comportamentale o funzionale all'interno del quale il sistema di IA ad alto rischio è destinato a essere usato.
4. I set di dati tengono conto, nella misura necessaria per la finalità prevista o per gli usi impropri ragionevolmente prevedibili del sistema di IA, delle caratteristiche o degli elementi particolari dello specifico contesto geografico, contestuale, culturale, comportamentale o funzionale all'interno del quale il sistema di IA ad alto rischio è destinato a essere usato.
Emendamento 290 Proposta di regolamento Articolo 10 – paragrafo 5
5. Nella misura in cui ciò sia strettamente necessario al fine di garantire il monitoraggio, il rilevamento e la correzione delle distorsioni in relazione ai sistemi di IA ad alto rischio, i fornitori di tali sistemi possono trattare categorie particolari di dati personali di cui all'articolo 9, paragrafo 1, del regolamento (UE) 2016/679, all'articolo 10 della direttiva (UE) 2016/680 e all'articolo 10, paragrafo 1, del regolamento (UE) 2018/1725, fatte salve le tutele adeguate per i diritti e le libertà fondamentali delle persone fisiche, comprese le limitazioni tecniche all'utilizzo e al riutilizzo delle misure più avanzate di sicurezza e di tutela della vita privata, quali la pseudonimizzazione o la cifratura, qualora l'anonimizzazione possa incidere significativamente sulla finalità perseguita.
5. Nella misura in cui ciò sia strettamente necessario al fine di garantire il rilevamento e la correzione delle distorsioni negative in relazione ai sistemi di IA ad alto rischio, i fornitori di tali sistemi possono trattare in via eccezionale categorie particolari di dati personali di cui all'articolo 9, paragrafo 1, del regolamento (UE) 2016/679, all'articolo 10 della direttiva (UE) 2016/680 e all'articolo 10, paragrafo 1, del regolamento (UE) 2018/1725, fatte salve le tutele adeguate per i diritti e le libertà fondamentali delle persone fisiche, comprese le limitazioni tecniche all'utilizzo e al riutilizzo delle misure più avanzate di sicurezza e di tutela della vita privata. In particolare, affinché tale trattamento si verifichi, devono essere soddisfatte tutte le condizioni seguenti: a) il rilevamento e la correzione delle distorsioni non possono essere realizzati efficacemente mediante il trattamento di dati sintetici o anonimizzati;
b) i dati sono pseudonimizzati;
c) il fornitore adotta misure tecniche e organizzative adeguate per garantire che i dati trattati ai fini del presente paragrafo siano resi sicuri e protetti nonché soggetti a garanzie adeguate e che solo le persone autorizzate abbiano accesso a tali dati nel rispetto di adeguati obblighi di riservatezza;
d) i dati trattati ai fini del presente paragrafo non devono essere trasmessi, trasferiti o altrimenti consultati da terzi;
e) i dati trattati ai fini del presente paragrafo sono protetti mediante adeguate misure tecniche e organizzative e cancellati una volta corretta la distorsione o al raggiungimento del termine del periodo di conservazione dei dati personali;
f) sono in atto misure efficaci e adeguate per garantire la disponibilità, la sicurezza e la resilienza dei sistemi e dei servizi di trattamento da incidenti tecnici o fisici;
g) sono in atto misure efficaci e adeguate per garantire la sicurezza fisica dei luoghi in cui i dati sono conservati e trattati, l'informatica interna e la gestione e governance della sicurezza informatica, nonché la certificazione dei processi e dei prodotti.
I fornitori che si avvalgono della presente disposizione redigono la documentazione che spiega i motivi per cui si è reso necessario il trattamento di categorie particolari di dati personali per rilevare e correggere le distorsioni.
Emendamento 291 Proposta di regolamento Articolo 10 – paragrafo 6 bis (nuovo)
6 bis. Qualora il fornitore non sia in grado di rispettare gli obblighi di cui al presente articolo perché non ha accesso ai dati, i quali sono detenuti esclusivamente dall'operatore, quest'ultimo può, sulla base di un contratto, essere ritenuto responsabile dell'eventuale violazione del presente articolo.
La documentazione tecnica è redatta in modo da dimostrare che il sistema di IA ad alto rischio è conforme ai requisiti di cui al presente capo e fornisce alle autorità nazionali competenti e agli organismi notificati tutte le informazioni necessarie per valutare la conformità del sistema di IA a tali requisiti. Essa contiene almeno gli elementi di cui all'allegato IV.
La documentazione tecnica è redatta in modo da dimostrare che il sistema di IA ad alto rischio è conforme ai requisiti di cui al presente capo e fornisce alle autorità nazionali di controllo e agli organismi notificati le informazioni necessarie per valutare la conformità del sistema di IA a tali requisiti. Essa contiene almeno gli elementi di cui all'allegato IV o, nel caso delle PMI e delle start-up, qualsiasi documentazione equivalente che soddisfi i medesimi obiettivi, previa approvazione dell'autorità nazionale competente.
Emendamento 293 Proposta di regolamento Articolo 11 – paragrafo 2
2. Se è immesso sul mercato o messo in servizio un sistema di IA ad alto rischio connesso a un prodotto al quale si applicano gli atti giuridici elencati nell'allegato II, sezione A, si redige un'unica documentazione tecnica contenente tutte le informazioni di cui all'allegato IV e le informazioni necessarie a norma di tali atti giuridici.
2. Se è immesso sul mercato o messo in servizio un sistema di IA ad alto rischio connesso a un prodotto al quale si applicano gli atti giuridici elencati nell'allegato II, sezione A, si redige un'unica documentazione tecnica contenente tutte le informazioni di cui al paragrafo 1 e le informazioni necessarie a norma di tali atti giuridici.
Emendamento 294 Proposta di regolamento Articolo 11 – paragrafo 3 bis (nuovo)
3 bis. I fornitori che sono enti creditizi disciplinati dalla direttiva 2013/36/UE mantengono la documentazione tecnica nell'ambito della documentazione riguardante i dispositivi, i processi e i meccanismi di governance interna di cui all'articolo 74 di tale direttiva.
Emendamento 295 Proposta di regolamento Articolo 12 – paragrafo 1
1. I sistemi di IA ad alto rischio sono progettati e sviluppati con capacità che consentono la registrazione automatica degli eventi ("log") durante il loro funzionamento. Tali capacità di registrazione sono conformi a norme riconosciute o a specifiche comuni.
1. I sistemi di IA ad alto rischio sono progettati e sviluppati con capacità che consentono la registrazione automatica degli eventi ("log") durante il loro funzionamento. Tali capacità di registrazione sono conformi allo stato dell'arte e a norme riconosciute o a specifiche comuni.
Emendamento 296 Proposta di regolamento Articolo 12 – paragrafo 2
2. Le capacità di registrazione garantiscono un livello di tracciabilità del funzionamento del sistema di IA durante tutto il suo ciclo di vita adeguato alla finalità prevista del sistema.
2. Al fine di garantire un livello di tracciabilità del funzionamento del sistema di IA per la sua intera durata, adeguato alla finalità prevista del sistema, le capacità di registrazione agevolano il monitoraggio del funzionamento di cui all'articolo 29, paragrafo 4, come pure il monitoraggio successivo all'immissione sul mercato di cui all'articolo 61. In particolare, esse consentono la registrazione di eventi pertinenti per l'individuazione di situazioni che possono:
a) far sì che il sistema di IA presenti un rischio ai sensi dell'articolo 65, paragrafo 1; o
b) comportare una modifica sostanziale del sistema di IA ad alto rischio.
Emendamento 297 Proposta di regolamento Articolo 12 – paragrafo 2 bis (nuovo)
2 bis. I sistemi di IA ad alto rischio sono progettati e sviluppati con capacità di registrazione che consentono la registrazione del consumo di energia, la misurazione o il calcolo dell'uso delle risorse e l'impatto ambientale del sistema di IA ad alto rischio durante tutte le fasi del ciclo di vita del sistema.
Emendamento 298 Proposta di regolamento Articolo 12 – paragrafo 3
3. Le capacità di registrazione consentono in particolare di monitorare il funzionamento del sistema di IA ad alto rischio per quanto riguarda il verificarsi di situazioni che possono far sì che il sistema di IA presenti un rischio ai sensi dell'articolo 65, paragrafo 1, o comportare una modifica sostanziale, e agevolano il monitoraggio successivo all'immissione sul mercato di cui all'articolo 61.
soppresso
Emendamento 299 Proposta di regolamento Articolo 13 – titolo
Trasparenza e fornitura di informazioni agli utenti
Trasparenza e fornitura di informazioni
Emendamento 300 Proposta di regolamento Articolo 13 – paragrafo 1
1. I sistemi di IA ad alto rischio sono progettati e sviluppati in modo tale da garantire che il loro funzionamento sia sufficientemente trasparente da consentire agli utenti di interpretare l'output del sistema e utilizzarlo adeguatamente. Sono garantiti un tipo e un livello di trasparenza adeguati, che consentano di conseguire il rispetto dei pertinenti obblighi dell'utente e del fornitore di cui al capo 3 del presente titolo.
1. I sistemi di IA ad alto rischio sono progettati e sviluppati in modo tale da garantire che il loro funzionamento sia sufficientemente trasparente da consentire ai fornitori e agli utenti di comprendere ragionevolmente il funzionamento del sistema. È garantita una trasparenza adeguata in conformità della finalità prevista del sistema di IA, che consenta di conseguire il rispetto dei pertinenti obblighi del fornitore e dell'utente di cui al capo 3 del presente titolo.
Per trasparenza si intende pertanto che, al momento dell'immissione sul mercato del sistema di IA ad alto rischio, sono utilizzati tutti i mezzi tecnici disponibili conformemente allo stato dell'arte generalmente riconosciuto per garantire che l'output del sistema di IA sia interpretabile dal fornitore e dall'utente. L'utente è in grado di comprendere e utilizzare adeguatamente il sistema di IA avendo una conoscenza generale del funzionamento del sistema di IA e dei dati trattati, il che gli consente di spiegare le decisioni adottate dal sistema di IA alla persona interessata a norma dell'articolo 68, lettera c).
Emendamento 301 Proposta di regolamento Articolo 13 – paragrafo 2
2. I sistemi di IA ad alto rischio sono accompagnati da istruzioni per l'uso in un formato digitale o non digitale appropriato, che comprendono informazioni concise, complete, corrette e chiare che siano pertinenti, accessibili e comprensibili per gli utenti.
2. I sistemi di IA ad alto rischio sono accompagnati da istruzioni per l'uso comprensibili in un formato digitale appropriato o rese altrimenti disponibili su un supporto durevole, che comprendono informazioni concise, corrette, chiare e per quanto possibile complete che agevolino il funzionamento e la manutenzione del sistema di IA, sostengano il processo decisionale informato degli utenti e siano ragionevolmente pertinenti, accessibili e comprensibili per gli utenti.
Emendamento 302 Proposta di regolamento Articolo 13 – paragrafo 3 – parte introduttiva
3. Le informazioni di cui al paragrafo 2 specificano:
3. Per conseguire i risultati di cui al paragrafo 1, le informazioni di cui al paragrafo 2 specificano:
Emendamento 303 Proposta di regolamento Articolo 13 – paragrafo 3 – lettera a
a) l'identità e i dati di contatto del fornitore e, ove applicabile, del suo rappresentante autorizzato;
a) l'identità e i dati di contatto del fornitore e, ove applicabile, dei suoi rappresentanti autorizzati;
Emendamento 304 Proposta di regolamento Articolo 13 – paragrafo 3 – lettera a bis (nuova)
a bis) laddove diversi da quelli del fornitore, l'identità e i dati di contatto dell'entità incaricata della valutazione della conformità e, se del caso, del suo rappresentante autorizzato;
Emendamento 305 Proposta di regolamento Articolo 13 – paragrafo 3 – lettera d – parte introduttiva
b) le caratteristiche, le capacità e i limiti delle prestazioni del sistema di IA ad alto rischio, tra cui:
b) le caratteristiche, le capacità e i limiti delle prestazioni del sistema di IA ad alto rischio, tra cui, se del caso:
Emendamento 306 Proposta di regolamento Articolo 13 – paragrafo 3 – lettera b – punto ii
ii) il livello di accuratezza, robustezza e cibersicurezza di cui all'articolo 15 rispetto al quale il sistema di IA ad alto rischio è stato sottoposto a prova e convalidato e che ci si può attendere, e qualsiasi circostanza nota e prevedibile che possa avere un impatto sul livello atteso di accuratezza, robustezza e cibersicurezza;
ii) il livello di accuratezza, robustezza e cibersicurezza di cui all'articolo 15 rispetto al quale il sistema di IA ad alto rischio è stato sottoposto a prova e convalidato e che ci si può attendere, e qualsiasi circostanza chiaramente nota e prevedibile che possa avere un impatto sul livello atteso di accuratezza, robustezza e cibersicurezza;
Emendamento 307 Proposta di regolamento Articolo 13 – paragrafo 3 – lettera b – punto iii
iii) qualsiasi circostanza nota o prevedibile connessa all'uso del sistema di IA ad alto rischio in conformità alla sua finalità prevista o in condizioni di uso improprio ragionevolmente prevedibile, che possa comportare rischi per la salute e la sicurezza o per i diritti fondamentali;
iii) qualsiasi circostanza chiaramente nota o prevedibile connessa all'uso del sistema di IA ad alto rischio in conformità alla sua finalità prevista o in condizioni di uso improprio ragionevolmente prevedibile, che possa comportare rischi per la salute e la sicurezza, per i diritti fondamentali o per l'ambiente, inclusi, se del caso, esempi illustrativi di tali limitazioni e di scenari nei quali il sistema non dovrebbe essere utilizzato;
Emendamento 308 Proposta di regolamento Articolo 13 – paragrafo 3 – lettera b – punto iii bis (nuovo)
iii bis) la misura in cui il sistema di IA è in grado di fornire spiegazioni per le decisioni che adotta;
Emendamento 309 Proposta di regolamento Articolo 13 – paragrafo 3 – lettera b – punto v
v) ove opportuno, le specifiche per i dati di input o qualsiasi altra informazione pertinente in termini di set di dati di addestramento, convalida e prova, tenendo conto della finalità prevista del sistema di IA;
v) informazioni pertinenti sulle azioni dell'utente che possono influenzare le prestazioni del sistema, fra cui il tipo o la qualità dei dati di input o qualsiasi altra informazione pertinente in termini di set di dati di addestramento, convalida e prova, tenendo conto della finalità prevista del sistema di IA;
Emendamento 310 Proposta di regolamento Articolo 13 – paragrafo 3 – lettera e
e) la durata prevista del sistema di IA ad alto rischio e tutte le misure di manutenzione e cura necessarie per garantire il corretto funzionamento di tale sistema, anche per quanto riguarda gli aggiornamenti software.
e) tutte le misure di manutenzione e cura necessarie per garantire il corretto funzionamento di tale sistema, anche per quanto riguarda gli aggiornamenti software, per tutta la durata prevista dello stesso.
Emendamento 311 Proposta di regolamento Articolo 13 – paragrafo 3 – lettera e bis (nuova)
e bis) una descrizione dei meccanismi inclusi nel sistema di IA che consentono agli utenti di raccogliere, conservare e interpretare correttamente i log conformemente all'articolo 12, paragrafo 1.
Emendamento 312 Proposta di regolamento Articolo 13 – paragrafo 3 – lettera e ter (nuova)
e ter) Le informazioni sono fornite almeno nella lingua del paese in cui è utilizzato il sistema di IA.
Emendamento 313 Proposta di regolamento Articolo 13 – paragrafo 3 bis (nuovo)
3 bis. Al fine di rispettare gli obblighi di cui al presente articolo, i fornitori e gli utenti garantiscono un livello sufficiente di alfabetizzazione in materia di IA conformemente all'articolo 4 ter.
Emendamento 314 Proposta di regolamento Articolo 14 – paragrafo 1
1. I sistemi di IA ad alto rischio sono progettati e sviluppati, anche con strumenti di interfaccia uomo-macchina adeguati, in modo tale da poter essere efficacemente supervisionati da persone fisiche durante il periodo in cui il sistema di IA è in uso.
1. I sistemi di IA ad alto rischio sono progettati e sviluppati, anche con strumenti di interfaccia uomo-macchina adeguati, in modo tale da essere efficacemente supervisionati da persone fisiche in misura proporzionale ai rischi associati a tali sistemi. Le persone fisiche incaricate di garantire la sorveglianza umana dispongono di un livello sufficiente di alfabetizzazione in materia di IA conformemente all'articolo 4 ter nonché del sostegno e dell'autorità necessari per esercitare tale funzione, durante il periodo in cui il sistema di IA è in uso e per consentire indagini approfondite a seguito di un incidente.
Emendamento 315 Proposta di regolamento Articolo 14 – paragrafo 2
2. La sorveglianza umana mira a prevenire o ridurre al minimo i rischi per la salute, la sicurezza o i diritti fondamentali che possono emergere quando un sistema di IA ad alto rischio è utilizzato conformemente alla sua finalità prevista o in condizioni di uso improprio ragionevolmente prevedibile, in particolare quando tali rischi persistono nonostante l'applicazione di altri requisiti di cui al presente capo.
2. La sorveglianza umana mira a prevenire o ridurre al minimo i rischi per la salute, la sicurezza, i diritti fondamentali o l'ambiente che possono emergere quando un sistema di IA ad alto rischio è utilizzato conformemente alla sua finalità prevista o in condizioni di uso improprio ragionevolmente prevedibile, in particolare quando tali rischi persistono nonostante l'applicazione di altri requisiti di cui al presente capo e qualora le decisioni basate unicamente su un trattamento automatizzato da parte di sistemi di IA producano effetti giuridici o altrimenti significativi sulle persone o sui gruppi di persone sui quali il sistema deve essere utilizzato.
Emendamento 316 Proposta di regolamento Articolo 14 – paragrafo 3 – parte introduttiva
3. La sorveglianza umana è garantita mediante almeno una delle seguenti misure:
3. La sorveglianza umana tiene conto dei rischi specifici, del livello di automazione e del contesto del sistema di IA ed è garantita mediante almeno una delle seguenti tipologie di misure:
Emendamento 317 Proposta di regolamento Articolo 14 – paragrafo 4 – parte introduttiva
4. Le misure di cui al paragrafo 3 consentono le seguenti azioni, a seconda delle circostanze, alle persone alle quali è affidata la sorveglianza umana:
4. Ai fini dell'attuazione dei paragrafi da 1 a 3, il sistema di IA ad alto rischio è fornito all'utente in modo tale che le persone fisiche alle quali è affidata la sorveglianza umana abbiano la possibilità di svolgere le seguenti azioni, ove opportuno e proporzionato alle circostanze:
Emendamento 318 Proposta di regolamento Articolo 14 – paragrafo 4 – lettera a
a) comprendereappieno le capacità e i limiti del sistema di IA ad alto rischio ed essere in grado di monitorarne debitamente il funzionamento, in modo che i segnali di anomalie, disfunzioni e prestazioni inattese possano essere individuati e affrontati quanto prima;
a) essere consapevole delle capacità e dei limiti pertinenti del sistema di IA ad alto rischio e comprenderli a sufficienza, nonché essere in grado di monitorarne debitamente il funzionamento, in modo che i segnali di anomalie, disfunzioni e prestazioni inattese possano essere individuati e affrontati quanto prima;
Emendamento 319 Proposta di regolamento Articolo 14 – paragrafo 4 – lettera e
e) essere in grado di intervenire sul funzionamento del sistema di IA ad alto rischio o di interrompere il sistema mediante un pulsante di "arresto" o una procedura analoga.
e) essere in grado di intervenire sul funzionamento del sistema di IA ad alto rischio o di interrompere il sistema mediante un pulsante di "arresto" o una procedura analoga, che consenta di arrestare il sistema in condizioni di sicurezza, tranne se l'interferenza umana aumenta i rischi o è suscettibile di incidere negativamente sulle prestazioni in considerazione dello stato dell'arte generalmente riconosciuto.
Emendamento 320 Proposta di regolamento Articolo 14 – paragrafo 5
5. Per i sistemi di IA ad alto rischio di cui all'allegato III, punto 1, lettera a), le misure di cui al paragrafo 3 sono tali da garantire che, inoltre, l'utente non compia azioni o adotti decisioni sulla base dell'identificazione risultante dal sistema, a meno che essa non sia stata verificata e confermata da almeno due persone fisiche.
5. Per i sistemi di IA ad alto rischio di cui all'allegato III, punto 1, lettera a), le misure di cui al paragrafo 3 sono tali da garantire che, inoltre, l'utente non compia azioni o adotti decisioni sulla base dell'identificazione risultante dal sistema, a meno che essa non sia stata verificata e confermata da almeno due persone fisiche che dispongono delle competenze, della formazione e dell'autorità necessarie.
Emendamento 321 Proposta di regolamento Articolo 15 – paragrafo 1
1. I sistemi di IA ad alto rischio sono progettati e sviluppati in modo tale da conseguire, alla luce della loro finalità prevista, un adeguato livello di accuratezza, robustezza e cibersicurezza e da operare in modo coerente con tali aspetti durante tutto il loro ciclo di vita.
1. I sistemi di IA ad alto rischio sono progettati e sviluppati secondo il principio della sicurezza fin dalla progettazione e per impostazione predefinita. Alla luce della loro finalità prevista, dovrebbero conseguire un adeguato livello di accuratezza, robustezza, sicurezza, e cibersicurezza e operare in modo coerente con tali aspetti durante tutto il loro ciclo di vita. Il rispetto di tali requisiti include l'attuazione di misure conformi allo stato dell'arte, secondo lo specifico segmento di mercato o campo di applicazione.
Emendamento 322 Proposta di regolamento Articolo 15 – paragrafo 1 bis (nuovo)
1 bis. Per affrontare gli aspetti tecnici relativi alle modalità di misurazione dei livelli adeguati di accuratezza e robustezza di cui al paragrafo 1 del presente articolo, l'ufficio per l'IA riunisce le autorità nazionali di metrologia e analisi comparativa e fornisce orientamenti non vincolanti in materia, come stabilito all'articolo 56, paragrafo 2, lettera a).
Emendamento 323 Proposta di regolamento Articolo 15 – paragrafo 1 ter (nuovo)
1 ter. Per affrontare eventuali questioni emergenti nel mercato interno per quanto riguarda la cibersicurezza, l'Agenzia dell'Unione europea per la cibersicurezza (ENISA) è associata al comitato europeo per l'intelligenza artificiale di cui all'articolo 56, paragrafo 2, lettera b).
Emendamento 324 Proposta di regolamento Articolo 15 – paragrafo 2
2. I livelli di accuratezza e le pertinenti metriche di accuratezza dei sistemi di IA ad alto rischio sono dichiarati nelle istruzioni per l'uso che accompagnano il sistema.
2. I livelli di accuratezza e le pertinenti metriche di accuratezza dei sistemi di IA ad alto rischio sono dichiarati nelle istruzioni per l'uso che accompagnano il sistema. Il linguaggio utilizzato è chiaro, privo di malintesi o di affermazioni fuorvianti.
I sistemi di IA ad alto rischio sono resilienti per quanto riguarda errori, guasti o incongruenze che possono verificarsi all'interno del sistema o nell'ambiente in cui esso opera, in particolare a causa della loro interazione con persone fisiche o altri sistemi.
Sono adottate misure tecniche e organizzative per garantire che i sistemi di IA ad alto rischio siano quanto piùpossibile resilienti per quanto riguarda errori, guasti o incongruenze che possono verificarsi all'interno del sistema o nell'ambiente in cui esso opera, in particolare a causa della loro interazione con persone fisiche o altri sistemi.
La robustezza dei sistemi di IA ad alto rischio può essere conseguita mediante soluzioni tecniche di ridondanza, che possono includere piani di backup o fail-safe.
La robustezza dei sistemi di IA ad alto rischio può essere conseguita dal fornitore appropriato attraverso gli input dell'utente, ove necessario, mediante soluzioni tecniche di ridondanza, che possono includere piani di backup o fail-safe.
I sistemi di IA ad alto rischio che proseguono il loro apprendimento dopo essere stati immessi sul mercato o messi in servizio sono sviluppati in modo tale da garantire che gli output potenzialmente distorti a causa dell'utilizzo di output come input per operazioni future ("circuiti di feedback", feedback loops) siano oggetto di adeguate misure di attenuazione.
I sistemi di IA ad alto rischio che proseguono il loro apprendimento dopo essere stati immessi sul mercato o messi in servizio sono sviluppati in modo tale da garantire che gli output potenzialmente distorti che influenzano gli input per operazioni future ("circuiti di feedback", feedback loops) e la manipolazione dannosa degli input utilizzati nell'apprendimento durante il funzionamento siano oggetto di adeguate misure di attenuazione.
I sistemi di IA ad alto rischio sono resilienti ai tentativi di terzi non autorizzati di modificarne l'uso o le prestazioni sfruttando le vulnerabilità del sistema.
I sistemi di IA ad alto rischio sono resilienti ai tentativi di terzi non autorizzati di modificarne l'uso, il comportamento, gli output o le prestazioni sfruttando le vulnerabilità del sistema.
Le soluzioni tecniche finalizzate ad affrontare le vulnerabilità specifiche dell'IA includono, ove opportuno, misure volte a prevenire e controllare gli attacchi che cercano di manipolare il set di dati di addestramento ("avvelenamento dei dati", data poisoning), gli input progettati in modo da far sì che il modello commetta un errore ("esempi antagonistici", adversarial examples) o i difetti del modello.
Le soluzioni tecniche finalizzate ad affrontare le vulnerabilità specifiche dell'IA includono, ove opportuno, misure volte a prevenire, accertare, rispondere, risolvere e controllare gli attacchi che cercano di manipolare il set di dati di addestramento ("avvelenamento dei dati", data poisoning) o i componenti preaddestrati utilizzati nell'addestramento ("avvelenamento dei modelli", model poisoning), gli input progettati in modo da far sì che il modello commetta un errore ("esempi antagonistici", adversarial examples o "evasione dal modello", model evasion), gli attacchi alla riservatezza o i difetti del modello, che potrebbero condurre a decisioni dannose.
Emendamento 330 Proposta di regolamento Titolo III – Capo 3 – titolo
OBBLIGHI DEI FORNITORI E DEGLI UTENTI DEI SISTEMI DI IA AD ALTO RISCHIO e di altre parti
OBBLIGHI DEI FORNITORI E DEGLI OPERATORI DEI SISTEMI DI IA AD ALTO RISCHIO E DI ALTRE PARTI
Emendamento 331 Proposta di regolamento Articolo 16 – titolo
Obblighi dei fornitori dei sistemi di IA ad alto rischio
Obblighi dei fornitori e degli operatori dei sistemi di IA ad alto rischio e di altre parti
Emendamento 332 Proposta di regolamento Articolo 16 – paragrafo 1 – lettera a
a) garantiscono che i loro sistemi di IA ad alto rischio siano conformi ai requisiti di cui al capo 2 del presente titolo;
a) garantiscono che i loro sistemi di IA ad alto rischio siano conformi ai requisiti di cui al capo 2 del presente titolo prima di immetterli sul mercato o metterli in servizio;
Emendamento 333 Proposta di regolamento Articolo 16 – paragrafo 1 – lettera a bis (nuova)
a bis) indicano il loro nome, la loro denominazione commerciale registrata o il loro marchio registrato e il loro indirizzo e i loro dati di contatto sul sistema di IA ad alto rischio oppure, ove ciò non sia possibile, in un documento di accompagnamento, a seconda dei casi;
Emendamento 334 Proposta di regolamento Articolo 16 – paragrafo 1 – lettera a ter (nuova)
a ter) garantiscono che le persone fisiche alle quali è affidata la sorveglianza umana dei sistemi di IA ad alto rischio siano specificamente informate del rischio di distorsioni dell'automazione o di pregiudizio di conferma (confirmation bias);
Emendamento 335 Proposta di regolamento Articolo 16 – paragrafo 1 – lettera a quater (nuova)
a quater) forniscono le specifiche per i dati di input o qualsiasi altra informazione pertinente in termini di set di dati utilizzati, compresi i relativi limiti e le relative ipotesi, tenendo conto della finalità prevista e degli usi impropri prevedibili e ragionevolmente prevedibili del sistema di IA;
Emendamento 336 Proposta di regolamento Articolo 16 – paragrafo 1 – lettera c
c) redigono la documentazione tecnica del sistema di IA ad alto rischio;
c) redigono e mantengono la documentazione tecnica del sistema di IA ad alto rischio di cui all'articolo 11;
Emendamento 337 Proposta di regolamento Articolo 16 – paragrafo 1 – lettera d
d) quando sono sotto il loro controllo, conservano i log generati automaticamente dai loro sistemi di IA ad alto rischio;
d) quando sono sotto il loro controllo, conservano i log generati automaticamente dai loro sistemi di IA ad alto rischio che sono necessari per garantire e dimostrare la conformità al presente regolamento, conformemente all'articolo 20;
Emendamento 338 Proposta di regolamento Articolo 16 – paragrafo 1 – lettera e
e) garantiscono che il sistema di IA ad alto rischio sia sottoposto alla pertinente procedura di valutazione della conformità prima della sua immissione sul mercato o messa in servizio;
e) garantiscono che il sistema di IA ad alto rischio sia sottoposto alla pertinente procedura di valutazione della conformità prima della sua immissione sul mercato o messa in servizio, conformemente all'articolo 43;
Emendamento 339 Proposta di regolamento Articolo 16 – paragrafo 1 – lettera e bis (nuova)
e bis) elaborano una dichiarazione di conformità UE a norma dell'articolo 48;
Emendamento 340 Proposta di regolamento Articolo 16 – paragrafo 1 – lettera e ter (nuova)
e ter) appongono la marcatura CE sul sistema di IA ad alto rischio per indicare la conformità al presente regolamento a norma dell'articolo 49;
Emendamento 341 Proposta di regolamento Articolo 16 – paragrafo 1 – lettera g
g) adottano le necessarie misure correttive, se il sistema diIA ad alto rischio non è conforme ai requisiti di cuialcapo 2 del presente titolo;
g) adottano le necessarie misure correttive dicui all'articolo 21 e forniscono informazioni alriguardo;
Emendamento 342 Proposta di regolamento Articolo 16 – paragrafo 1 – lettera h
h) informano le autorità nazionali competenti degli Stati membri in cui hanno messo a disposizione o messo in servizio il sistema di IA e, ove applicabile, l'organismo notificato in merito alla non conformità e alle eventuali misure correttive adottate;
soppresso
Emendamento 343 Proposta di regolamento Articolo 16 – paragrafo 1 – lettera i
i) appongono la marcatura CE sui loro sistemi di IA ad alto rischio per indicare la conformità al presente regolamento a norma dell'articolo 49;
j) su richiesta di un'autorità nazionale competente, dimostrano la conformità del sistema di IA ad alto rischio ai requisiti di cui al capo 2 del presente titolo.
j) su richiesta motivata di un'autorità nazionale di controllo, dimostrano la conformità del sistema di IA ad alto rischio ai requisiti di cui al capo 2 del presente titolo.
Emendamento 345 Proposta di regolamento Articolo 16 – paragrafo 1 – lettera j bis (nuova)
j bis) garantiscono che il sistema di IA ad alto rischio sia conforme ai requisiti di accessibilità.
Emendamento 346 Proposta di regolamento Articolo 17 – paragrafo 1 – parte introduttiva
1. I fornitori di sistemi di IA ad alto rischio istituiscono di un sistema di gestione della qualità che garantisce la conformità al presente regolamento. Tale sistema è documentato in modo sistematico e ordinato sotto forma di politiche, procedure e istruzioni scritte e comprende almeno i seguenti aspetti:
1. I fornitori di sistemi di IA ad alto rischio predispongono un sistema di gestione della qualità che garantisce la conformità al presente regolamento. Esso è documentato in modo sistematico e ordinato sotto forma di politiche, procedure o istruzioni scritte e può essere integrato all'interno di un sistema di gestione della qualità esistente conformemente agli atti legislativi dell'Unione. Esso comprende almeno i seguenti aspetti:
Emendamento 347 Proposta di regolamento Articolo 17 – paragrafo 1 – lettera a
a) una strategia per la conformità normativa, compresa la conformità alle procedure di valutazione della conformità e alle procedure per la gestione delle modifiche dei sistemi di IA ad alto rischio;
soppresso
Emendamento 348 Proposta di regolamento Articolo 17 – paragrafo 1 – lettera e
e) le specifiche tecniche, comprese le norme, da applicare e, qualora le pertinenti norme armonizzate non siano applicate integralmente, i mezzi da usare per garantire che il sistema di IA ad alto rischio sia conforme ai requisiti di cui al capo 2 del presente titolo;
e) le specifiche tecniche, comprese le norme, da applicare e, qualora le pertinenti norme armonizzate non siano applicate integralmente, o non includano tutti i requisiti pertinenti, i mezzi da usare per garantire che il sistema di IA ad alto rischio sia conforme ai requisiti di cui al capo 2 del presente titolo;
Emendamento 349 Proposta di regolamento Articolo 17 – paragrafo 1 – lettera f
f) i sistemi e le procedure per la gestione dei dati, compresa la raccolta, l'analisi, l'etichettatura, l'archiviazione, la filtrazione, l'estrazione, l'aggregazione, la conservazione dei dati e qualsiasi altra operazione riguardante i dati effettuata prima e ai fini dell'immissione sul mercato o della messa in servizio di sistemi di IA ad alto rischio;
f) i sistemi e le procedure per la gestione dei dati, compresa l'acquisizione, la raccolta, l'analisi, l'etichettatura, l'archiviazione, la filtrazione, l'estrazione, l'aggregazione, la conservazione dei dati e qualsiasi altra operazione riguardante i dati effettuata prima e ai fini dell'immissione sul mercato o della messa in servizio di sistemi di IA ad alto rischio;
j) la gestione della comunicazione con le autorità nazionali competenti, le autorità competenti, comprese quelle settoriali, che forniscono o sostengono l'accesso ai dati, gli organismi notificati, altri operatori, clienti o altre parti interessate;
j) la gestione della comunicazione con le autorità competenti interessate, comprese quelle settoriali;
Emendamento 351 Proposta di regolamento Articolo 17 – paragrafo 2
2. L'attuazione degli aspetti di cui al paragrafo 1 è proporzionata alle dimensioni dell'organizzazione del fornitore.
2. L'attuazione degli aspetti di cui al paragrafo 1 è proporzionata alle dimensioni dell'organizzazione del fornitore. I fornitori rispettano, in ogni caso, il grado di rigore e il livello di protezione necessari per garantire la conformità dei loro sistemi di IA al presente regolamento.
Emendamento 352 Proposta di regolamento Articolo 18 – titolo
Obbligo di redigere la documentazione tecnica
soppresso
Emendamento 353 Proposta di regolamento Articolo 18 – paragrafo 1
1. I fornitori di sistemi di IA ad alto rischio redigono la documentazione tecnica di cui all'articolo 11 in conformità all'allegato IV.
soppresso
Emendamento 354 Proposta di regolamento Articolo 18 – paragrafo 2
2. I fornitori che sono enti creditizi disciplinati dalla direttiva 2013/36/UE mantengono la documentazione tecnica nell'ambito della documentazione riguardante i dispositivi, i processi e i meccanismi di governance interna di cui all'articolo 74 di tale direttiva.
soppresso
Emendamento 355 Proposta di regolamento Articolo 19
Articolo 19
soppresso
Valutazione della conformità
1. I fornitori dei sistemi di IA ad alto rischio garantiscono che il sistema di IA ad alto rischio sia sottoposto alla pertinente procedura di valutazione della conformità di cui all'articolo 43 prima della sua immissione sul mercato o messa in servizio. Se in seguito a tale valutazione i sistemi di IA risultano conformi ai requisiti di cui al capo 2 del presente titolo, i fornitori redigono una dichiarazione di conformità UE a norma dell'articolo 48 e appongono la marcatura CE di conformità a norma dell'articolo 49.
2. Per i sistemi di IA ad alto rischio di cui all'allegato III, punto 5, lettera b), immessi sul mercato o messi in servizio da fornitori che sono enti creditizi disciplinati dalla direttiva 2013/36/UE, la valutazione della conformità è effettuata nell'ambito della procedura di cui agli articoli da 97 a 101 di tale direttiva.
Emendamento 356 Proposta di regolamento Articolo 20 – paragrafo 1
1. I fornitori di sistemi di IA ad alto rischio conservano i log generati automaticamente dai loro sistemi di IA ad alto rischio, nella misura in cui tali log sono sotto il loro controllo in virtù di un accordo contrattuale con l'utente o in forza di legge. I log sono conservati per un periodo adeguato alla luce della finalità prevista del sistema di IA ad alto rischio e degli obblighi giuridici applicabili a norma del diritto dell'Unione o nazionale.
1. I fornitori di sistemi di IA ad alto rischio conservano i log generati automaticamente dai loro sistemi di IA ad alto rischio, nella misura in cui tali log sono sotto il loro controllo. Fatto salvo il diritto dell'Unione o nazionale applicabile, i log sono conservati per un periodo minimo di sei mesi. Il periodo di conservazione è conforme alle norme del settore e adeguato alla finalità prevista del sistema di IA ad alto rischio.
Emendamento 357 Proposta di regolamento Articolo 21 – comma 1
I fornitori di sistemi di IA ad alto rischio che ritengono o hanno motivo di ritenere che un sistema di IA ad alto rischio da essi immesso sul mercato o messo in servizio non sia conforme al presente regolamento adottano immediatamente le misure correttive necessarie per rendere conforme tale dispositivo, ritirarlo o richiamarlo, a seconda dei casi. Essi informano di conseguenza i distributori del sistema di IA ad alto rischio in questione e, ove applicabile, il rappresentante autorizzato e gli importatori.
I fornitori di sistemi di IA ad alto rischio che ritengono o hanno motivo di ritenere che un sistema di IA ad alto rischio da essi immesso sul mercato o messo in servizio non sia conforme al presente regolamento adottano immediatamente le misure correttive necessarie per rendere conforme tale dispositivo, ritirarlo, disattivarlo o richiamarlo, a seconda dei casi.
Nei casi di cui al primo comma, i fornitori informano immediatamente:
a) i distributori;
b) gli importatori;
c) le autorità nazionali competenti degli Stati membri in cui hanno messo a disposizione o messo in servizio il sistema di IA; nonché
d) ove possibile, l'operatore.
Emendamento 358 Proposta di regolamento Articolo 21 – comma 1 bis (nuovo)
I fornitori informano inoltre il rappresentante autorizzato, se ne è stato nominato uno a norma dell'articolo 25, e l'organismo notificato, se è stato necessario sottoporre il sistema di IA ad alto rischio a una valutazione della conformità da parte di terzi a norma dell'articolo 43. Se del caso, indagano anche sulle cause in collaborazione con l'operatore.
Emendamento 359 Proposta di regolamento Articolo 22 – comma 1
Qualora il sistema di IA ad alto rischio presenti un rischio ai sensi dell'articolo 65, paragrafo 1, e tale rischio sia noto al fornitore del sistema, tale fornitore informa immediatamente le autorità nazionali competenti degli Stati membri in cui ha messo a disposizione il sistema e, ove applicabile, l'organismo notificato che ha rilasciato un certificato per il sistema di IA ad alto rischio, in particolare in merito alla non conformità e alle eventuali misure correttive adottate.
Qualora il sistema di IA ad alto rischio presenti un rischio ai sensi dell'articolo 65, paragrafo 1, e il fornitore del sistema ne venga a conoscenza, tale fornitore informa immediatamente le autorità nazionali di controllo degli Stati membri in cui ha messo a disposizione il sistema e, ove applicabile, l'organismo notificato che ha rilasciato un certificato per il sistema di IA ad alto rischio, in particolare in merito alla natura della non conformità e alle eventuali misure correttive pertinenti adottate.
Emendamento 360 Proposta di regolamento Articolo 22 – comma 1 bis (nuovo)
Nei casi di cui al primo comma, i fornitori del sistema di IA ad alto rischio informano immediatamente:
a) i distributori;
b) gli importatori;
c) le autorità nazionali competenti degli Stati membri in cui hanno messo a disposizione o messo in servizio il sistema di IA; nonché
d) ove possibile, gli operatori.
Emendamento 361 Proposta di regolamento Articolo 22 – comma 1 ter (nuovo)
I fornitori informano inoltre il rappresentante autorizzato, se ne è stato nominato uno a norma dell'articolo 25.
Emendamento 362 Proposta di regolamento Articolo 23 – titolo
Cooperazione con le autorità competenti
Cooperazione con le autorità competenti, l'ufficio e la Commissione
Emendamento 363 Proposta di regolamento Articolo 23 – comma 1
I fornitori di sistemi di IA ad alto rischio, su richiesta di un'autorità nazionale competente, forniscono a tale autorità tutte le informazioni e la documentazione necessarie per dimostrare la conformità del sistema di IA ad alto rischio ai requisiti di cui al capo 2 del presente titolo, in una lingua ufficiale dell'Unione stabilita dallo Stato membro interessato. Su richiesta motivata di un'autorità nazionale competente, i fornitori forniscono a tale autorità l'accesso ai log generati automaticamente dai loro sistemi di IA ad alto rischio, nella misura in cui tali log sono sotto il loro controllo in virtù di un accordo contrattuale con l'utente o in forza di legge.
I fornitori e, ove applicabile, gli operatori di sistemi di IA ad alto rischio, su richiesta motivata di un'autorità nazionale competente o, se del caso, dell'ufficio per l'IA o della Commissione, forniscono a tali entità tutte le informazioni e la documentazione necessarie per dimostrare la conformità del sistema di IA ad alto rischio ai requisiti di cui al capo 2 del presente titolo, in una lingua ufficiale dell'Unione stabilita dallo Stato membro interessato.
Emendamento 364 Proposta di regolamento Articolo 23 – comma 1 bis (nuovo)
Su richiesta motivata di un'autorità nazionale competente o, se del caso, della Commissione, i fornitori e, ove applicabile, gli operatori forniscono inoltre all'autorità nazionale competente che ne ha fatto richiesta o alla Commissione, a seconda dei casi, l'accesso ai log generati automaticamente dai loro sistemi di IA ad alto rischio, nella misura in cui tali log sono sotto il loro controllo.
Emendamento 365 Proposta di regolamento Articolo 23 – comma 1 ter (nuovo)
Qualsiasi informazione ottenuta da un'autorità nazionale competente o dalla Commissione conformemente alle disposizioni del presente articolo è considerata segreto commerciale ed è trattata nel rispetto degli obblighi di riservatezza di cui all'articolo 70.
Emendamento 366 Proposta di regolamento Articolo 25 – paragrafo 1
1. Prima di mettere a disposizione i propri sistemi sul mercato dell'Unione, qualora non possa essere identificato un importatore, i fornitori stabiliti al di fuori dell'Unione nominano, mediante mandato scritto, un rappresentante autorizzato stabilito nell'Unione.
1. Prima di mettere a disposizione i propri sistemi sul mercato dell'Unione, i fornitori stabiliti al di fuori dell'Unione nominano, mediante mandato scritto, un rappresentante autorizzato stabilito nell'Unione.
Emendamento 367 Proposta di regolamento Articolo 25 – paragrafo 1 bis (nuovo)
1 bis. Il rappresentante autorizzato risiede o è stabilito in uno degli Stati membri in cui hanno luogo le attività di cui all'articolo 2, paragrafo 1, lettera c ter).
Emendamento 368 Proposta di regolamento Articolo 25 – paragrafo 1 ter (nuovo)
1 ter. Il fornitore conferisce al proprio rappresentante autorizzato i poteri e le risorse necessari per adempiere i suoi compiti a norma del presente regolamento.
Emendamento 369 Proposta di regolamento Articolo 25 – paragrafo 2 – parte introduttiva
2. Il rappresentante autorizzato esegue i compiti specificati nel mandato ricevuto dal fabbricante. Il mandato consente al rappresentante autorizzato di eseguire i seguenti compiti:
2. Il rappresentante autorizzato esegue i compiti specificati nel mandato ricevuto dal fabbricante. Fornisce una copia del mandato alle autorità di vigilanza del mercato, su loro richiesta, in una delle lingue ufficiali dell'istituzione dell'Unione stabilita dall'autorità nazionale competente. Ai fini del presente regolamento, il mandato consente al rappresentante autorizzato di eseguire soltanto i seguenti compiti:
Emendamento 370 Proposta di regolamento Articolo 25 – paragrafo 2 – lettera a
a) tenere una copia della dichiarazione di conformità UE e della documentazione tecnica a disposizione delle autorità nazionali competenti e delle autorità nazionali di cui all'articolo 63, paragrafo 7;
a) verificare che siano state elaborate la dichiarazione di conformità UE e la documentazione tecnica e che il fornitore abbia espletato un'adeguata procedura di valutazione della conformità;
Emendamento 371 Proposta di regolamento Articolo 25 – paragrafo 2 – lettera a bis (nuova)
a bis) tenere una copia della dichiarazione di conformità UE, della documentazione tecnica e, se del caso, del certificato rilasciato dall'organismo notificato a disposizione delle autorità nazionali competenti e delle autorità nazionali di cui all'articolo 63, paragrafo 7;
Emendamento 372 Proposta di regolamento Articolo 25 – paragrafo 2 – lettera b
b) fornire all'autorità nazionale competente, su richiesta motivata, tutte le informazioni e la documentazione necessarie per dimostrare la conformità di un sistema di IA ad alto rischio ai requisiti di cui al capo 2 del presente titolo, compreso l'accesso ai log generati automaticamente dal sistema di IA ad alto rischio nella misura in cui tali log sono sotto il controllo del fornitore in virtù di un accordo contrattuale con l'utente o in forza di legge;
b) fornire all'autorità nazionale competente, su richiesta motivata, tutte le informazioni e la documentazione necessarie per dimostrare la conformità di un sistema di IA ad alto rischio ai requisiti di cui al capo 2 del presente titolo, compreso l'accesso ai log generati automaticamente dal sistema di IA ad alto rischio nella misura in cui tali log sono sotto il controllo del fornitore;
Emendamento 373 Proposta di regolamento Articolo 25 – paragrafo 2 – lettera c
c) cooperare con le autorità nazionali competenti, su richiesta motivata, in merito a qualsiasi azione intrapresa da queste ultime in relazione al sistema di IA ad alto rischio.
c) cooperare con le autorità nazionali di controllo, su richiesta motivata, in merito a qualsiasi azione intrapresa dall'autorità per ridurre e attenuare i rischi presentati dal sistema di IA ad alto rischio;
Emendamento 374 Proposta di regolamento Articolo 25 – paragrafo 2 – lettera c bis (nuova)
c bis) ove applicabile, rispettare gli obblighi di registrazione di cui all'articolo 51 o, se la registrazione è effettuata dal fornitore stesso, garantire che le informazioni di cui all'allegato VIII, punto 3, siano esatte.
Emendamento 375 Proposta di regolamento Articolo 25 – paragrafo 2 bis (nuovo)
2 bis. Il rappresentante autorizzato è designato come interlocutore, in aggiunta o in sostituzione del fornitore, in particolare dell'autorità nazionale di controllo o delle autorità nazionali competenti, per tutte le questioni relative al rispetto del presente regolamento.
Emendamento 376 Proposta di regolamento Articolo 25 – paragrafo 2 ter (nuovo)
2 ter. Il rappresentante autorizzato pone fine al mandato se ritiene o ha motivo di ritenere che il fornitore agisca in modo contrario agli obblighi che gli incombono in virtù del presente regolamento. In tal caso, informa immediatamente l'autorità nazionale di controllo dello Stato membro in cui è stabilito e, se del caso, l'organismo notificato pertinente, della cessazione del mandato e dei relativi motivi.
Emendamento 377 Proposta di regolamento Articolo 26 – paragrafo 1 – parte introduttiva
1. Prima di immettere sul mercato un sistema di IA ad alto rischio, gli importatori di tale sistema garantiscono che:
1. Prima di immettere sul mercato un sistema di IA ad alto rischio, gli importatori di tale sistema garantiscono che sia conforme al presente regolamento, provvedendo affinché:
Emendamento 378 Proposta di regolamento Articolo 26 – paragrafo 1 – lettera a
a) il fornitore di tale sistema di IA abbia eseguito l'appropriata procedura di valutazione della conformità;
a) il fornitore di tale sistema di IA abbia eseguito la pertinente procedura di valutazione della conformità di cui all'articolo 43;
Emendamento 379 Proposta di regolamento Articolo 26 – paragrafo 1 – lettera b
b) il fornitore abbia redatto la documentazione tecnica conformemente all'allegato IV;
b) il fornitore abbia redatto la documentazione tecnica conformemente all'articolo 11 e all'allegato IV;
Emendamento 380 Proposta di regolamento Articolo 26 – paragrafo 1 – lettera c bis (nuova)
c bis) ove applicabile, il fornitore abbia nominato un rappresentante autorizzato conformemente all'articolo 25, paragrafo 1.
Emendamento 381 Proposta di regolamento Articolo 26 – paragrafo 2
2. Qualora ritenga o abbia motivo di ritenere che un sistema di IA ad alto rischio non sia conforme al presente regolamento, un importatore non lo immette sul mercato fino a quando tale sistema di IA non sia stato reso conforme. Qualora il sistema di IA ad alto rischio presenti un rischio ai sensi dell'articolo 65, paragrafo 1, l'importatore ne informa il fornitore del sistema di IA e le autorità di vigilanza del mercato.
2. Qualora ritenga o abbia motivo di ritenere che un sistema di IA ad alto rischio non sia conforme al presente regolamento, sia contraffatto o accompagnato da una documentazione falsificata, un importatore non lo immette sul mercato fino a quando tale sistema di IA non sia stato reso conforme. Qualora il sistema di IA ad alto rischio presenti un rischio ai sensi dell'articolo 65, paragrafo 1, l'importatore ne informa il fornitore del sistema di IA e le autorità di vigilanza del mercato.
Emendamento 382 Proposta di regolamento Articolo 26 – paragrafo 3
3. Gli importatori indicano il loro nome, la loro denominazione commerciale registrata o il loro marchio registrato e l'indirizzo al quale possono essere contattati sul sistema di IA ad alto rischio oppure, ove ciò non sia possibile, sul suo imballaggio o in un documento di accompagnamento.
3. Gli importatori indicano il loro nome, la loro denominazione commerciale registrata o il loro marchio registrato e l'indirizzo al quale possono essere contattati sul sistema di IA ad alto rischio e sul suo imballaggio o in un documento di accompagnamento, ove applicabile.
Emendamento 383 Proposta di regolamento Articolo 26 – paragrafo 5
5. Gli importatori forniscono all'autorità nazionale competente, su richiesta motivata, tutte le informazioni e la documentazione necessarie per dimostrare la conformità di un sistema di IA ad alto rischio ai requisiti di cui al capo 2 del presente titolo in una lingua che può essere compresa facilmente da tale autorità nazionale competente, compreso l'accesso ai log generati automaticamente dal sistema di IA ad alto rischio nella misura in cui tali log sono sotto il controllo del fornitore in virtù di un accordo contrattuale con l'utente o in forza di legge. Essi cooperano inoltre con tali autorità in merito a qualsiasi azione intrapresa dall'autorità nazionale competente in relazione a tale sistema.
5. Gli importatori forniscono all'autorità nazionale competente, su richiesta motivata, tutte le informazioni e la documentazione necessarie per dimostrare la conformità di un sistema di IA ad alto rischio ai requisiti di cui al capo 2 del presente titolo in una lingua che può essere compresa facilmente da tale autorità, compreso l'accesso ai log generati automaticamente dal sistema di IA ad alto rischio nella misura in cui tali log sono sotto il controllo del fornitore conformemente all'articolo 20.
Emendamento 384 Proposta di regolamento Articolo 26 – paragrafo 5 bis (nuovo)
5 bis. Gli importatori cooperano con l'autorità nazionale competente in merito a qualsiasi azione intrapresa da tale autorità per ridurre e attenuare i rischi presentati dal sistema di IA ad alto rischio.
Emendamento 385 Proposta di regolamento Articolo 27 – paragrafo 1
1. Prima di mettere a disposizione sul mercato un sistema di IA ad alto rischio, i distributori verificano che il sistema di IA ad alto rischio rechi la necessaria marcatura CE di conformità, che sia accompagnato dalla documentazione e dalle istruzioni per l'uso necessarie e che il fornitore e l'importatore del sistema, a seconda dei casi, abbiano rispettato gli obblighi di cui al presente regolamento.
1. Prima di mettere a disposizione sul mercato un sistema di IA ad alto rischio, i distributori verificano che il sistema di IA ad alto rischio rechi la necessaria marcatura CE di conformità, che sia accompagnato dalla documentazione e dalle istruzioni per l'uso necessarie e che il fornitore e l'importatore del sistema, a seconda dei casi, abbiano rispettato i loro obblighi di cui al presente regolamento, rispettivamente all'articolo 16 e all'articolo 26, paragrafo 3.
Emendamento 386 Proposta di regolamento Articolo 27 – paragrafo 2
2. Qualora ritenga o abbia motivo di ritenere che un sistema di IA ad alto rischio non sia conforme ai requisiti di cui al capo 2 del presente titolo, un distributore non lo mette a disposizione sul mercato fino a quando tale sistema di IA ad alto rischio non sia stato reso conforme a tali requisiti. Inoltre, qualora il sistema presenti un rischio ai sensi dell'articolo 65, paragrafo 1, il distributore ne informa il fornitore o l'importatore del sistema, a seconda dei casi.
2. Qualora ritenga o abbia motivo di ritenere, sulla base delle informazioni in suo possesso, che un sistema di IA ad alto rischio non sia conforme ai requisiti di cui al capo 2 del presente titolo, un distributore non lo mette a disposizione sul mercato fino a quando tale sistema di IA ad alto rischio non sia stato reso conforme a tali requisiti. Inoltre, qualora il sistema presenti un rischio ai sensi dell'articolo 65, paragrafo 1, il distributore ne informa il fornitore o l'importatore del sistema e la pertinente autorità nazionale competente, a seconda dei casi.
Emendamento 387 Proposta di regolamento Articolo 27 – paragrafo 4
4. Un distributore che ritiene o ha motivo di ritenere che un sistema di IA ad alto rischio che ha messo a disposizione sul mercato non sia conforme ai requisiti di cui al capo 2 del presente titolo adotta le misure correttive necessarie per rendere tale sistema conforme a tali requisiti, ritirarlo o richiamarlo o garantisce che il fornitore, l'importatore o qualsiasi operatore pertinente, a seconda dei casi, adotti tali misure correttive. Qualora il sistema di IA ad alto rischio presenti un rischio ai sensi dell'articolo 65, paragrafo1, il distributore ne informa immediatamente le autorità nazionali competenti degli Stati membri in cui ha messo il prodotto a disposizione, fornendo in particolare informazioni precise sulla non conformità e sulle eventuali misure correttive adottate.
4. Un distributore che ritiene o ha motivo di ritenere, sulla base delle informazioni in suo possesso, che un sistema di IA ad alto rischio che ha messo a disposizione sul mercato non sia conforme ai requisiti di cui al capo 2 del presente titolo adotta le misure correttive necessarie per rendere tale sistema conforme a tali requisiti, ritirarlo o richiamarlo o garantisce che il fornitore, l'importatore o qualsiasi operatore pertinente, a seconda dei casi, adotti tali misure correttive. Qualora il sistema di IA ad alto rischio presenti un rischio ai sensi dell'articolo 65, paragrafo 1, il distributore ne informa immediatamente il fornitore o l'importatore del sistema e le autorità nazionali competenti degli Stati membri in cui ha messo il prodotto a disposizione, fornendo in particolare informazioni precise sulla non conformità e sulle eventuali misure correttive adottate.
Emendamento 388 Proposta di regolamento Articolo 27 – paragrafo 5
5. Su richiesta motivata di un'autorità nazionale competente, i distributori di sistemi di IA ad alto rischio forniscono a tale autorità tutte le informazioni e la documentazione necessarie per dimostrare la conformità di un sistema ad alto rischio ai requisiti di cui al capo 2 del presente titolo. I distributori cooperano inoltre con tale autorità nazionale competente in merito a qualsiasi misura adottata da tale autorità.
5. Su richiesta motivata di un'autorità nazionale competente, i distributori di sistemi di IA ad alto rischio forniscono a tale autorità tutte le informazioni e la documentazione in loro possesso o a loro disposizione, in conformità degli obblighi dei distributori di cui al paragrafo 1, che sono necessarie per dimostrare la conformità di un sistema ad alto rischio ai requisiti di cui al capo 2 del presente titolo.
Emendamento 389 Proposta di regolamento Articolo 27 – paragrafo 5 bis (nuovo)
5 bis. I distributori cooperano con le autorità nazionali competenti in merito a qualsiasi azione intrapresa da dette autorità per ridurre e attenuare i rischi rappresentati dai sistemi di IA ad alto rischio.
Emendamento 390 Proposta di regolamento Articolo 28 – titolo
Obblighi di distributori, importatori, utenti e altri terzi
Responsabilità lungo la catena del valore dell'IA di fornitori, distributori, importatori, operatori o altri terzi
Emendamento 391 Proposta di regolamento Articolo 28 – paragrafo 1 – parte introduttiva
1. Qualsiasi distributore, importatore, utente o altro terzo è considerato un fornitore ai fini del presente regolamento ed è soggetto agli obblighi del fornitore a norma dell'articolo 16, nelle circostanze seguenti:
1. Qualsiasi distributore, importatore, operatore o altro terzo è considerato un fornitore di un sistema di IA ad alto rischio ai fini del presente regolamento ed è soggetto agli obblighi del fornitore a norma dell'articolo 16, nelle circostanze seguenti:
Emendamento 392 Proposta di regolamento Articolo 28 – paragrafo 1 – lettera a
a) se immette sul mercato o mette in servizio un sistema di IA ad alto rischio con il loro nome o marchio;
a) se appone il proprio nome o marchio su un sistema di IA ad alto rischio già immesso sul mercato o messo in servizio;
Emendamento 393 Proposta di regolamento Articolo 28 – paragrafo 1 – lettera b
b) se modifica la finalità prevista di un sistema di IA ad alto rischio già immesso sul mercato o messo in servizio;
b) se apporta una modifica sostanziale a un sistema di IA ad alto rischio già immesso sul mercato o già messo in servizio in modo che resti un sistema di IA ad alto rischio a norma dell'articolo 6;
Emendamento 394 Proposta di regolamento Articolo 28 – paragrafo 1 – lettera b bis (nuova)
b bis) se apporta una modifica sostanziale a un sistema di IA, anche uno per finalità generali, che non è stato classificato come ad alto rischio e che è già stato immesso sul mercato o messo in servizio in modo tale che il sistema di IA diventi un sistema di IA ad alto rischio a norma dell'articolo 6;
Emendamento 395 Proposta di regolamento Articolo 28 – paragrafo 2
2. Qualora si verifichino le circostanze di cui al paragrafo 1, lettera b) o c), il fornitore che ha inizialmente immesso sul mercato o messo in servizio il sistema di IA ad alto rischio non è più considerato un fornitore ai fini del presente regolamento.
2. Qualora si verifichino le circostanze di cui al paragrafo 1, lettera da a) a b bis), il fornitore che ha inizialmente immesso sul mercato o messo in servizio il sistema di IA ad alto rischio non è più considerato un fornitore di quel determinato sistema di IA ai fini del presente regolamento. Tale ex fornitore fornisce al nuovo fornitore la documentazione tecnica e tutte le altre capacità informative pertinenti e ragionevolmente attese dal sistema di IA, l'accesso tecnico o assistenza di altro tipo basata sullo stato dell'arte generalmente riconosciuto che sono necessari per l'adempimento degli obblighi di cui al presente regolamento.
Il presente paragrafo si applica anche ai fornitori di modelli di base quali definiti all'articolo 3 quando il modello di base è direttamente integrato in un sistema di IA ad alto rischio.
Emendamento 396 Proposta di regolamento Articolo 28 – paragrafo 2 bis (nuovo)
2 bis. Il fornitore di un sistema di IA ad alto rischio e il terzo che fornisce strumenti, servizi, componenti o processi utilizzati o integrati nel sistema di IA ad alto rischio precisano, mediante accordo scritto, le informazioni, le capacità, l'accesso tecnico e o assistenza di altro tipo, sulla base dello stato dell'arte generalmente riconosciuto, che il terzo è tenuto a fornire per permettere al fornitore del sistema di IA ad alto rischio di adempiere pienamente agli obblighi di cui al presente regolamento.
La Commissione elabora e raccomanda clausole contrattuali tipo non vincolanti tra i fornitori di sistemi di IA ad alto rischio e i terzi che forniscono strumenti, servizi, componenti o processi utilizzati o integrati in sistemi di IA ad alto rischio, al fine di assistere entrambe le parti nell'elaborazione e nella negoziazione di contratti con diritti e obblighi contrattuali equilibrati, in linea con il grado di controllo di ciascuna parte. Nell'elaborare clausole contrattuali tipo non vincolanti, la Commissione tiene conto dei possibili requisiti contrattuali applicabili in determinati settori o casi commerciali. Le clausole contrattuali non vincolanti sono pubblicate e disponibili gratuitamente in un formato elettronico facilmente utilizzabile sul sito web dell'ufficio per l'IA.
Emendamento 397 Proposta di regolamento Articolo 28 – paragrafo 2 ter (nuovo)
2 ter. Ai fini del presente articolo, i segreti commerciali sono preservati e sono comunicati soltanto a condizione che siano preventivamente adottate tutte le misure specifiche necessarie, conformemente alla direttiva UE 2016/943, per tutelarne la riservatezza, in particolare rispetto a terzi. All'occorrenza possono essere concordate opportune disposizioni tecniche e organizzative per tutelare i diritti di proprietà intellettuale o i segreti commerciali.
Emendamento 398 Proposta di regolamento Articolo 28 bis (nuovo)
Articolo 28 bis
Clausole contrattuali abusive imposte unilateralmente a una PMI o start-up
1. Una clausola contrattuale relativa alla fornitura di strumenti, servizi, componenti o processi utilizzati o integrati in un sistema di IA ad alto rischio o ai mezzi di ricorso per la violazione o la cessazione dei relativi obblighi imposti unilateralmente da un'impresa a una PMI o start-up non è vincolante per quest'ultima impresa se è abusiva.
2. Una clausola contrattuale non dovrebbe essere considerata abusiva se deriva dal diritto dell'Unione vigente.
3. Una clausola contrattuale è abusiva se è di natura tale da compromettere oggettivamente la capacità della parte cui la clausola è stata imposta unilateralmente di tutelare il suo legittimo interesse commerciale per le informazioni in questione o se il suo utilizzo si discosta gravemente dalle buone prassi commerciali nella fornitura di strumenti, servizi, componenti o processi che sono utilizzati o integrati in un sistema di IA ad alto rischio, in contrasto con la buona fede e la lealtà, o crea un sostanziale squilibrio tra i diritti e gli obblighi delle parti contrattuali. Una clausola contrattuale è abusiva anche se ha l'effetto di trasferire tra le parti contrattuali le sanzioni di cui all'articolo 71 o le relative spese di contenzioso di cui all'articolo 71, paragrafo 8.
4. Una clausola contrattuale è abusiva ai fini del presente articolo se ha per oggetto o effetto di:
a) escludere o limitare la responsabilità della parte che ha imposto unilateralmente la clausola in caso di atti intenzionali o negligenza grave;
b) escludere i mezzi di ricorso a disposizione della parte alla quale la clausola è stata imposta unilateralmente in caso di inadempimento degli obblighi contrattuali o la responsabilità della parte che ha imposto unilateralmente la clausola in caso di violazione di tali obblighi;
c) conferire alla parte che ha imposto unilateralmente la clausola il diritto esclusivo di determinare se la documentazione tecnica e i dati forniti sono conformi al contratto o di interpretare una qualsiasi clausola del contratto.
5. Una clausola contrattuale è ritenuta imposta unilateralmente ai sensi del presente articolo se è stata inserita da una parte contraente senza che l'altra parte sia stata in grado di influenzarne il contenuto malgrado un tentativo di negoziarla. Alla parte contraente che ha inserito una clausola contrattuale incombe l'onere di provare che tale clausola non è stata imposta unilateralmente.
6. Se la clausola contrattuale abusiva è scindibile dalle altre clausole contrattuali, le clausole rimanenti mantengono carattere vincolante. La parte che ha stabilito la clausola controversa non può sostenere che si tratta di una clausola abusiva.
7. Il presente articolo si applica a tutti i nuovi contratti entrati in vigore dopo ... [data di entrata in vigore del presente regolamento]. Le imprese riesaminano gli obblighi contrattuali esistenti soggetti al presente regolamento entro … [tre anni dalla data di entrata in vigore del presente regolamento].
8. Data la rapidità con cui si verificano le innovazioni sui mercati, l'elenco delle clausole contrattuali abusive di cui all'articolo 28 bis è riesaminato periodicamente dalla Commissione e, se necessario, è aggiornato alla luce delle nuove prassi commerciali.
Emendamento 399 Proposta di regolamento Articolo 28 ter (nuovo)
Articolo 28 ter
Obblighi del fornitore di un modello di base
1. Un fornitore di un modello di base, prima di metterlo a disposizione sul mercato o di metterlo in servizio, garantisce che sia conforme ai requisiti previsti dal presente articolo, a prescindere dal fatto che sia fornito come modello autonomo o integrato in un sistema di IA o in un prodotto, o fornito su licenza gratuita e open source, come servizio, nonché altri canali di distribuzione.
2. Ai fini del paragrafo 1 il fornitore di un modello di base:
a) dimostra, mediante progettazione, prove e analisi adeguate, l'individuazione, la riduzione e l'attenuazione dei rischi ragionevolmente prevedibili per la salute, la sicurezza, i diritti fondamentali, l'ambiente, la democrazia e lo Stato di diritto, prima e durante lo sviluppo, con metodi adeguati, ad esempio con il coinvolgimento di esperti indipendenti, nonché la documentazione dei restanti rischi non attenuabili dopo lo sviluppo;
b) elabora e incorpora soltanto insiemi di dati soggetti a idonee misure di governance dei dati per i modelli di base, in particolare misure per esaminare l'adeguatezza delle fonti di dati ed eventuali distorsioni e un'opportuna attenuazione;
c) progetta e sviluppa il modello di base al fine di conseguire, durante l'intero ciclo di vita, opportuni livelli di prestazioni, prevedibilità, interpretabilità, corregibilità, protezione e cibersicurezza, valutati mediante metodi adeguati quali la valutazione dei modelli con la partecipazione di esperti indipendenti, analisi documentate e test approfonditi nelle fasi di concettualizzazione, progettazione e sviluppo;
d) progetta e sviluppa il modello di base, avvalendosi delle norme applicabili per ridurre l'uso di energia, l'uso di risorse e i rifiuti, nonché per aumentare l'efficienza energetica e l'efficienza complessiva del sistema, fatto salvo la vigente normativa dell'Unione e nazionale in materia. Tale obbligo non si applica prima della pubblicazione delle norme di cui all'articolo 40. I modelli di base sono progettati con capacità che consentono la misurazione e la registrazione del consumo di energia e risorse e, se tecnicamente fattibile, degli altri effetti ambientali che l'adozione e l'utilizzo dei sistemi può avere sul loro intero ciclo di vita;
e) redige un'ampia documentazione tecnica e istruzioni per l'uso intelligibili per consentire ai fornitori a valle di adempiere agli obblighi di cui all'articolo 16 e all'articolo 28, paragrafo 1;
f) pone in essere un sistema di gestione della qualità per garantire e documentare la conformità al presente articolo, con la possibilità di testare il rispetto del presente requisito;
g) registra tale modello di base nella banca dati dell'UE di cui all'articolo 60, conformemente alle istruzioni di cui all'allegato VIII, lettera C.
Nel soddisfare tali requisiti si tiene conto dello stato dell'arte generalmente riconosciuto, anche come indicato nelle pertinenti norme armonizzate o nelle specifiche comuni, nonché dei più recenti metodi di valutazione e misurazione, rispecchiati in particolare negli orientamenti e nelle capacità di analisi comparativa di cui all'articolo 58 bis;
3. Per un periodo che si conclude 10 anni dopo l'immissione sul mercato o la messa in servizio del sistema di IA i fornitori dei modelli di base tengono la documentazione tecnica di cui al paragrafo 2, lettera e), a disposizione delle autorità nazionali competenti.
4. Inoltre, i fornitori di modelli di base utilizzati nei sistemi di IA destinati espressamente a generare, con diversi livelli di autonomia, contenuti quali testi complessi, immagini, audio o video ("IA generativa") e i fornitori specializzati nella trasformazione di un modello di base in un sistema di IA generativa:
a) adempiono agli obblighi di trasparenza di cui all'articolo 52, paragrafo 1,
b) formano e, se del caso, progettano e sviluppano il modello di base in modo da assicurare opportune garanzie contro la generazione di contenuti che violano il diritto dell'Unione, in linea con lo stato dell'arte generalmente riconosciuto e fatti salvi i diritti fondamentali, compresa la libertà di espressione;
c) fatta salva la normativa dell'Unione o nazionale in materia di diritto d'autore, documentano e mettono a disposizione del pubblico una sintesi sufficientemente dettagliata dell'uso dei dati sulla formazione protetti da diritto d'autore.
Emendamento 400 Proposta di regolamento Articolo 29 – paragrafo 1
1. Gli utenti di sistemi di IA ad alto rischio usano tali sistemi conformemente alle istruzioni per l'uso che accompagnano i sistemi, a norma dei paragrafi 2 e 5.
1. Gli operatori di sistemi di IA ad alto rischio adottano idonee misure tecniche e organizzative per garantire di utilizzare tali sistemi conformemente alle istruzioni per l'uso che accompagnano i sistemi, a norma dei paragrafi 2 e 5.
Emendamento 401 Proposta di regolamento Articolo 29 – paragrafo 1 bis (nuovo)
1 bis. Nella misura in cui esercitano un controllo sul sistema di IA ad alto rischio, gli operatori:
i) attuano la sorveglianza umana conformemente ai requisiti stabiliti nel presente regolamento;
ii) garantiscono che le persone fisiche preposte ad assicurare la sorveglianza umana dei sistemi di IA ad alto rischio siano competenti, adeguatamente qualificate e formate e dispongano delle risorse necessarie per assicurare l'efficace supervisione del sistema di IA a norma dell'articolo 14;
iii) garantiscono che le misure pertinenti e adeguate in materia di robustezza e cibersicurezza siano periodicamente monitorate per verificarne l'efficacia e siano periodicamente adeguate o aggiornate.
Emendamento 402 Proposta di regolamento Articolo 29 – paragrafo 2
2. Gli obblighi di cui al paragrafo 1 lasciano impregiudicati gli altri obblighi degli utenti previsti dal diritto dell'Unione o nazionale e la discrezionalità dell'utente nell'organizzare le proprie risorse e attività al fine di attuare le misure di sorveglianza umana indicate dal fornitore.
2. Gli obblighi di cui ai paragrafi 1 e 1 bis lasciano impregiudicati gli altri obblighi degli operatori previsti dal diritto dell'Unione o nazionale e la discrezionalità dell'operatore nell'organizzare le proprie risorse e attività al fine di attuare le misure di sorveglianza umana indicate dal fornitore.
Emendamento 403 Proposta di regolamento Articolo 29 – paragrafo 3
3. Fatto salvo il paragrafo 1, nella misura in cui esercita il controllo sui dati di input, l'utente garantisce che tali dati di input siano pertinenti alla luce della finalità prevista del sistema di IA ad alto rischio.
3. Fatto salvo i paragrafi 1 e 1 bis, nella misura in cui esercita il controllo sui dati di input, l'operatore garantisce che tali dati di input siano pertinenti e sufficientemente rappresentativi alla luce della finalità prevista del sistema di IA ad alto rischio.
Emendamento 404 Proposta di regolamento Articolo 29 – paragrafo 4 – parte introduttiva
4. Gli utenti monitorano il funzionamento del sistema di IA ad alto rischio sulla base delle istruzioni per l'uso. Se hanno motivo di ritenere che l'uso in conformità alle istruzioni per l'uso possa far sì che il sistema di IA presenti un rischio ai sensi dell'articolo65, paragrafo1, ne informano il fornitore o il distributore e sospendono l'uso del sistema. Essi informano inoltre il fornitore o il distributore qualora abbiano individuato un incidente grave o un malfunzionamento ai sensi dell'articolo 62 e interrompono l'uso del sistema di IA. Nel caso in cui l'utente non sia in grado di raggiungere il fornitore, si applica mutatis mutandis l'articolo 62.
4. Gli operatori monitorano il funzionamento del sistema di IA ad alto rischio sulla base delle istruzioni per l'uso e, se del caso, informano i fornitori a tale riguardo conformemente all'articolo 61. Se hanno motivo di ritenere che l'uso in conformità alle istruzioni per l'uso possa far sì che il sistema di IA presenti un rischio ai sensi dell'articolo 65, paragrafo 1, ne informano senza indebito ritardo il fornitore o il distributore e le competenti autorità nazionali di controllo e sospendono l'uso del sistema. Essi informano immediatamente inoltre, in primo luogo, il fornitore e, successivamente, l'importatore o il distributore e le competenti autorità nazionali di controllo qualora abbiano individuato un incidente grave o un malfunzionamento ai sensi dell'articolo 62 e interrompono l'uso del sistema di IA. Nel caso in cui l'operatore non sia in grado di raggiungere il fornitore, si applica mutatis mutandis l'articolo 62.
Per gli utenti che sono enti creditizi disciplinati dalla direttiva 2013/36/UE, l'obbligo di cui al primo comma si considera soddisfatto se sono rispettate le regole sui dispositivi, i processi e i meccanismi di governance interna di cui all'articolo 74 di tale direttiva.
Per gli operatori che sono enti creditizi disciplinati dalla direttiva 2013/36/UE, l'obbligo di cui al primo comma si considera soddisfatto se sono rispettate le regole sui dispositivi, i processi e i meccanismi di governance interna di cui all'articolo 74 di tale direttiva.
5. Gli utenti di sistemi di IA ad alto rischio conservano i log generati automaticamente dai loro sistemi di IA ad alto rischio, nella misura in cui tali log sono sotto il loro controllo. I log sono conservati per un periodo adeguato alla luce della finalità prevista del sistema di IA ad alto rischio e degli obblighi giuridici applicabili a norma del diritto dell'Unione o nazionale.
5. Gli operatori di sistemi di IA ad alto rischio conservano i log generati automaticamente dai loro sistemi di IA ad alto rischio, nella misura in cui tali log sono sotto il loro controllo e sono necessari per garantire e dimostrare la conformità al presente regolamento, per audit ex post di qualsiasi malfunzionamento, incidente o uso improprio ragionevolmente prevedibili del sistema, o per garantire e monitorare il corretto funzionamento del sistema durante il suo intero ciclo di vita. Fatto salvo il diritto dell'Unione o nazionale applicabile, i log sono conservati per un periodo minimo di sei mesi. Il periodo di conservazione è conforme alle norme del settore e adeguato alla finalità prevista del sistema di IA ad alto rischio.
Gli utenti che sono enti creditizi disciplinati dalla direttiva 2013/36/UE mantengono i log nell'ambito della documentazione riguardante i dispositivi, i processi e i meccanismi di governance interna di cui all'articolo 74 di tale direttiva.
Gli operatori che sono enti creditizi disciplinati dalla direttiva 2013/36/UE mantengono i log nell'ambito della documentazione riguardante i dispositivi, i processi e i meccanismi di governance interna di cui all'articolo 74 di tale direttiva.
Emendamento 408 Proposta di regolamento Articolo 29 – paragrafo 5 bis (nuovo)
5 bis. Prima di mettere in servizio o utilizzare un sistema di IA ad alto rischio sul luogo di lavoro, gli operatori consultano i rappresentanti dei lavoratori allo scopo di trovare un accordo a norma della direttiva 2002/14/CE e informano i dipendenti interessati che saranno soggetti al sistema.
Emendamento 409 Proposta di regolamento Articolo 29 – paragrafo 5 ter (nuovo)
5 ter. Gli operatori di sistemi di IA ad alto rischio che sono autorità pubbliche o istituzioni, organi e organismi o imprese di cui all'articolo 51, paragrafo 1bis, lettera b), dell'Unione adempiono agli obblighi di registrazione di cui all'articolo 51.
Emendamento 410 Proposta di regolamento Articolo 29 – paragrafo 6
6. Gli utenti di sistemi di IA ad alto rischio usano le informazioni fornite a norma dell'articolo 13 per adempiere al loro obbligo di effettuare una valutazione d'impatto sulla protezione dei dati a norma dell'articolo 35 del regolamento (UE) 2016/679 o dell'articolo 27 della direttiva (UE) 2016/680, ove applicabile.
6. Ove applicabile, gli operatori di sistemi di IA ad alto rischio usano le informazioni fornite a norma dell'articolo 13 per adempiere al loro obbligo di effettuare una valutazione d'impatto sulla protezione dei dati a norma dell'articolo 35 del regolamento (UE) 2016/679 o dell'articolo 27 della direttiva (UE) 2016/680, di cui si pubblica una sintesi tenendo conto dell'impiego specifico e del contesto specifico in cui il sistema di IA deve operare. Gli operatori possono ritornare in parte a tali valutazioni d'impatto sulla protezione dei dati per adempiere ad alcuni degli obblighi di cui al presente articolo, nella misura in cui la valutazione d'impatto sulla protezione dei dati rispetta tali obblighi.
Emendamento 411 Proposta di regolamento Articolo 29 – paragrafo 6 bis (nuovo)
6 bis. Fatto salvo l'articolo 52, gli operatori dei sistemi di IA ad alto rischio di cui all'allegato III, che adottano decisioni o assistono nell'adozione di decisioni che riguardano persone fisiche, informano queste ultime che sono soggette all'uso del sistema di IA ad alto rischio. Tale informazione la finalità prevista e il tipo di decisioni adottate. L'operatore informa inoltre la persona fisica del suo diritto alla spiegazione di cui all'articolo 68 quater.
Emendamento 412 Proposta di regolamento Articolo 29 – paragrafo 6 ter (nuovo)
6 ter. Gli operatori cooperano con le autorità nazionali competenti in merito a qualsiasi azione intrapresa da dette autorità in relazione al sistema ad alto rischio ai fini dell'attuazione del presente regolamento.
Emendamento 413 Proposta di regolamento Articolo 29 bis (nuovo)
Articolo 29 bis
Valutazione d'impatto sui diritti fondamentali per i sistemi di IA ad alto rischio
Prima di mettere in servizio un sistema di IA ad alto rischio quale definito all'articolo 6, paragrafo 2, ad eccezione dei sistemi di IA destinati ad essere utilizzati nel settore 2 dell'allegato III, gli operatori effettuano una valutazione dell'impatto dei sistemi nel contesto specifico di impiego. Tale valutazione comprende, almeno, i seguenti elementi:
a) una chiara descrizione della finalità prevista per la quale verrà utilizzato il sistema;
b) una chiara descrizione dell'ambito geografico e temporale previsto per l'uso del sistema;
c) le categorie di persone fisiche e gruppi verosimilmente interessati dall'uso del sistema;
d) la verifica che l'uso del sistema è conforme al diritto dell'Unione e nazionale in materia di diritti fondamentali;
e) l'impatto ragionevolmente prevedibile sui diritti fondamentali di mettere in servizio il sistema di IA ad alto rischio;
f) determinati rischi di danno suscettibili di incidere sulle persone emarginate o sui gruppi vulnerabili;
g) l'impatto negativo ragionevolmente prevedibile dell'utilizzo del sistema sull'ambiente;
h) un piano dettagliato su come saranno attenuati i danni o l'impatto negativo sui diritti fondamentali individuati;
j) il sistema di governance che sarà messo in atto dall'operatore, compresa la supervisione umana, la gestione dei reclami e i mezzi di ricorso.
2. Qualora non possa essere individuato un piano dettagliato per attenuare i rischi identificati nel corso della valutazione di cui al paragrafo 1, l'operatore si astiene dal mettere in servizio il sistema di IA ad alto rischio e informa senza indebito ritardo il fornitore e l'autorità nazionale di controllo. Le autorità nazionali di controllo, a norma degli articoli 65 e 67, tengono conto di tali informazioni quando conducono indagini sui sistemi che presentano un rischio a livello nazionale.
3. L'obbligo di cui al paragrafo 1 si applica al nuovo uso del sistema di IA ad alto rischio. L'operatore può, in casi analoghi, ispirarsi da una valutazione d'impatto sui diritti fondamentali effettuata in precedenza o da una valutazione esistente effettuata dai fornitori. Se, durante l'uso del sistema di IA ad alto rischio, ritiene che non siano più soddisfatti i criteri di cui al paragrafo 1, l'operatore effettua una nuova valutazione d'impatto sui diritti fondamentali.
4. Nel corso della valutazione d'impatto, l'operatore, ad eccezione delle PMI, informa l'autorità nazionale di controllo e i pertinenti portatori di interessi e coinvolge, nella misura del possibile, i rappresentanti delle persone o dei gruppi di persone suscettibili di essere interessate dal sistema di IA ad alto rischio, individuati al paragrafo 1, compresi, tra l'altro: gli organismi per la parità, le agenzie di protezione dei consumatori, le parti sociali e le agenzie di protezione dei dati, al fine di ricevere un contributo alla valutazione d'impatto. Per ricevere una risposta degli organismi l'operatore concede un periodo di sei settimane. Le PMI possono applicare le disposizioni di cui al presente paragrafo su base volontaria.
Nel caso di cui all'articolo 47, paragrafo 1, le autorità pubbliche possono essere esentate da tali obblighi.
5. L'operatore che è un'autorità pubblica o un'impresa di cui all'articolo 51, paragrafo 1 bis, lettera b, pubblica una sintesi dei risultati della valutazione d'impatto nell'ambito della registrazione dell'uso ai sensi dell'obbligo di cui all'articolo 51, paragrafo 2.
6. Qualora all'operatore sia già stato richiesto di svolgere una valutazione d'impatto sulla protezione dei dati a norma dell'articolo 35 del regolamento (UE) 2016/679 o dell'articolo 27 della direttiva (UE) 2016/680, la valutazione d'impatto sui diritti fondamentali di cui al paragrafo 1 è condotta insieme alla valutazione d'impatto sulla protezione dei dati. La valutazione d'impatto sulla protezione dei dati è pubblicata come addendum.
Emendamento 414 Proposta di regolamento Articolo 30 – paragrafo 1
1. Ciascuno Stato membro designa o istituisce un'autorità di notifica responsabile della predisposizione e dell'esecuzione delle procedure necessarie per la valutazione, la designazione e la notifica degli organismi di valutazione della conformità e per il loro monitoraggio.
1. Ciascuno Stato membro designa o istituisce un'autorità di notifica responsabile della predisposizione e dell'esecuzione delle procedure necessarie per la valutazione, la designazione e la notifica degli organismi di valutazione della conformità e per il loro monitoraggio. Tali procedure sono sviluppate nell'ambito della collaborazione tra le autorità di notifica di tutti gli Stati membri.
Emendamento 415 Proposta di regolamento Articolo 30 – paragrafo 7
7. Le autorità di notifica dispongono di un numero sufficiente di dipendenti competenti per l'adeguata esecuzione dei relativi compiti.
7. Le autorità di notifica dispongono di un numero sufficiente di dipendenti competenti per l'adeguata esecuzione dei relativi compiti. Se del caso, il personale competente possiede le competenze necessarie, ad esempio una laurea in un settore giuridico appropriato, ai fini del controllo dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell'Unione europea.
Emendamento 416 Proposta di regolamento Articolo 30 – paragrafo 8
8. Le autorità di notifica si accertano che le valutazioni della conformità siano effettuate in modo proporzionato, evitando oneri inutili per i fornitori, e che gli organismi notificati svolgano le loro attività tenendo debitamente conto delle dimensioni di un'impresa, del settore in cui opera, della sua struttura e del grado di complessità del sistema di IA in questione.
8. Le autorità di notifica si accertano che le valutazioni della conformità siano effettuate in modo proporzionato e tempestivo, evitando oneri inutili per i fornitori, e che gli organismi notificati svolgano le loro attività tenendo debitamente conto delle dimensioni di un'impresa, del settore in cui opera, della sua struttura e del grado di complessità del sistema di IA in questione. Si presta particolare attenzione alla riduzione al minimo degli oneri amministrativi e dei costi di conformità per le microimprese e le piccole imprese quali definite nell'allegato alla raccomandazione 2003/361/CE della Commissione.
Emendamento 417 Proposta di regolamento Articolo 32 – paragrafo 1
1. Le autorità di notifica possono notificare solo gli organismi di valutazione della conformità che soddisfino i requisiti di cui all'articolo 33.
1. Le autorità di notifica notificano solo gli organismi di valutazione della conformità che soddisfino i requisiti di cui all'articolo 33.
Emendamento 418 Proposta di regolamento Articolo 32 – paragrafo 2
2. Le autorità di notifica notificano la Commissione e gli altri Stati membri utilizzando lo strumento elettronico di notifica elaborato e gestito dalla Commissione.
2. Le autorità di notifica notificano la Commissione e gli altri Stati membri utilizzando lo strumento elettronico di notifica elaborato e gestito dalla Commissione, di ciascun organismo di valutazione della conformità di cui al paragrafo 1.
Emendamento 419 Proposta di regolamento Articolo 32 – paragrafo 3
3. La notifica include tutti i dettagli delle attività di valutazione della conformità, del modulo o dei moduli di valutazione della conformità e delle tecnologie di intelligenza artificiale interessate.
3. La notifica di cui al paragrafo 2 include tutti i dettagli delle attività di valutazione della conformità, del modulo o dei moduli di valutazione della conformità e delle tecnologie di intelligenza artificiale interessate, nonché la relativa attestazione di competenza.
Emendamento 420 Proposta di regolamento Articolo 32 – paragrafo 4
4. L'organismo di valutazione della conformità interessato può eseguire le attività di un organismo notificato solo se non sono sollevate obiezioni da parte della Commissione o degli altri Stati membri entro un mese dalla notifica.
4. L'organismo di valutazione della conformità interessato può eseguire le attività di un organismo notificato solo se non sono sollevate obiezioni da parte della Commissione o degli altri Stati membri entro due settimane dalla convalida della notifica, qualora essa includa un certificato di accreditamento di cui all'articolo 31, paragrafo 2, o entro due mesi dalla notifica qualora essa includa le prove documentali di cui all'articolo 31, paragrafo 3.
Emendamento 421 Proposta di regolamento Articolo 32 – paragrafo 4 bis (nuovo)
4 bis. Se sono sollevate obiezioni, la Commissione avvia senza ritardo consultazioni con gli Stati membri pertinenti e l'organismo di valutazione della conformità. In seguito a tale consultazione la Commissione decide se l'autorizzazione è giustificata o meno. La Commissione trasmette la propria decisione allo Stato membro interessato e all'organismo di valutazione della conformità pertinente.
Emendamento 422 Proposta di regolamento Articolo 32 – paragrafo 4 ter (nuovo)
4 ter. Gli Stati membri notificano alla Commissione e agli altri Stati membri gli organismi preposti alla valutazione di conformità.
Emendamento 423 Proposta di regolamento Articolo 33 – paragrafo 2
2. Gli organismi notificati soddisfano i requisiti organizzativi, di gestione della qualità e relativi alle risorse e ai processi necessari all'assolvimento dei loro compiti.
2. Gli organismi notificati soddisfano i requisiti organizzativi, di gestione della qualità e relativi alle risorse e ai processi necessari all'assolvimento dei loro compiti, nonché i requisiti minimi di cibersicurezza stabiliti per gli enti della pubblica amministrazione identificati come operatori di servizi essenziali a norma della direttiva (UE) 2022/2555.
Emendamento 424 Proposta di regolamento Articolo 33 – paragrafo 4
4. Gli organismi notificati sono indipendenti dal fornitore di un sistema di IA ad alto rischio in relazione al quale svolgono attività di valutazione della conformità. Gli organismi notificati sono inoltre indipendenti da qualsiasi altro operatore avente un interesse economico nel sistema di IA ad alto rischio oggetto della valutazione, nonché da eventuali concorrenti del fornitore.
4. Gli organismi notificati sono indipendenti dal fornitore di un sistema di IA ad alto rischio in relazione al quale svolgono attività di valutazione della conformità. Gli organismi notificati sono inoltre indipendenti da qualsiasi altro operatore avente un interesse economico nel sistema di IA ad alto rischio oggetto della valutazione, nonché da eventuali concorrenti del fornitore. Ciò non preclude l'uso dei sistemi di IA valutati che sono necessari per il funzionamento dell'organismo di valutazione della conformità o l'uso di tali sistemi per scopi privati.
Emendamento 425 Proposta di regolamento Articolo 33 – paragrafo 4 bis (nuovo)
4 bis. La valutazione della conformità a norma del paragrafo 1 è effettuata dai dipendenti di organismi notificati che non hanno prestato nessun altro servizio connesso alla questione valutata diverso dalla valutazione della conformità al fornitore di un sistema di IA ad alto rischio né a persone giuridiche collegate a tale fornitore nei 12 mesi precedenti la valutazione e si sono impegnati a non fornire tali servizi nei 12 mesi successivi al completamento della valutazione.
Emendamento 426 Proposta di regolamento Articolo 33 – paragrafo 6
6. Gli organismi notificati dispongono di procedure documentate per garantire che il loro personale, i loro comitati, affiliate, subappaltatori e qualsiasi altra organizzazione associata o il personale di organismi esterni rispettino la riservatezza delle informazioni di cui vengono in possesso nello svolgimento delle attività di valutazione della conformità, salvo quando la legge ne prescriva la divulgazione. Il personale degli organismi notificati è tenuto a osservare il segreto professionale riguardo a tutte le informazioni ottenute nello svolgimento dei suoi compiti a norma del presente regolamento, tranne che nei confronti delle autorità di notifica dello Stato membro in cui svolge le sue attività.
6. Gli organismi notificati dispongono di procedure documentate per garantire che il loro personale, i loro comitati, affiliate, subappaltatori e qualsiasi altra organizzazione associata o il personale di organismi esterni rispettino la riservatezza delle informazioni di cui vengono in possesso nello svolgimento delle attività di valutazione della conformità, salvo quando la legge ne prescriva la divulgazione. Il personale degli organismi notificati è tenuto a osservare il segreto professionale riguardo a tutte le informazioni ottenute nello svolgimento dei suoi compiti a norma del presente regolamento, tranne che nei confronti delle autorità di notifica dello Stato membro in cui svolge le sue attività. Qualsiasi informazione e documentazione ottenuta dagli organismi notificati a norma delle disposizioni del presente articolo è trattata nel rispetto degli obblighi di riservatezza di cui all'articolo 70.
Emendamento 427 Proposta di regolamento Articolo 34 – paragrafo 3
3. Le attività possono essere subappaltate o eseguite da un'affiliata solo con il consenso del fornitore.
3. Le attività possono essere subappaltate o eseguite da un'affiliata solo con il consenso del fornitore. Gli organismi notificati mettono a disposizione del pubblico un elenco delle loro affiliate.
Emendamento 428 Proposta di regolamento Articolo 34 – paragrafo 4
4. Gli organismi notificati tengono a disposizione dell'autorità di notifica i documenti pertinenti riguardanti la valutazione delle qualifiche del subappaltatore o dell'affiliata e il lavoro da essi eseguito a norma del presente regolamento.
4. Gli organismi notificati tengono a disposizione dell'autorità di notifica i documenti pertinenti riguardanti la verifica delle qualifiche del subappaltatore o dell'affiliata e il lavoro da essi eseguito a norma del presente regolamento.
Emendamento 429 Proposta di regolamento Articolo 35 – titolo
Numeri di identificazione e liste di organismi notificati designati a norma del presente regolamento
Numeri di identificazione e liste di organismi notificati
Emendamento 430 Proposta di regolamento Articolo 36 – paragrafo 1
1. Qualora un'autorità di notifica sospetti o sia stata informata del fatto che un organismo notificato non soddisfa più i requisiti di cui all'articolo 33 o non adempie i suoi obblighi, tale autorità indaga senza ritardo sulla questione con la massima diligenza. In tale contesto, essa informa l'organismo notificato interessato in merito alle obiezioni sollevate e gli dà la possibilità di esprimere il suo punto di vista. Se l'autorità di notifica conclude che l'organismo notificato su cui ha condotto le indagini non soddisfa più i requisiti di cui all'articolo 33 o non adempie i suoi obblighi, tale autorità limita, sospende o ritira la notifica, a seconda dei casi, in funzione della gravità dell'inadempimento. Essa inoltre ne informa immediatamente la Commissione e gli altri Stati membri.
1. Qualora un'autorità di notifica sospetti o sia stata informata del fatto che un organismo notificato non soddisfa più i requisiti di cui all'articolo 33 o non adempie i suoi obblighi, tale autorità indaga senza ritardo sulla questione con la massima diligenza. In tale contesto, essa informa l'organismo notificato interessato in merito alle obiezioni sollevate e gli dà la possibilità di esprimere il suo punto di vista. Se l'autorità di notifica conclude che l'organismo notificato non soddisfa più i requisiti di cui all'articolo 33 o non adempie i suoi obblighi, tale autorità limita, sospende o ritira la notifica, a seconda dei casi, in funzione della gravità dell'inadempimento. Essa inoltre ne informa immediatamente la Commissione e gli altri Stati membri.
Emendamento 431 Proposta di regolamento Articolo 36 – paragrafo 2
2. Nei casi di limitazione, sospensione o ritiro della notifica, oppure di cessazione dell'attività dell'organismo notificato, l'autorità di notifica adotta le misure appropriate per garantire che le pratiche di tale organismo notificato siano evase da un altro organismo notificato o siano tenute a disposizione delle autorità di notifica responsabili, su loro richiesta.
2. Nei casi di limitazione, sospensione o ritiro della notifica, oppure di cessazione dell'attività dell'organismo notificato, l'autorità di notifica adotta le misure appropriate per garantire che le pratiche di tale organismo notificato siano evase da un altro organismo notificato o siano tenute a disposizione delle autorità di notifica responsabili, nonché dell'autorità di vigilanza del mercato, su loro richiesta.
Emendamento 432 Proposta di regolamento Articolo 37 – paragrafo 1
1. Ove necessario, la Commissione indaga su tutti i casi in cui vi siano motivi di dubitare della conformità di un organismo notificato ai requisiti di cui all'articolo 33.
1. Ove necessario, la Commissione indaga su tutti i casi in cui vi siano motivi di dubitare della competenza di un organismo notificato o della continua ottemperanza di un organismo notificato ai requisiti e alle responsabilità applicabili.
Emendamento 433 Proposta di regolamento Articolo 37 – paragrafo 2
2. L'autorità di notifica fornisce alla Commissione, su richiesta, tutte le informazioni relative alla notifica dell'organismo notificato interessato.
2. L'autorità di notifica fornisce alla Commissione, su richiesta, tutte le informazioni relative alla notifica o al mantenimento della competenza dell'organismo notificato interessato.
Emendamento 434 Proposta di regolamento Articolo 37 – paragrafo 3
3. La Commissione provvede affinché tutte le informazioni riservate ottenute nel corso delle sue indagini a norma del presente articolo siano trattate in maniera riservata.
3. La Commissione provvede affinché tutte le informazioni sensibili ottenute nel corso delle sue indagini a norma del presente articolo siano trattate in maniera riservata.
Emendamento 435 Proposta di regolamento Articolo 37 – paragrafo 4
4. La Commissione, qualora accerti che un organismo notificato non soddisfa o non soddisfa più i requisiti di cui all'articolo 33, adotta una decisione motivata con cui chiede allo Stato membro notificante di adottare le misure correttive necessarie, compreso il ritiro della notifica. Tale atto di esecuzione è adottato in conformità alla procedura d'esame di cui all'articolo 74, paragrafo 2.
4. La Commissione, qualora accerti che un organismo notificato non soddisfa o non soddisfa più i requisiti per la sua notifica, informa di conseguenza lo Stato membro notificante e gli chiede di adottare le misure correttive necessarie compresa la sospensione o il ritiro della notifica. Se lo Stato membro non intraprende le azioni correttive necessarie, la Commissione può, mediante un atto di esecuzione, sospendere, limitare o ritirare la designazione. Tale atto di esecuzione è adottato in conformità alla procedura d'esame di cui all'articolo 74, paragrafo 2.
Emendamento 436 Proposta di regolamento Articolo 38 – paragrafo 2 bis (nuovo)
2 bis. La Commissione provvede allo scambio di conoscenze e migliori prassi tra le autorità nazionali degli Stati membri responsabili della politica di notifica.
Emendamento 437 Proposta di regolamento Articolo 40 – comma 1
I sistemi di IA ad alto rischio che sono conformi alle norme armonizzate o a parti di esse i cui riferimenti sono stati pubblicati nella Gazzetta ufficiale dell'Unione europea si presumono conformi ai requisiti essenziali, di cui al capo 2 del presente titolo, nella misura in cui tali requisiti sono contemplati da tali norme.
I sistemi di IA ad alto rischio e i modelli di base che sono conformi alle norme armonizzate o a parti di esse i cui riferimenti sono stati pubblicati nella Gazzetta ufficiale dell'Unione europea a norma del regolamento (UE) n. 1025/2012 si presumono conformi ai requisiti essenziali, di cui al capo 2 del presente titolo o all'articolo 28 bis, nella misura in cui tali requisiti sono contemplati da tali norme.
Emendamento 438 Proposta di regolamento Articolo 40 – comma 1 bis (nuovo)
La Commissione presenta richieste di normazione che contemplano tutti i requisiti del presente regolamento conformemente all'articolo 10 del regolamento (UE) n. 1025/2012 entro … [due mesi dalla data di entrata in vigore del presente regolamento]. In sede di preparazione della richiesta di normazione, la Commissione consulta l'ufficio per l'IA e il forum consultivo.
Emendamento 439 Proposta di regolamento Articolo 40 – comma 1 ter (nuovo)
Nel presentare una richiesta di normazione alle organizzazioni europee di normazione, la Commissione specifica che le norme devono essere coerenti, anche con il diritto settoriale di cui all'allegato II, e volte a garantire che i sistemi di IA o i modelli di base immessi sul mercato o messi in servizio nell'Unione soddisfino i pertinenti requisiti di cui al presente regolamento.
Gli attori coinvolti nel processo di normazione tengono conto dei principi generali per un'IA affidabile di cui all'articolo 4, lettera a), cercano di promuovere gli investimenti e l'innovazione nell'IA nonché la competitività e la crescita del mercato dell'Unione e contribuiscono a intensificare la cooperazione globale in materia di normazione e a tenere conto delle norme internazionali esistenti nel settore dell'IA che sono coerenti con i valori, i diritti e gli interessi fondamentali dell'Unione nonché garantiscono una rappresentanza equilibrata degli interessi e l'effettiva partecipazione di tutti i portatori di interessi coinvolti a norma degli articoli 5, 6 e 7 del regolamento (UE) n. 1025/2012.
Emendamento 441 Proposta di regolamento Articolo 41 – paragrafo 1
1. Qualora non esistano norme armonizzate di cui all'articolo 40 o la Commissione ritenga che le norme armonizzate pertinenti siano insufficienti o che vi sia la necessità di rispondere a specifiche preoccupazioni in materia di sicurezza o di diritti fondamentali, la Commissione può, mediante atti di esecuzione, adottare specifiche comuni in relazione ai requisiti di cui al capo 2 del presente titolo. Tali atti di esecuzione sono adottati in conformità alla procedura d'esame di cui all'articolo 74, paragrafo 2.
soppresso
Emendamento 442 Proposta di regolamento Articolo 41 – paragrafo 1 bis (nuovo)
1 bis. La Commissione, mediante atti di esecuzione adottati secondo la procedura d'esame di cui all'articolo 74, paragrafo 2, e previa consultazione dell'ufficio per l'IA e del foro consultivo per l'IA, può adottare specifiche comuni riguardo ai requisiti di cui al capo 2 del presente titolo o all'articolo 28 ter se sono soddisfatte tutte le seguenti condizioni:
a) non vi è alcun riferimento a norme armonizzate già pubblicate nella Gazzetta ufficiale dell'Unione europea in relazione ai requisiti essenziali, a meno che la norma armonizzata in questione non sia una norma esistente che deve essere rivista;
b) la Commissione ha chiesto a una o più organizzazioni europee di normazione di elaborare una norma armonizzata per i requisiti essenziali di cui al capo 2;
c) la richiesta di cui alla lettera B) non è stata accettata da alcuna delle organizzazioni europee di normazione o vi sono indebiti ritardi nella definizione di una norma armonizzata appropriata o la norma fornita non soddisfa i requisiti del pertinente diritto dell'Unione o non è conforme alla richiesta della Commissione.
Emendamento 443 Proposta di regolamento Articolo 41 – paragrafo 1 ter (nuovo)
1 ter. Ove la Commissione ritenga necessario venire incontro a determinate preoccupazioni in materia di diritti fondamentali, le specifiche comuni adottate dalla Commissione a norma del paragrafo 1 bis trattano anche tali preoccupazioni specifiche in materia di diritti fondamentali.
1 quater. La Commissione elabora specifiche comuni per la metodologia intesa ad adempiere all'obbligo di comunicazione e documentazione sul consumo di energia e di risorse durante lo sviluppo, l'addestramento e la diffusione del sistema di IA ad alto rischio.
Emendamento 445 Proposta di regolamento Articolo 41 – paragrafo 2
2. Nel preparare le specifiche comuni di cui al paragrafo 1, la Commissione raccoglie i pareri dei pertinenti organismi o gruppi di esperti istituiti a norma del pertinente diritto settoriale dell'Unione.
2. Durante l'intero processo di elaborazione delle specifiche comuni di cui ai paragrafi 1 bis e 1 ter, la Commissione consulta regolarmente l'ufficio per l'IA e il forum consultivo, le organizzazioni e gli organismi europei di normazione o i gruppi di esperti istituiti a norma del pertinente diritto settoriale dell'Unione, nonché altre parti interessate coinvolte. La Commissione persegue gli obiettivi di cui all'articolo 40, paragrafo 1 quater e motiva debitamente la sua decisione di ricorrere a specifiche comuni.
Se intende adottare specifiche comuni a norma del paragrafo 1 bis del presente articolo, la Commissione individua chiaramente anche le preoccupazioni specifiche in materia di diritti fondamentali da trattare.
In sede di adozione di specifiche comuni a norma dei paragrafi 1 bis e 1 ter del presente articolo, la Commissione tiene conto del parere emesso dall'ufficio per l'IA di cui all'articolo 56 sexies, lettera b), del presente regolamento. Se decide di non seguire il parere dell'ufficio per l'IA, la Commissione ne fornisce una spiegazione motivata a quest'ultimo.
Emendamento 446 Proposta di regolamento Articolo 41 – paragrafo 3
3. I sistemi di IA ad alto rischio conformi alle specifiche comuni di cui al paragrafo 1 si presumono conformi ai requisiti di cui al capo 2 del presente titolo, nella misura in cui tali requisiti sono contemplati da tali specifiche comuni.
3. I sistemi di IA ad alto rischio conformi alle specifiche comuni di cui ai paragrafi 1 bis e 1 ter si presumono conformi ai requisiti di cui al capo 2 del presente titolo, nella misura in cui tali requisiti sono contemplati da tali specifiche comuni.
Emendamento 447 Proposta di regolamento Articolo 41 – paragrafo 3 bis (nuovo)
3 bis. Qualora una norma armonizzata sia adottata da un organismo europeo di normazione e proposta alla Commissione per la pubblicazione del suo riferimento nella Gazzetta ufficiale dell'Unione europea, la Commissione valuta la norma armonizzata conformemente al regolamento (UE) n. 1025/2012. Quando un riferimento a una norma armonizzata è pubblicato nella Gazzetta ufficiale dell'Unione europea, la Commissione abroga gli atti di cui ai paragrafi 1 e 1 ter, o le parti di tali atti che riguardano gli stessi requisiti di cui al capo 2 del presente titolo.
Emendamento 448 Proposta di regolamento Articolo 41 – paragrafo 4
4. Qualora non rispettino le specifiche comuni di cui al paragrafo 1, i fornitori adottano soluzioni tecniche debitamente motivate che sono almeno equivalenti.
4. Qualora non rispettino le specifiche comuni di cui al paragrafo 1, i fornitori di sistemi di IA ad alto rischio adottano soluzioni tecniche debitamente motivate che soddisfano i requisiti di cui al capo II a un livello almeno equivalente.
Emendamento 449 Proposta di regolamento Articolo 42 – paragrafo 1
1. Tenendo conto della loro finalità prevista, i sistemi di IA ad alto rischio che sono stati addestrati e sottoposti a prova con dati concernenti il contesto geografico, comportamentale e funzionale specifico all'interno del quale sono destinati a essere usati si presumono conformi al requisito di cui all'articolo 10, paragrafo 4.
1. Tenendo conto della loro finalità prevista, i sistemi di IA ad alto rischio che sono stati addestrati e sottoposti a prova con dati concernenti il contesto geografico, comportamentale, contestuale e funzionale specifico all'interno del quale sono destinati a essere usati si presumono conformi ai rispettivi requisiti di cui all'articolo 10, paragrafo 4.
Emendamento 450 Proposta di regolamento Articolo 43 – paragrafo 1 – parte introduttiva
1. Per i sistemi di IA ad alto rischio elencati nell'allegato III, punto 1, se ha applicato le norme armonizzate di cui all'articolo40 o, ove applicabile, le specifiche comuni di cui all'articolo41 nel dimostrare la conformità di un sistema di IA ad alto rischio ai requisiti di cui al capo 2 del presente titolo, il fornitore segue una delle procedure seguenti:
1. Per i sistemi di IA ad alto rischio elencati nell'allegato III, punto 1, se ha applicato le norme armonizzate di cui all'articolo 40 o, ove applicabile, le specifiche comuni di cui all'articolo 41 nel dimostrare la conformità di un sistema di IA ad alto rischio ai requisiti di cui al capo 2 del presente titolo, il fornitore sceglie una delle procedure seguenti:
Emendamento 451 Proposta di regolamento Articolo 43 – paragrafo 1 – lettera a
a) la procedura di valutazione della conformità basata sul controllo interno di cui all'allegato VI;
a) la procedura di valutazione della conformità basata sul controllo interno di cui all'allegato VI o
Emendamento 452 Proposta di regolamento Articolo 43 – paragrafo 1 – lettera b
b) la procedura di valutazione della conformità basata sulla valutazione del sistema di gestione della qualità e sulla valutazione della documentazione tecnica, con il coinvolgimento di un organismo notificato, di cui all'allegato VII.
b) la procedura di valutazione della conformità basata sulla valutazione del sistema di gestione della qualità e della documentazione tecnica, con il coinvolgimento di un organismo notificato, di cui all'allegato VII.
Se non ha applicato o ha applicato solo in parte le norme armonizzate di cui all'articolo 40 nel dimostrare la conformità di un sistema di IA ad alto rischio ai requisiti di cui al capo 2 del presente titolo, o se tali norme armonizzate non esistono e non sono disponibili le specifiche comuni di cui all'articolo 41, il fornitore segue la procedura di valutazione della conformità di cui all'allegato VII.
Nel dimostrare la conformità di un sistema di IA ad alto rischio ai requisiti di cui al capo 2 del presente titolo, il fornitore segue la procedura di valutazione della conformità di cui all'allegato VII nei seguenti casi:
a) qualora non esistano norme armonizzate di cui all'articolo 40, i cui riferimenti siano stati pubblicati nella Gazzetta ufficiale dell’Unione europea, riguardanti tutti i requisiti di sicurezza del sistema di IA e non siano disponibili le specifiche comuni di cui all'articolo 41;
b) qualora esistano le specifiche tecniche di cui alla lettera a), ma il fornitore non le ha applicate o le ha applicate soltanto in parte;
c) qualora una o più specifiche tecniche di cui alla lettera a) sono state pubblicate con una limitazione e soltanto sulla parte della norma che è oggetto di limitazione;
d) qualora il fornitore ritenga che la natura, la progettazione, la costruzione o la destinazione del sistema di IA richiedano il ricorso alla verifica da parte di terzi a prescindere dal grado di rischio.
Ai fini della procedura di valutazione della conformità di cui all'allegato VII, il fornitore può scegliere uno qualsiasi degli organismi notificati. Tuttavia, quando il sistema è destinato ad essere messo in servizio dalle autorità di contrasto, dalle autorità competenti in materia di immigrazione o di asilo, nonché da istituzioni, organismi o agenzie dell'UE, l'autorità di vigilanza del mercato di cui all'articolo 63, paragrafo 5 o 6, a seconda dei casi, agisce in qualità di organismo notificato.
Ai fini dello svolgimento della procedura di valutazione della conformità di cui all'allegato VII, il fornitore può scegliere uno qualsiasi degli organismi notificati. Tuttavia, quando il sistema è destinato ad essere messo in servizio dalle autorità di contrasto, dalle autorità competenti in materia di immigrazione o di asilo, nonché da istituzioni, organismi o agenzie dell'UE, l'autorità di vigilanza del mercato di cui all'articolo 63, paragrafo 5 o 6, a seconda dei casi, agisce in qualità di organismo notificato.
4. I sistemi di IA ad alto rischio sono sottoposti a una nuova procedura di valutazione della conformità dopo ogni modifica sostanziale, indipendentemente dal fatto che il sistema modificato sia destinato a essere ulteriormente distribuito o continui a essere usato dall'utente attuale.
4. I sistemi di IA ad alto rischio che sono già stati oggetto di una procedura di valutazione della conformità sono sottoposti a una nuova procedura di valutazione della conformità dopo ogni modifica sostanziale, indipendentemente dal fatto che il sistema modificato sia destinato a essere ulteriormente distribuito o continui a essere usato dall'operatore attuale.
Emendamento 456 Proposta di regolamento Articolo 43 – paragrafo 4 bis (nuovo)
4 bis. Nel fissare le tariffe per la valutazione della conformità da parte di terzi a norma del presente articolo si tiene conto degli interessi e delle esigenze specifici delle PMI, riducendo tali tariffe proporzionalmente alle loro dimensioni e alle dimensioni della loro quota di mercato.
Emendamento 457 Proposta di regolamento Articolo 43 – paragrafo 5
5. Alla Commissione è conferito il potere di adottare atti delegati conformemente all'articolo 73 al fine di aggiornare gli allegati VI e VII per introdurre elementi delle procedure di valutazione della conformità che divengano necessari alla luce del progresso tecnico.
5. Alla Commissione è conferito il potere di adottare atti delegati conformemente all'articolo 73 al fine di aggiornare gli allegati VI e VII per introdurre elementi delle procedure di valutazione della conformità che divengano necessari alla luce del progresso tecnico. In sede di preparazione di tali atti delegati, la Commissione consulta l'ufficio per l'IA e le parti interessate coinvolte.
Emendamento 458 Proposta di regolamento Articolo 43 – paragrafo 6
6. Alla Commissione è conferito il potere di adottare atti delegati al fine di modificare i paragrafi 1 e 2 per assoggettare i sistemi di IA ad alto rischio di cui all'allegato III, punti da 2 a 8, alla procedura di valutazione della conformità di cui all'allegato VII o a parti di essa. La Commissione adotta tali atti delegati tenendo conto dell'efficacia della procedura di valutazione della conformità basata sul controllo interno di cui all'allegato VI nel prevenire o ridurre al minimo i rischi per la salute, la sicurezza e la protezione dei diritti fondamentali posti da tali sistemi, nonché della disponibilità di capacità e risorse adeguate tra gli organismi notificati.
6. Alla Commissione è conferito il potere di adottare atti delegati al fine di modificare i paragrafi 1 e 2 per assoggettare i sistemi di IA ad alto rischio di cui all'allegato III, punti da 2 a 8, alla procedura di valutazione della conformità di cui all'allegato VII o a parti di essa. La Commissione adotta tali atti delegati tenendo conto dell'efficacia della procedura di valutazione della conformità basata sul controllo interno di cui all'allegato VI nel prevenire o ridurre al minimo i rischi per la salute, la sicurezza e la protezione dei diritti fondamentali posti da tali sistemi, nonché della disponibilità di capacità e risorse adeguate tra gli organismi notificati. In sede di preparazione di tali atti delegati, la Commissione consulta l'ufficio per l'IA e le parti interessate coinvolte.
Emendamento 459 Proposta di regolamento Articolo 44 – paragrafo 1
1. I certificati rilasciati dagli organismi notificati a norma dell'allegato VII sono redatti in una delle lingue ufficiali dell'Unione scelta dallo Stato membro in cui è stabilito l'organismo notificato oppure in una lingua ufficiale dell'Unione altrimenti accettabile per l'organismo notificato.
1. I certificati rilasciati dagli organismi notificati a norma dell'allegatoVII sono redatti in una o più lingue ufficiali dell'Unione scelte dallo Stato membro in cui è stabilito l'organismo notificato oppure in una o più lingue ufficiali altrimenti accettabili per l'organismo notificato.
Emendamento 460 Proposta di regolamento Articolo 44 – paragrafo 2
2. I certificati sono validi per il periodo in essi indicato, che non può superare i cinque anni. Su domanda del fornitore, la validità di un certificato può essere prorogata per ulteriori periodi, ciascuno non superiore a cinque anni, sulla base di una nuova valutazione secondo le procedure di valutazione della conformità applicabili.
2. I certificati sono validi per il periodo in essi indicato, che non può superare i quattro anni. Su domanda del fornitore, la validità di un certificato può essere prorogata per ulteriori periodi, ciascuno non superiore a quattro anni, sulla base di una nuova valutazione secondo le procedure di valutazione della conformità applicabili.
Emendamento 461 Proposta di regolamento Articolo 44 – paragrafo 3
3. Qualora constati che il sistema di IA non soddisfa più i requisiti di cui al capo 2 del presente titolo, l'organismo notificato, tenendo conto del principio di proporzionalità, sospende o ritira il certificato rilasciato o impone limitazioni, a meno che la conformità a tali requisiti sia garantita mediante opportune misure correttive adottate dal fornitore del sistema entro un termine adeguato stabilito dall'organismo notificato. L'organismo notificato motiva la propria decisione.
3. Qualora constati che il sistema di IA non soddisfa più i requisiti di cui al capo 2 del presente titolo, l'organismo notificato sospende o ritira il certificato rilasciato o impone limitazioni, a meno che la conformità a tali requisiti sia garantita mediante opportune misure correttive adottate dal fornitore del sistema entro un termine adeguato stabilito dall'organismo notificato. L'organismo notificato motiva la propria decisione.
Emendamento 462 Proposta di regolamento Articolo 45 – comma 1
Gli Stati membri provvedono affinché una procedura di ricorso contro le decisioni degli organismi notificati sia messa a disposizione delle parti aventi un interesse legittimo in tali decisioni.
Gli Stati membri provvedono affinché una procedura di ricorso contro le decisioni degli organismi notificati, anche sui certificati di conformità rilasciati, sia messa a disposizione delle parti aventi un interesse legittimo in tali decisioni.
Emendamento 463 Proposta di regolamento Articolo 46 – paragrafo 3
3. Ciascun organismo notificato fornisce agli altri organismi notificati che svolgono attività simili di valutazione della conformità riguardanti le stesse tecnologie di intelligenza artificiale informazioni pertinenti su questioni relative ai risultati negativi e, su richiesta, positivi della valutazione della conformità.
3. Ciascun organismo notificato fornisce agli altri organismi notificati che svolgono attività simili di valutazione della conformità informazioni pertinenti su questioni relative ai risultati negativi e, su richiesta, positivi della valutazione della conformità.
Emendamento 464 Proposta di regolamento Articolo 47 – paragrafo 1
1. In deroga all'articolo43, qualsiasi autorità di vigilanza del mercato può autorizzare l'immissione sul mercato o la messa in servizio di specifici sistemi di IA ad alto rischio nel territorio dello Stato membro interessato, per motivi eccezionali di sicurezza pubblica o di protezione della vita e della salute delle persone e di protezione dell'ambiente e dei principali beni industriali e infrastrutturali. Tale autorizzazione è valida per un periodo di tempo limitato, mentre sono in corso le necessarie procedure di valutazione della conformità, e termina una volta completate tali procedure. Il completamento di tali procedure è effettuato senza indebito ritardo.
1. In deroga all'articolo 43, qualsiasi autorità nazionale dicontrollo può chiedere a un'autorità giudiziaria di autorizzare l'immissione sul mercato o la messa in servizio di specifici sistemi di IA ad alto rischio nel territorio dello Stato membro interessato, per motivi eccezionali di protezione della vita e della salute delle persone e di protezione dell'ambiente e delle infrastrutture critiche. Tale autorizzazione è valida per un periodo di tempo limitato, mentre sono in corso le necessarie procedure di valutazione della conformità, e termina una volta completate tali procedure. Il completamento di tali procedure è effettuato senza indebito ritardo.
Emendamento 465 Proposta di regolamento Articolo 47 – paragrafo 2
2. L'autorizzazione di cui al paragrafo 1 è rilasciata solo se l'autorità di vigilanza del mercato conclude che il sistema di IA ad alto rischio è conforme ai requisiti di cui al capo 2 del presente titolo. L'autorità di vigilanza del mercato informa la Commissione e gli altri Stati membri di eventuali autorizzazioni rilasciate a norma del paragrafo 1.
2. L'autorizzazione di cui al paragrafo 1 è rilasciata solo se l'autorità nazionale di controllo e l'autorità giudiziaria concludono che il sistema di IA ad alto rischio è conforme ai requisiti di cui al capo 2 del presente titolo. L'autorità nazionale di controllo informa la Commissione, l'ufficio per l'IA e gli altri Stati membri di eventuali richieste presentate e successive autorizzazioni rilasciate a norma del paragrafo 1.
Emendamento 466 Proposta di regolamento Articolo 47 – paragrafo 3
3. Se, entro 15 giorni di calendario dal ricevimento dell'informazione di cui al paragrafo 2, né gli Stati membri né la Commissione sollevano obiezioni in merito a un'autorizzazione rilasciata da un'autorità di vigilanza del mercato di uno Stato membro in conformità al paragrafo 1, tale autorizzazione è considerata giustificata.
3. Se, entro 15 giorni di calendario dal ricevimento dell'informazione di cui al paragrafo 2, né gli Stati membri né la Commissione sollevano obiezioni in merito alla richiesta dell'autorità nazionale di controllo relativa a un'autorizzazione rilasciata da un'autorità nazionale di controllo di uno Stato membro in conformità al paragrafo 1, tale autorizzazione è considerata giustificata.
Emendamento 467 Proposta di regolamento Articolo 47 – paragrafo 4
4. Se, entro 15 giorni di calendario dal ricevimento della notifica di cui al paragrafo 2, uno Stato membro solleva obiezioni in merito a un'autorizzazione rilasciata da un'autorità di vigilanza del mercato di un altro Stato membro, o se la Commissione ritiene che l'autorizzazione sia contraria al diritto dell'Unione o che la conclusione degli Stati membri riguardante la conformità del sistema di cui al paragrafo 2 sia infondata, la Commissione avvia senza ritardo consultazioni con lo Stato membro interessato; l'operatore o gli operatori interessati sono consultati e hanno la possibilità di esprimere il loro parere. In seguito a tale consultazione la Commissione decide se l'autorizzazione è giustificata o meno. La Commissione trasmette la propria decisione allo Stato membro interessato e all'operatore o agli operatori pertinenti.
4. Se, entro 15 giorni di calendario dal ricevimento della notifica di cui al paragrafo 2, uno Stato membro solleva obiezioni in merito a una richiesta formulata da un'autorità nazionale di controllo di un altro Stato membro, o se la Commissione ritiene che l'autorizzazione sia contraria al diritto dell'Unione o che la conclusione degli Stati membri riguardante la conformità del sistema di cui al paragrafo 2 sia infondata, la Commissione avvia senza ritardo consultazioni con lo Stato membro interessato e l'ufficio per l'IA; l'operatore o gli operatori interessati sono consultati e hanno la possibilità di esprimere il loro parere. In seguito a tale consultazione la Commissione decide se l'autorizzazione è giustificata o meno. La Commissione trasmette la propria decisione allo Stato membro interessato e all'operatore o agli operatori pertinenti.
Emendamento 468 Proposta di regolamento Articolo 47 – paragrafo 5
5. Se l'autorizzazione è ritenuta ingiustificata, essa è ritirata dall'autorità di vigilanza del mercato dello Stato membro interessato.
5. Se l'autorizzazione è ritenuta ingiustificata, essa è ritirata dall'autorità nazionale di controllo dello Stato membro interessato.
Emendamento 469 Proposta di regolamento Articolo 48 – paragrafo 1
1. Il fornitore compila una dichiarazione scritta di conformità UE per ciascun sistema di IA e la tiene a disposizione delle autorità nazionali competenti per dieci anni dalla data in cui il sistema di IA è stato immesso sul mercato. La dichiarazione di conformità UE identifica il sistema di IA per il quale è stata redatta. Su richiesta, una copia della dichiarazione di conformità UE è messa a disposizione delle pertinenti autorità nazionali competenti.
1. Il fornitore compila una dichiarazione scritta di conformità UE leggibile meccanicamente fisica o elettronica per ciascun sistema di IA ad alto rischio e la tiene a disposizione dell'autorità nazionale di controllo e delle pertinenti autorità nazionali competenti per dieci anni dalla data in cui il sistema di IA ad alto rischio è stato immesso sul mercato. Su richiesta, una copia della dichiarazione di conformità UE è sottoposta all'autorità nazionale di controllo e alle pertinenti autorità nazionali competenti.
Emendamento 470 Proposta di regolamento Articolo 48 – paragrafo 2
2. La dichiarazione di conformità UE attesta che il sistema di IA ad alto rischio in questione soddisfa i requisiti di cui al capo 2 del presente titolo. La dichiarazione di conformità UE riporta come minimo le informazioni di cui all'allegato V ed è tradotta in una lingua o nelle lingue ufficiali dell'Unione richieste dallo Stato membro nel quale il sistema di IA ad alto rischio è messo a disposizione.
2. La dichiarazione di conformità UE attesta che il sistema di IA ad alto rischio in questione soddisfa i requisiti di cui al capo 2 del presente titolo. La dichiarazione di conformità UE riporta come minimo le informazioni di cui all'allegato V ed è tradotta in una lingua o nelle lingue ufficiali dell'Unione richieste dallo Stato membro nel quale il sistema di IA ad alto rischio è immesso sul mercato o messo a disposizione.
Emendamento 471 Proposta di regolamento Articolo 48 – paragrafo 3
3. Qualora i sistemi di IA ad alto rischio siano soggetti ad altre normative di armonizzazione dell'Unione che richiedano anch'esse una dichiarazione di conformità UE, è redatta un'unica dichiarazione di conformità UE in relazione a tutte le normative dell'Unione applicabili al sistema di IA ad alto rischio. La dichiarazione contiene tutte le informazioni necessarie per identificare la normativa di armonizzazione dell'Unione cui si riferisce la dichiarazione.
3. Qualora i sistemi di IA ad alto rischio siano soggetti ad altre normative di armonizzazione dell'Unione che richiedano anch'esse una dichiarazione di conformità UE, può essere redatta un'unica dichiarazione di conformità UE in relazione a tutte le normative dell'Unione applicabili al sistema di IA ad alto rischio. La dichiarazione contiene tutte le informazioni necessarie per identificare la normativa di armonizzazione dell'Unione cui si riferisce la dichiarazione.
Emendamento 472 Proposta di regolamento Articolo 48 – paragrafo 5
5. Alla Commissione è conferito il potere di adottare atti delegati conformemente all'articolo73 al fine di aggiornare il contenuto della dichiarazione di conformità UE di cui all'allegato V per introdurre elementi che si rendano necessari alla luce del progresso tecnico.
5. Previa consultazione dell'ufficio per l'IA, alla Commissione è conferito il potere di adottare atti delegati conformemente all'articolo 73 al fine di aggiornare il contenuto della dichiarazione di conformità UE di cui all'allegato V per introdurre elementi che si rendano necessari alla luce del progresso tecnico.
Emendamento 473 Proposta di regolamento Articolo 49 – paragrafo 1
1. La marcatura CE è apposta sul sistema di IA ad alto rischio in modo visibile, leggibile e indelebile. Qualora ciò sia impossibile o difficilmente realizzabile a causa della natura del sistema di IA ad alto rischio, il marchio è apposto sull'imballaggio o sui documenti di accompagnamento, a seconda dei casi.
1. La marcatura fisica CE è apposta sul sistema di IA ad alto rischio in modo visibile, leggibile e indelebile prima della sua immissione sul mercato. Qualora ciò sia impossibile o difficilmente realizzabile a causa della natura del sistema di IA ad alto rischio, il marchio è apposto sull'imballaggio o sui documenti di accompagnamento, a seconda dei casi. Può essere seguita da un pittogramma o da qualsiasi altra marcatura che indichi un rischio di uso particolare.
Emendamento 474 Proposta di regolamento Articolo 49 – paragrafo 1 bis (nuovo)
1 bis. Per i sistemi di IA ad alto rischio esclusivamente digitali è utilizzata una marcatura CE digitale soltanto se è facilmente accessibile attraverso l'interfaccia da cui si accede al sistema di IA o tramite un codice leggibile meccanicamente o altri mezzi elettronici facilmente accessibili.
Emendamento 475 Proposta di regolamento Articolo 49 – paragrafo 3
3. Ove applicabile, la marcatura CE è seguita dal numero di identificazione dell'organismo notificato responsabile delle procedure di valutazione della conformità di cui all'articolo 43. Il numero d'identificazione è inoltre indicato in tutto il materiale promozionale in cui si afferma che il sistema di IA ad alto rischio soddisfa i requisiti per la marcatura CE.
3. Ove applicabile, la marcatura CE è seguita dal numero di identificazione dell'organismo notificato responsabile delle procedure di valutazione della conformità di cui all'articolo 43. Il numero di identificazione dell'organismo notificato è apposto dall'organismo stesso o, in base alle istruzioni di quest'ultimo dal mandatario del fornitore. Il numero d'identificazione è inoltre indicato in tutto il materiale promozionale in cui si afferma che il sistema di IA ad alto rischio soddisfa i requisiti per la marcatura CE.
Emendamento 476 Proposta di regolamento Articolo 49 – paragrafo 3 bis (nuovo)
3 bis. Se i sistemi di IA ad alto rischio sono disciplinati da altre normative dell'Unione che prevedono anch'esse l'apposizione della marcatura CE, quest'ultima indica che i sistemi di IA ad alto rischio soddisfano anche i requisiti delle altre normative in questione.
Emendamento 477 Proposta di regolamento Articolo 50 – comma 1 – parte introduttiva
Il fornitore, per un periodo che termina 10 anni dopo che il sistema di IA è stato immesso sul mercato o messo in servizio, tiene a disposizione delle autorità nazionali competenti:
Il fornitore, per un periodo che termina 10 anni dopo che il sistema di IA è stato immesso sul mercato o messo in servizio, tiene a disposizione dell'autorità nazionale di controllo e delle autorità nazionali competenti:
Emendamento 478 Proposta di regolamento Articolo 51 – comma 1
Prima di immettere sul mercato o mettere in servizio un sistema di IA ad alto rischio di cui all'articolo 6, paragrafo 2, il fornitore o, ove applicabile, il rappresentante autorizzato registra tale sistema nella banca dati dell'UE di cui all'articolo 60.
Prima di immettere sul mercato o mettere in servizio un sistema di IA ad alto rischio di cui all'articolo 6, paragrafo 2, il fornitore o, ove applicabile, il rappresentante autorizzato registra tale sistema nella banca dati dell'UE di cui all'articolo 60, conformemente all'articolo 60, paragrafo 2.
Emendamento 479 Proposta di regolamento Articolo 51 – comma 1 bis (nuovo)
Prima di mettere in servizio o utilizzare un sistema di IA ad alto rischio a norma dell'articolo 6, paragrafo 2, registrano l'uso di quel sistema di IA nella banca dati dell'UE di cui all'articolo 60 le seguenti categorie di operatori:
a) gli operatori che sono autorità pubbliche o istituzioni, organi, uffici o agenzie dell'Unione od operatori che agiscono per loro conto;
b) operatori che sono imprese designate come gatekeeper a norma del regolamento (UE) 2022/1925.
Emendamento 480 Proposta di regolamento Articolo 51 – comma 1 ter (nuovo)
Gli operatori che non rientrano nell'ambito di applicazione del comma 1 bis hanno il diritto di registrare volontariamente l'uso di un sistema di IA ad alto rischio citata nell'articolo 6, paragrafo 2, nella banca dati dell'UE di cui all'articolo 60.
Una registrazione aggiornata deve essere completata immediatamente dopo ogni modifica sostanziale.
Emendamento 482 Proposta di regolamento Titolo IV
OBBLIGHI DI TRASPARENZA PER DETERMINATI SISTEMI DI IA
OBBLIGHI DI TRASPARENZA
Emendamento 483 Proposta di regolamento Articolo 52 – titolo
Obblighi di trasparenza per determinati sistemi di IA
Obblighi di trasparenza
Emendamento 484 Proposta di regolamento Articolo 52 – paragrafo 1
1. I fornitori garantiscono che i sistemi di IA destinati a interagire con le persone fisiche siano progettati e sviluppati in modo tale che le persone fisiche siano informate del fatto di stare interagendo con un sistema di IA, a meno che ciò non risulti evidente dalle circostanze e dal contesto di utilizzo.Tale obbligo non si applica ai sistemi di IA autorizzati dalla legge per accertare, prevenire, indagare e perseguire reati, a meno che tali sistemi non siano a disposizione del pubblico per segnalare un reato.
1. I fornitori garantiscono che i sistemi di IA destinati a interagire con le persone fisiche siano progettati e sviluppati in modo tale che il sistema di IA, il fornitore stesso o l'utente informino in modo tempestivo, chiaro e comprensibile la persona fisica esposta a un sistema di IA del fatto di stare interagendo con un sistema di IA, a meno che ciò non risulti evidente dalle circostanze e dal contesto di utilizzo.
Ove opportuno e pertinente, tali informazioni specificano anche quali funzioni sono consentite dall'IA, se vi è una sorveglianza umana e chi è responsabile del processo decisionale, nonché i diritti e i processi esistenti che, conformemente al diritto dell'Unione e nazionale, consentono alle persone fisiche o ai loro rappresentanti di opporsi all'applicazione di tali sistemi nei loro confronti e di presentare ricorso per via giudiziaria contro le decisioni adottate dai sistemi di IA o i danni da essi causati, compreso il loro diritto di chiedere una spiegazione. Tale obbligo non si applica ai sistemi di IA autorizzati dalla legge per accertare, prevenire, indagare e perseguire reati, a meno che tali sistemi non siano a disposizione del pubblico per segnalare un reato.
Emendamento 485 Proposta di regolamento Articolo 52 – paragrafo 2
2. Gli utenti di un sistema di riconoscimento delle emozioni o di un sistema di categorizzazione biometrica informano le persone fisiche che vi sono esposte in merito al funzionamento del sistema. Tale obbligo non si applica ai sistemi di IA utilizzati per la categorizzazione biometrica, che sono autorizzati dalla legge per accertare, prevenire e indagare reati.
2. Gli utenti di un sistema di riconoscimento delle emozioni o di un sistema di categorizzazione biometrica non vietato a norma dell'articolo 5 informano in modo tempestivo, chiaro e comprensibile le persone fisiche che vi sono esposte in merito al funzionamento del sistema e ottengono il loro consenso prima del trattamento dei loro dati biometrici e di altri dati personali in conformità del regolamento (UE) 2016/679, del regolamento (UE) 2016/1725 e della direttiva (UE) 2016/280, a seconda dei casi. Tale obbligo non si applica ai sistemi di IA utilizzati per la categorizzazione biometrica, che sono autorizzati dalla legge per accertare, prevenire e indagare reati.
3. Gli utenti di un sistema di IA che genera o manipola immagini o contenuti audio o video che assomigliano notevolmente a persone, oggetti, luoghi o altre entità o eventi esistenti e che potrebbero apparire falsamente autentici o veritieri per una persona ("deep fake") sono tenuti a rendere noto che il contenuto è stato generato o manipolato artificialmente.
3. Gli utenti di un sistema di IA che genera o manipola testi o contenuti audio o visivi che potrebbero apparire falsamente autentici o veritieri e che rappresentano persone che sembrano dire cose che non hanno detto o compiere atti che non hanno commesso, senza il loro consenso ("deep fake"), sono tenuti a rendere noto in modo adeguato, tempestivo, chiaro e visibile che il contenuto è stato generato o manipolato artificialmente nonché, ove possibile, il nome della persona fisica o giuridica che li ha generati o manipolati.A tal fine, i contenuti sono etichettati in modo tale da segnalare il loro carattere non autentico in maniera chiaramente visibile alle persone cui sono destinati. Per etichettare i contenuti, gli utenti tengono conto dello stato dell'arte generalmente riconosciuto e delle pertinenti norme e specifiche armonizzate.
Tuttavia il primo comma non si applica se l'uso è autorizzato dalla legge per accertare, prevenire, indagare e perseguire reati o se è necessario per l'esercizio del diritto alla libertà di espressione e del diritto alla libertà delle arti e delle scienze garantito dalla Carta dei diritti fondamentali dell'UE, e fatte salve le tutele adeguate per i diritti e le libertà dei terzi.
3 bis. Il paragrafo 3 non si applica se l'uso di un sistema di IA che genera o manipola testi o contenuti audio o visivi è autorizzato dalla legge o se è necessario per l'esercizio del diritto alla libertà di espressione e del diritto alla libertà delle arti e delle scienze garantito dalla Carta dei diritti fondamentali dell'UE, e fatte salve le tutele adeguate per i diritti e le libertà dei terzi. Qualora tali contenuti facciano parte di un'opera o di un programma cinematografico, videoludico o analogo manifestamente creativo, satirico, artistico o fittizio, gli obblighi di trasparenza di cui al paragrafo 3 si limitano all'obbligo di rivelare l'esistenza di tali contenuti generati o manipolati in modo adeguato, chiaro e visibile che non ostacoli l'esposizione dell'opera, nonché di divulgare i diritti d'autore applicabili, se del caso. Non impedisce inoltre alle autorità di contrasto di utilizzare sistemi di IA destinati a individuare i "deep fake" e a prevenire, indagare e perseguire reati connessi al loro uso.
Emendamento 488 Proposta di regolamento Articolo 52 – paragrafo 3 ter (nuovo)
3 ter. Le informazioni di cui ai paragrafi da 1 a 3 sono fornite alle persone fisiche al più tardi al momento della prima interazione o esposizione. Devono essere accessibili alle persone vulnerabili, come le persone con disabilità o i minori, nonché corredate, ove pertinente e possibile, di procedure di intervento o di segnalazione per la persona fisica esposta, che tengano conto dello stato dell'arte generalmente riconosciuto e delle pertinenti norme armonizzate e specifiche comuni.
Emendamento 489 Proposta di regolamento Articolo 53 – paragrafo 1
1. Gli spazi di sperimentazione normativa per l'IA istituiti da una o più autorità competenti degli Stati membri o dal Garante europeo della protezione dei dati forniscono un ambiente controllato che facilita lo sviluppo, le prove e la convalida di sistemi di IA innovativi per un periodo di tempo limitato prima della loro immissione sul mercato o della loro messa in servizio conformemente a un piano specifico. Ciò avviene sotto la guida e il controllo diretti delle autorità competenti al fine di garantire la conformità ai requisiti del presente regolamento e, se del caso, di altre normative dell'Unione e degli Stati membri controllate all'interno dello spazio di sperimentazione.
1. Gli Stati membri istituiscono almeno uno spazio di sperimentazione normativa per l'IA a livello nazionale, che sarà operativo al più tardi il giorno dell'entrata in applicazione del presente regolamento. Tale spazio di sperimentazione può anche essere istituito congiuntamente con uno o diversi altri Stati membri.
Emendamento 490 Proposta di regolamento Articolo 53 – paragrafo 1 bis (nuovo)
1 bis. Possono essere istituiti ulteriori spazi di sperimentazione normativa per l'IA a livello regionale o locale o congiuntamente con altri Stati membri.
Emendamento 491 Proposta di regolamento Articolo 53 – paragrafo 1 ter (nuovo)
1 ter. Anche la Commissione e il Garante europeo della protezione dei dati, da soli, congiuntamente o in collaborazione con uno o più Stati membri, possono istituire spazi di sperimentazione normativa per l'IA a livello dell'Unione.
1 quinquies. Gli spazi di sperimentazione normativa per l'IA, conformemente ai criteri di cui all'articolo 53 bis, garantiscono un ambiente controllato che promuove l'innovazione e facilita lo sviluppo, la sperimentazione e la convalida di sistemi di IA innovativi per un periodo di tempo limitato prima della loro immissione sul mercato o della loro messa in servizio conformemente a un piano specifico concordato tra i potenziali fornitori e l'autorità costituente.
1 sexies. L'istituzione di spazi di sperimentazione normativa per l'IA è intesa a contribuire ai seguenti obiettivi:
a) le autorità competenti forniscano orientamenti ai potenziali fornitori di sistemi di IA per conseguire la conformità normativa con il presente regolamento o, se del caso, ad altre pertinenti normative applicabili dell'Unione e degli Stati membri;
b) i potenziali fornitori consentano e agevolino la sperimentazione e lo sviluppo di soluzioni innovative relative ai sistemi di IA;
c) apprendimento normativo in un ambiente controllato.
1 septies. Le autorità costituenti forniscono orientamenti e supervisione nell'ambito dello spazio di sperimentazione allo scopo di individuare i rischi, in particolare per i diritti fondamentali, la democrazia e lo Stato di diritto, la salute e la sicurezza e l'ambiente, testare e dimostrare le misure di attenuazione dei rischi individuati e la loro efficacia e garantire la conformità ai requisiti del presente regolamento e, se del caso, di altre normative dell'Unione e degli Stati membri.
1 octies. Le autorità costituenti forniscono ai potenziali fornitori di spazi di sperimentazione che sviluppano sistemi di IA ad alto rischio orientamenti e supervisione sul modo in cui soddisfare i requisiti previsti dal presente regolamento, in modo che i sistemi di IA possano uscire dallo spazio di sperimentazione presumendo la conformità ai requisiti specifici del presente regolamento che sono stati valutati all'interno dello spazio di sperimentazione. Nella misura in cui il sistema di IA soddisfa i requisiti quando esce dallo spazio di sperimentazione, esso si considera conforme al presente regolamento. A tale riguardo, le autorità di vigilanza del mercato o gli organismi notificati, a seconda dei casi, tengono conto delle relazioni di uscita elaborate dall'autorità costituita nel contesto delle procedure di valutazione della conformità o delle verifiche di vigilanza del mercato.
Emendamento 497 Proposta di regolamento Articolo 53 – paragrafo 2
2. Gli Stati membri garantiscono che, nella misura in cui i sistemi di IA innovativi comportano il trattamento di dati personali o rientrano altrimenti nell'ambito di competenza di altre autorità nazionali o autorità competenti che forniscono o sostengono l'accesso ai dati, le autorità nazionali per la protezione dei dati e tali altre autorità nazionali siano associate al funzionamento dello spazio di sperimentazione normativa per l'IA.
2. Le autorità costituenti garantiscono che, nella misura in cui i sistemi di IA innovativi comportano il trattamento di dati personali o rientrano altrimenti nell'ambito di competenza di altre autorità nazionali o autorità competenti che forniscono o sostengono l'accesso ai dati personali, le autorità nazionali per la protezione dei dati o, nei casi di cui al paragrafo 1 ter, il GEPD, e tali altre autorità nazionali siano associate al funzionamento dello spazio di sperimentazione normativa per l'IA e partecipino al controllo di tali aspetti avvalendosi pienamente dei rispettivi compiti e poteri.
Emendamento 498 Proposta di regolamento Articolo 53 – paragrafo 3
3. Gli spazi di sperimentazione normativa per l'IA non pregiudicano i poteri correttivi e di controllo delle autorità competenti. Qualsiasi rischio significativo per la salute e lasicurezza e i diritti fondamentali individuato durante lo sviluppo e le prove di tali sistemi deve comportare l'adozione di immediate misure di attenuazione e, in mancanza di ciò, la sospensione del processo di sviluppo e di prova fino a che tali rischi non risultino attenuati.
3. Gli spazi di sperimentazione normativa per l'IA non pregiudicano i poteri correttivi e di controllo delle autorità competenti, anche a livello regionale o locale. Qualsiasi rischio significativo per i diritti fondamentali, la democrazia elo stato di diritto, la salute ela sicurezza o l'ambiente individuato durante lo sviluppo e le prove di tali sistemi di IA deve comportare l'adozione di immediate e adeguate misure di attenuazione. Le autorità competenti hanno il poteredi sospendere, in via temporanea o permanente, il processo di prova o la partecipazione allo spazio di sperimentazione se non è possibile un'attenuazione efficace e informano l'ufficio di IA di tale decisione;
Emendamento 499 Proposta di regolamento Articolo 53 – paragrafo 4
4. I partecipanti allo spazio di sperimentazione normativa per l'IA restano responsabili ai sensi della normativa applicabile dell'Unione e degli Stati membri in materia di responsabilità per eventuali danni arrecati a terzi a seguito della sperimentazione che ha luogo nello spazio di sperimentazione.
4. I potenziali fornitori nello spazio di sperimentazione normativa per l'IA restano responsabili ai sensi della normativa applicabile dell'Unione e degli Stati membri in materia di responsabilità per eventuali danni arrecati a terzi a seguito della sperimentazione che ha luogo nello spazio di sperimentazione. Tuttavia, a condizione che i potenziali fornitori rispettino il piano specifico di cui al paragrafo 1 ter e i termini e le condizioni di partecipazione e seguano in buona fede la guida fornita dalle autorità costituenti, queste ultime non adottano alcuna sanzione amministrativa per violazione del presente regolamento.
Emendamento 500 Proposta di regolamento Articolo 53 – paragrafo 5
5. Le autorità competenti degli Stati membri che hanno istituito spazi di sperimentazione normativa per l'IA coordinano le loro attività e cooperano nel quadro del comitato europeoper l'intelligenza artificiale. Esse presentano al Comitato e alla Commissione relazioni annuali sui risultati dell'attuazione di tali sistemi, comprese le buone pratiche, gli insegnamenti tratti e le raccomandazioni sulla loro configurazione e, ove pertinente, sull'applicazione del presente regolamento e di altre normative dell'Unione soggette a controllo nell'ambito dello spazio di sperimentazione.
5. Le autorità costituenti coordinano le loro attività e cooperano nel quadro dell'ufficio per l'IA.
Emendamento 501 Proposta di regolamento Articolo 53 – paragrafo 5 bis (nuovo)
5 bis. Le autorità costituenti informano l'ufficio per l'IA dell'istituzione di uno spazio di sperimentazione e possono chiedere sostegno e orientamenti. L'ufficio per l'IA mette a disposizione del pubblico un elenco degli spazi di sperimentazione previsti ed esistenti che tiene aggiornato per incoraggiare una maggiore interazione negli spazi di sperimentazione normativa e la cooperazione transnazionale.
Emendamento 502 Proposta di regolamento Articolo 53 – paragrafo 5 ter (nuovo)
5 ter. Le autorità costituenti presentano all'ufficio per l'IA e, a meno che la Commissione non sia l'unica autorità costituita, relazioni annuali a decorrere dall'anno successivo alla creazione dello spazio di sperimentazione e, successivamente, ogni anno fino alla sua chiusura, e quindi una relazione definitiva. Tali relazioni contengono informazioni sui progressi e i risultati dell'attuazione di tali spazi di sperimentazione, comprese le prassi eccellenti, gli incidenti, gli insegnamenti tratti e le raccomandazioni sulla loro configurazione e, ove pertinente, sull'applicazione ed eventuale revisione del presente regolamento e di altre normative dell'Unione soggette a controllo nell'ambito dello spazio di sperimentazione. Le relazioni annuali o estratti delle stesse sono messi a disposizione del pubblico online.
Emendamento 503 Proposta di regolamento Articolo 53 – paragrafo 6
6. Le modalità e le condizioni di funzionamento degli spazi di sperimentazione normativa per l'IA, compresi i criteri di ammissibilità e la procedura per la domanda, la selezione, la partecipazione e l'uscita dallo spazio di sperimentazione, nonché i diritti e gli obblighi dei partecipanti sono stabiliti in atti di esecuzione. Tali atti di esecuzione sono adottati in conformità alla procedura d'esame di cui all'articolo 74, paragrafo 2.
6. La Commissione sviluppa un'interfaccia unica e dedicata contenente tutte le informazioni pertinenti relative agli spazi di sperimentazione normativa, unitamente a un punto di contatto unico a livello dell'Unione per interagire con gli spazi di sperimentazione normativa e permettere ai portatori di interessi di formulare richieste di informazioni presso le autorità competenti e di chiedere orientamenti non vincolanti sulla conformità di prodotti, servizi e modelli aziendali innovativi che integrano le tecnologie di IA;
La Commissione si coordina proattivamente con le autorità nazionali, regionali e locali, se del caso.
Emendamento 504 Proposta di regolamento Articolo 53 – paragrafo 6 bis (nuovo)
6 bis. Ai fini del paragrafo 1 e 1 bis, la Commissione svolge un ruolo complementare che permette agli Stati membri con di basarsi sulle loro competenze e, dall'altro lato, li assiste e fornisce conoscenze tecniche e risorse agli Stati membri che chiedono orientamenti sulla creazione e la gestione di tali spazi di sperimentazione normativa.
Emendamento 505 Proposta di regolamento Articolo 53 bis (nuovo)
Articolo 53 bis
Modalità e funzionamento degli spazi di sperimentazione normativa per l'IA
1. Onde evitare la frammentazione nell'intera Unione, la Commissione, in consultazione con l'ufficio per l'IA, adotta un atto delegato che precisa le modalità per l'istituzione, lo sviluppo, l'attuazione, il funzionamento e la supervisione degli spazi di sperimentazione normativa per l'IA, tra cui i criteri di ammissibilità e la procedura per la domanda, la selezione, la partecipazione e l'uscita dallo spazio di sperimentazione, nonché i diritti e gli obblighi dei partecipanti sulla base delle disposizioni di cui al presente articolo.
2. Alla Commissione è conferito il potere di adottare atti delegati conformemente all'articolo 73, entro 12 mesi dall'entrata in vigore del presente regolamento. Essa garantisce che:
a) gli spazi di sperimentazione normativa siano aperti a qualsiasi potenziale fornitore di un sistema di IA che soddisfi i criteri di ammissibilità e selezione. I criteri di accesso allo spazio di sperimentazione normativa sono trasparenti ed equi e le autorità istitutive informano i richiedenti della loro decisione entro 3 mesi dalla domanda;
b) gli spazi di sperimentazione normativa consentano un accesso ampio e paritario e tengano il passo con la domanda di partecipazione;
c) l'accesso agli spazi di sperimentazione normativa per l'IA sia gratuito per le PMI e le start-up, fatti salvi i costi straordinari che le autorità istituenti possono recuperare in maniera equa e proporzionata;
d) gli spazi di sperimentazione normativa facilitino il coinvolgimento di altri attori pertinenti nell'ambito dell'ecosistema dell'IA, quali organismi notificati e organizzazioni di normazione (PMI, start-up, imprese, innovatori, strutture di prova e di sperimentazione, laboratori di ricerca e sperimentazione e poli di innovazione digitale, centri di eccellenza, singoli ricercatori), al fine di consentire e facilitare la cooperazione con i settori pubblico e privato;
e) gli spazi di sperimentazione normativa consentano ai potenziali fornitori di adempiere, in un ambiente controllato, agli obblighi di valutazione della conformità del presente regolamento o l'applicazione volontaria dei codici di condotta di cui all'articolo 69;
f) le procedure, i processi e i requisiti amministrativi per l'applicazione, la selezione, la partecipazione e l'uscita dallo spazio di sperimentazione siano semplici, facilmente intelligibili, comunicati chiaramente per agevolare la partecipazione delle PMI e delle start-up con capacità giuridiche e amministrative limitate e siano razionalizzati in tutta l'Unione, al fine di evitare la frammentazione e che la partecipazione a uno spazio di sperimentazione normativa istituito da uno Stato membro, dalla Commissione o dal GEPD sia reciprocamente e uniformemente riconosciuta e produca gli stessi effetti giuridici nell'intera Unione;
g) la partecipazione allo spazio di sperimentazione normativa per l'IA sia limitata a un periodo commisurato alla complessità e alla portata del progetto;
h) gli spazi di sperimentazione agevolino lo sviluppo di strumenti e infrastrutture per la sperimentazione, l'analisi comparativa, la valutazione e la spiegazione delle dimensioni dei sistemi di IA pertinenti per gli spazi di sperimentazione, quali l'accuratezza, la robustezza e la cibersicurezza, nonché la riduzione al minimo dei rischi per i diritti fondamentali, l'ambiente e la società in generale.
3. I potenziali fornitori negli spazi di sperimentazione, soprattutto le PMI e le start-up, beneficiano di un accesso agevolato ai servizi di pre-diffusione, quali gli orientamenti sull'attuazione del presente regolamento, ad altri servizi a valore aggiunto, quali l'assistenza per i documenti di normazione e la certificazione e la consultazione, e ad altre iniziative del mercato unico digitale, quali i centri di prova e di sperimentazione, i poli digitali, i centri di eccellenza e le capacità di analisi comparativa dell'UE.
Emendamento 506 Proposta di regolamento Articolo 54 – titolo
Ulteriore trattamento dei dati personali per lo sviluppo nello spazio di sperimentazione normativa per l'IA di determinati sistemi di IA nell'interesse pubblico
Ulteriore trattamento dei dati per lo sviluppo nello spazio di sperimentazione normativa per l'IA di determinati sistemi di IA nell'interesse pubblico
Emendamento 507 Proposta di regolamento Articolo 54 – paragrafo 1 – parte introduttiva
1. Nello spazio di sperimentazione normativa per l'IA i dati personali legalmente raccolti per altre finalità sono trattati ai fini dello sviluppo e delle prove nello spazio di sperimentazione di determinati sistemi di IA innovativi alle seguenti condizioni:
1. Nello spazio di sperimentazione normativa per l'IA i dati personali legalmente raccolti per altre finalità possono essere trattati unicamente ai fini dello sviluppo e delle prove nello spazio di sperimentazione di determinati sistemi di IA allorché sono soddisfatte tutte le seguenti condizioni:
Emendamento 508 Proposta di regolamento Articolo 54 – paragrafo 1 – lettera a – parte introduttiva
a) i sistemi di IA innovativi sono sviluppati per salvaguardare un interesse pubblico rilevante in uno o più dei seguenti settori:
a) i sistemi di IA sono sviluppati per salvaguardare un interesse pubblico rilevante in uno o più dei seguenti settori:
ii) la sicurezza pubblica e la sanità pubblica, compresi l'individuazione, la diagnosi, la prevenzione, il controllo e la cura delle malattie;
iii) un elevato livello di protezione e di miglioramento della qualità dell'ambiente, la tutela della biodiversità, l'inquinamento nonché la mitigazione dei cambiamenti climatici e l'adattamento ad essi;
iii bis) la sicurezza e la resilienza dei sistemi, delle infrastrutture critiche e delle reti di trasporto;
Emendamento 509 Proposta di regolamento Articolo 54 – paragrafo 1 – lettera a – punto i
i) la prevenzione, l'indagine, l'accertamento e il perseguimento di reati o l'esecuzione di sanzioni penali, incluse la salvaguardia contro le minacce alla sicurezza pubblica e la prevenzione delle stesse, sotto il controllo e la responsabilità delle autorità competenti. Il trattamento si basa sul diritto degli Stati membri o dell'Unione;
soppresso
Emendamento 510 Proposta di regolamento Articolo 54 – paragrafo 1 – lettera c
c) esistono meccanismi di monitoraggio efficaci per individuare eventuali rischi elevati per i diritti fondamentali degli interessati durante la sperimentazione nello spazio di sperimentazione e meccanismi di risposta per attenuare rapidamente tali rischi e, ove necessario, interrompere il trattamento;
c) esistono meccanismi di monitoraggio efficaci per individuare eventuali rischi elevati per i diritti e le libertà degli interessati di cui all'articolo 35 del regolamento (UE) 2016/679 e all'articolo 35 del regolamento (UE) 2018/1725 durante la sperimentazione nello spazio di sperimentazione e meccanismi di risposta per attenuare rapidamente tali rischi e, ove necessario, interrompere il trattamento;
Emendamento 511 Proposta di regolamento Articolo 54 – paragrafo 1 – lettera d
d) i dati personali da trattare nel contesto dello spazio di sperimentazione sono in un ambiente di trattamento dei dati funzionalmente separato, isolato e protetto sotto il controllo dei partecipanti e solo le persone autorizzate hanno accesso a tali dati;
d) i dati personali da trattare nel contesto dello spazio di sperimentazione sono in un ambiente di trattamento dei dati funzionalmente separato, isolato e protetto sotto il controllo dei potenziali fornitori e solo le persone autorizzate hanno accesso a tali dati;
Emendamento 512 Proposta di regolamento Articolo 54 – paragrafo 1 – lettera f
f) il trattamento di dati personali nel contesto dello spazio di sperimentazione non comporta misure o decisioni aventi ripercussioni sugli interessati;
f) il trattamento di dati personali nel contesto dello spazio di sperimentazione non comporta misure o decisioni aventi ripercussioni sugli interessati né incide sull'applicazione dei loro diritti sanciti dal diritto dell'Unione in materia di protezione dei dati personali;
Emendamento 513 Proposta di regolamento Articolo 54 – paragrafo 1 – lettera g
g) i dati personali trattati nell'ambito dello spazio di sperimentazione sono cancellati una volta terminata la partecipazione allo spazio di sperimentazione o al raggiungimento del termine del periodo di conservazione dei dati personali;
g) i dati personali trattati nell'ambito dello spazio di sperimentazione sono protetti mediante adeguate misure tecniche e organizzative e cancellati una volta terminata la partecipazione allo spazio di sperimentazione o al raggiungimento del termine del periodo di conservazione dei dati personali;
Emendamento 514 Proposta di regolamento Articolo 54 – paragrafo 1 – lettera h
h) i log del trattamento dei dati personali nel contesto dello spazio di sperimentazione sono conservati per la durata della partecipazione allo spazio di sperimentazione e per 1 anno dopo la sua cessazione, al solo scopo di adempiere gli obblighi di rendicontazione e documentazione previsti dal presente articolo o da altre normative applicabili dell'Unione o degli Stati membri e solo per il tempo necessario per adempiere tali obblighi;
h) i log del trattamento dei dati personali nel contesto dello spazio di sperimentazione sono conservati per la durata della partecipazione allo spazio di sperimentazione;
j) una breve sintesi del progetto di IA sviluppato nello spazio di sperimentazione, dei suoi obiettivi e dei risultati attesi è pubblicata sul sito web delle autorità competenti.
j) una breve sintesi del sistema di IA sviluppato nello spazio di sperimentazione, dei suoi obiettivi, delle ipotesi e dei risultati attesi è pubblicata sul sito web delle autorità competenti.
Emendamento 516 Proposta di regolamento Articolo 54 bis (nuovo)
Articolo 54 bis
Promozione della ricerca e dello sviluppo dell'IA a sostegno di risultati vantaggiosi dal punto di vista sociale e ambientale
1. Gli Stati membri promuovono la ricerca e lo sviluppo di soluzioni di IA a sostegno di risultati vantaggiosi dal punto di vista sociale e ambientale, compreso, ma non solo, lo sviluppo di soluzioni basate sull'IA per aumentare l'accessibilità per le persone con disabilità, affrontare le disuguaglianze socioeconomiche e conseguire obiettivi in materia di sostenibilità e di ambiente:
a) fornendo ai progetti pertinenti un accesso prioritario agli spazi di sperimentazione normativa per l'IA nella misura in cui essi soddisfano le condizioni di ammissibilità;
b) stanziando finanziamenti pubblici, anche da pertinenti fondi dell'UE, per la ricerca e lo sviluppo dell'IA a sostegno di risultati vantaggiosi dal punto di vista sociale e ambientale;
c) organizzando specifiche attività di sensibilizzazione sull'applicazione del presente regolamento, sulla disponibilità di fondi dedicati e sulle procedure di richiesta degli stessi, adeguate alle esigenze di tali progetti;
d) ove opportuno, istituendo canali dedicati accessibili, anche nell'ambito dello spazio di sperimentazione, per la comunicazione con i progetti al fine di fornire orientamenti e rispondere alle domande sull'attuazione del presente regolamento.
Gli Stati membri sostengono la società civile e i portatori di interessi sociali nel guidare tali progetti o parteciparvi.
Emendamento 517 Proposta di regolamento Articolo 55 – titolo
Misure per i fornitori di piccole dimensioni e gli utenti
Misure per le PMI, le start-up e gli utenti
Emendamento 518 Proposta di regolamento Articolo 55 – paragrafo 1 – lettera a
a) fornire ai fornitori di piccole dimensioni e alle start-up un accesso prioritario agli spazi di sperimentazione normativa per l'IA nella misura in cui essi soddisfano le condizioni di ammissibilità;
a) fornire alle PMI e alle start-up stabilite nell'Unione un accesso prioritario agli spazi di sperimentazione normativa per l'IA nella misura in cui essi soddisfano le condizioni di ammissibilità;
Emendamento 519 Proposta di regolamento Articolo 55 – paragrafo 1 – lettera b
b) organizzare specifiche attività di sensibilizzazione sull'applicazione del presente regolamento adattate alle esigenze dei fornitori di piccole dimensioni e degli utenti;
b) organizzare specifiche attività di sensibilizzazione e di sviluppo rafforzato delle competenze digitali sull'applicazione del presente regolamento adattate alle esigenze delle PMI, delle start-up e degli utenti;
Emendamento 520 Proposta di regolamento Articolo 55 – paragrafo 1 – lettera c
c) ove opportuno, istituire un canale dedicato per la comunicazione con i fornitori di piccole dimensioni, gli utenti e altri innovatori, al fine di fornire orientamenti e rispondere alle domande sull'attuazione del presente regolamento.
c) utilizzare i canali dedicati esistenti e, ove opportuno, istituire nuovi canali dedicati per la comunicazione con le PMI, le start-up, gli utenti e altri innovatori, al fine di fornire orientamenti e rispondere alle domande sull'attuazione del presente regolamento;
Emendamento 521 Proposta di regolamento Articolo 55 – paragrafo 1 – lettera c bis (nuova)
c bis) promuovere la partecipazione delle PMI e di altri portatori di interessi pertinenti al processo di sviluppo della normazione;
Emendamento 522 Proposta di regolamento Articolo 55 – paragrafo 2
2. Nel fissare le tariffe per la valutazione della conformità a norma dell'articolo 43 si tiene conto degli interessi e delle esigenze specifici dei fornitori di piccole dimensioni, riducendo tali tariffe proporzionalmente alle loro dimensioni e alle dimensioni del loro mercato.
2. Nel fissare le tariffe per la valutazione della conformità a norma dell'articolo 43 si tiene conto degli interessi e delle esigenze specifici delle PMI, delle start-up e degli utenti, riducendo tali tariffe proporzionalmente alla fase di sviluppo, alle loro dimensioni, alle dimensioni del loro mercato e alla domanda del mercato.La Commissione valuta periodicamente i costi di certificazione e di conformità per le PMI e le start-up, anche attraverso consultazioni trasparenti con le PMI, le start-up e gli utenti, e collabora con gli Stati membri per ridurre tali costi, ove possibile. La Commissione riferisce in merito a tali risultati al Parlamento europeo e al Consiglio nell'ambito della relazione sulla valutazione e sul riesame del presente regolamento di cui all'articolo 84, paragrafo 2.
Emendamento 523 Proposta di regolamento Articolo 56 – SEZIONE 1 – Titolo
Titolo
SEZIONE 1: Disposizioni generali sull'ufficio europeo per l'intelligenza artificiale
Emendamento 524 Proposta di regolamento Articolo 56 – titolo
Istituzione del comitato europeo per l'intelligenza artificiale
Istituzione dell'ufficio europeo per l'intelligenza artificiale
Emendamento 525 Proposta di regolamento Articolo 56 – paragrafo 1
1. È istituito un "comitato europeo per l'intelligenza artificiale" (il "comitato").
1. È istituito un "ufficio europeo per l'intelligenza artificiale" (l'"ufficio per l'IA"). L'ufficio per l'IA è un organismo indipendente dell'Unione. Esso è dotato di personalità giuridica.
Emendamento 526 Proposta di regolamento Articolo 56 – paragrafo 2 – parte introduttiva
2. Il comitato fornisce consulenza e assistenza alla Commissione al finedi:
2. L'ufficio per l'AI è dotato di una segreteria e dispone di risorse finanziarie edi personale adeguati allo scopo di svolgere i compiti previsti dal presente regolamento.
Emendamento 527 Proposta di regolamento Articolo 56 – paragrafo 2 bis (nuovo)
2 bis. L'ufficio per l'IA ha sede a Bruxelles.
Emendamento 528 Proposta di regolamento Articolo 56 bis (nuovo)
Articolo 56 bis
Struttura
La struttura amministrativa e di gestione dell'ufficio per l'IA comprende:
a) un consiglio di amministrazione, compreso un presidente;
b) una segreteria amministrata da un direttore esecutivo;
c) un forum consultivo.
Emendamento 529 Proposta di regolamento Articolo 56 ter (nuovo)
Articolo 56 ter
Compiti dell'ufficio per l'IA
L'ufficio per l'IA svolge i compiti seguenti:
a) fornisce sostegno, consulenza e cooperazione agli Stati membri, alle autorità nazionali di controllo, alla Commissione e alle altre istituzioni, organi e organismi dell'Unione in merito all'attuazione del presente regolamento;
b) monitora e garantisce l'applicazione efficace e coerente del presente regolamento, fatti salvi i compiti delle autorità nazionali di controllo;
c) contribuisce al coordinamento tra le autorità nazionali di controllo responsabili dell'applicazione del presente regolamento;
d) funge da mediatore nelle discussioni su gravi disaccordi che possono sorgere tra le autorità competenti in merito all'applicazione del regolamento;
e) coordina indagini congiunte, a norma dell'articolo 66 bis;
f) contribuisce all'efficace cooperazione con le autorità competenti dei paesi terzi e con le organizzazioni internazionali;
g) raccoglie e condivide le competenze e le migliori pratiche degli Stati membri e assiste le autorità nazionali di controllo degli Stati membri e la Commissione nello sviluppo delle competenze organizzative e tecniche necessarie per l'attuazione del presente regolamento, anche agevolando la creazione e il mantenimento di un gruppo di esperti dell'Unione;
h) esamina, di propria iniziativa o su richiesta del suo consiglio di amministrazione o della Commissione, le questioni relative all'attuazione del presente regolamento e formula pareri, raccomandazioni o contributi scritti, anche per quanto riguarda:
i) specifiche tecniche o norme esistenti; ii) le linee direttrici della Commissione:
iii) codici di condotta e relativa applicazione, in stretta cooperazione con l'industria e con altri pertinenti portatori di interessi;
iv) l'eventuale revisione del regolamento, la preparazione degli atti delegati e gli eventuali allineamenti del presente regolamento agli atti giuridici elencati nell'allegato II;
v) le tendenze, come la competitività globale europea nell'intelligenza artificiale, la diffusione dell'intelligenza artificiale nell'Unione, lo sviluppo di competenze digitali e le minacce sistemiche emergenti relative all'intelligenza artificiale;
vi) orientamenti sulle modalità di applicazione del presente regolamento alla tipologia in costante evoluzione delle catene del valore dell'IA, in particolare per quanto riguarda le conseguenti implicazioni in termini di responsabilità di tutti i soggetti coinvolti;
i) la pubblicazione di:
i) una relazione annuale comprendente una valutazione dell'attuazione del presente regolamento, un riesame delle relazioni sugli incidenti gravi di cui all'articolo 62 e il funzionamento della banca dati di cui all'articolo 60 e
ii) raccomandazioni alla Commissione sulla categorizzazione delle pratiche vietate, sui sistemi di IA ad alto rischio di cui all'allegato III, sui codici di condotta di cui all'articolo 69 e sull'applicazione dei principi generali delineati all'articolo 4 bis;
j) assiste le autorità nella creazione e nello sviluppo di spazi di sperimentazione normativa e agevola la cooperazione tra gli spazi di sperimentazione normativa;
k) organizza riunioni con le agenzie e gli organismi di governance dell'Unione i cui compiti sono connessi all'intelligenza artificiale e all'attuazione del presente regolamento;
l) organizza consultazioni trimestrali con il forum consultivo e, se del caso, consultazioni pubbliche con altri portatori di interessi e rende pubblici i risultati di tali consultazioni sul suo sito web;
m) promuove la consapevolezza e la comprensione da parte del pubblico riguardo ai benefici, ai rischi, alle garanzie e ai diritti e obblighi in relazione all'uso di sistemi di IA;
n) facilita lo sviluppo di criteri comuni e una comprensione condivisa tra gli operatori del mercato e le autorità competenti dei concetti pertinenti di cui al presente regolamento;
o) fornisce un monitoraggio dei modelli di base e organizza un dialogo regolare con gli sviluppatori dei modelli di base per quanto riguarda la loro conformità, nonché con i sistemi di IA che fanno uso di tali modelli di IA;
p) fornisce orientamenti interpretativi su come la legge sull'IA si applica alla tipologia in costante evoluzione delle catene del valore dell'IA e su quali saranno le implicazioni che ne derivano in termini di responsabilità di tutti i soggetti coinvolti nei diversi scenari basati sullo stato dell'arte generalmente riconosciuto, anche come indicato nelle pertinenti norme armonizzate;
q) assicura una sorveglianza e un monitoraggio particolari e istituzionalizza un dialogo regolare con i fornitori di modelli di base sulla conformità dei modelli di base e dei sistemi di IA che si avvalgono di tali modelli di IA all'articolo 28 ter del presente regolamento e sulle migliori pratiche del settore per l'autogoverno. Tali riunioni sono aperte alle autorità nazionali di controllo, agli organismi notificati e alle autorità di vigilanza del mercato affinché possano parteciparvi e contribuirvi.
r) pubblica e aggiorna periodicamente orientamenti sulle soglie che qualificano l'addestramento di un modello di base come un ciclo di addestramento ampio, registra e monitora i casi noti di cicli di addestramento ampi e pubblica una relazione annuale sullo stato di avanzamento dello sviluppo, della proliferazione e dell'uso di modelli di base insieme a opzioni strategiche per affrontare i rischi e le opportunità specifici dei modelli di base;
s) promuove l'alfabetizzazione in materia di intelligenza artificiale conformemente all'articolo 4 ter.
Emendamento 530 Proposta di regolamento Articolo 56 quater (nuovo)
Articolo 56 quater
Responsabilità, indipendenza e trasparenza
1. L'ufficio per l'IA:
a) risponde del proprio operato al Parlamento europeo e al Consiglio, ai sensi del presente regolamento.
b) agisce in modo indipendente nello svolgimento dei suoi compiti o nell'esercizio dei suoi poteri; e
c) garantisce un elevato livello di trasparenza per quanto riguarda le sue attività e sviluppa buone prassi amministrative al riguardo.
Ai documenti in possesso dell'ufficio per l'IA si applica il regolamento (CE) n. 1049/2001.
Emendamento 531 Proposta di regolamento Articolo - 57 bis (nuovo) – SEZIONE 2 – titolo
Titolo
SEZIONE 2: Consiglio di amministrazione
Emendamento 532 Proposta di regolamento Articolo -57 bis (nuovo)
Articolo -57 bis
Composizione del consiglio di amministrazione
1. Il consiglio di amministrazione è composto dai seguenti membri:
a) un rappresentante dell'autorità nazionale di controllo di ciascuno Stato membro;
b) un rappresentante della Commissione;
c) un rappresentante del Garante europeo della protezione dei dati (GEPD);
d) un rappresentante dell'Agenzia dell'Unione europea per la cibersicurezza (ENISA);
e) un rappresentante dell'Agenzia dell'Unione europea per i diritti fondamentali (FRA).
Ciascun rappresentante di un'autorità nazionale di controllo dispone di un voto. I rappresentanti della Commissione, del GEPD, dell'ENISA e della FRA non hanno diritto di voto. Ogni membro ha un supplente. La nomina dei membri e dei membri supplenti del consiglio di amministrazione tiene conto della necessità di garantire l'equilibrio di genere. I nomi dei membri del consiglio di amministrazione e i loro supplenti sono resi pubblici.
2. I membri e i membri supplenti del consiglio di amministrazione non possono detenere posizioni o interessi commerciali confliggenti in relazione a questioni connesse all'applicazione del presente regolamento.
3. Le norme relative alle riunioni e alle votazioni del consiglio di amministrazione, nonché alla nomina e alla revoca del direttore esecutivo sono stabilite nel regolamento interno di cui all'articolo -57 ter, lettera a).
Emendamento 533 Proposta di regolamento Articolo -57 ter (nuovo)
Articolo -57 ter
Funzioni del consiglio di amministrazione
1. Il consiglio di amministrazione svolge i seguenti compiti:
a) prende decisioni strategiche sulle attività dell'ufficio per l'IA e adotta il suo regolamento interno a maggioranza dei due terzi dei suoi membri;
b) attua il proprio regolamento interno;
c) adotta il documento unico di programmazione dell'ufficio per l'IA e la sua relazione pubblica annuale e trasmette entrambi al Parlamento europeo, al Consiglio, alla Commissione e alla Corte dei conti;
d) adotta il bilancio dell'ufficio per l'IA;
e) nomina il direttore esecutivo e, se del caso, ne proroga o riduce il mandato o lo rimuove dall'incarico;
f) decide in merito all'istituzione delle strutture interne dell'ufficio per l'IA e, se necessario, alla modifica delle strutture interne necessarie per l'adempimento dei compiti dell'ufficio per l'IA;
Emendamento 534 Proposta di regolamento Articolo -57 quater (nuovo)
Articolo -57 quater
Presidenza del consiglio di amministrazione
1. Il consiglio di amministrazione elegge a maggioranza semplice un presidente e due vicepresidenti tra i suoi membri votanti.
2. Il mandato del presidente e dei vicepresidenti ha una durata di quattro anni. Il mandato del presidente e dei vicepresidenti può essere rinnovato una volta.
Emendamento 535 Proposta di regolamento Articolo 57 – SEZIONE 3 – titolo
Struttura del comitato
Segreteria
Emendamento 536 Proposta di regolamento Articolo 57 – paragrafo 1
1. Il comitato è composto dalle autorità nazionali di controllo, rappresentate dal capo di tale autorità o da un alto funzionario di livello equivalente, e dal Garante europeo della protezione dei dati.Altre autorità nazionali possono essere invitate alle riunioni, qualora le questioni discusse siano di loro pertinenza.
1. Le attività della segreteria sono gestite da un direttore esecutivo.Il direttore esecutivo risponde al consigliodi amministrazione. Fermi restando i rispettivi poteri del consiglio di amministrazione e delle istituzioni dell'Unione, il direttore esecutivo non sollecita né accetta istruzioni da alcun governo o altro organo.
Emendamento 537 Proposta di regolamento Articolo 57 – paragrafo 2
2. Ilcomitato adotta il suo regolamento interno a maggioranza semplice dei suoi membri, previo consenso della Commissione. Il regolamento interno contiene anche gli aspetti operativi relativi all'esecuzione dei compiti delcomitato di cui all'articolo 58.Il comitato può istituire sottogruppi, se necessario, per esaminare questioni specifiche.
2. Il direttore esecutivo partecipa alle audizioni su qualsiasi questione connessa alle attività dell'ufficio per l'IA e riferisce sull'esercizio delle sue funzioni su invito del Parlamento europeo o del Consiglio.
Emendamento 538 Proposta di regolamento Articolo 57 – paragrafo 3
3. Il comitato è presieduto dalla Commissione. La Commissione convoca le riunioni e prepara l'ordine del giorno in conformità ai compiti del comitato a norma del presente regolamento e del relativo regolamento interno. La Commissione fornisce sostegno amministrativo e analitico per le attività del comitato a norma del presente regolamento.
3. Il direttore esecutivo rappresenta l'ufficio per l'IA, anche nelle sedi internazionali per la cooperazione in materia di intelligenza artificiale.
Emendamento 539 Proposta di regolamento Articolo 57 – paragrafo 4
4. Il comitato può invitare esperti e osservatori esterni a partecipare alle sue riunioni e può tenere scambi con terzi interessati al fine di orientare, nella giusta misura, le proprie attività. A tal fine la Commissione può agevolare gli scambi tra il comitato e altri organismi, uffici, agenzie e gruppi consultivi dell'Unione.
4. La segreteria fornisce al consiglio di amministrazione e al forum consultivo il sostegno analitico, amministrativo e logistico necessario per svolgere i compiti dell'ufficio per l'IA, tra l'altro:
a) attuando le decisioni, i programmi e le attività adottati dal consiglio di amministrazione;
b) preparando ogni anno il progetto di documento unico di programmazione, il progetto di bilancio, la relazione annuale di attività dell'Ufficio per l'IA, i progetti di parere e i progetti di posizione dell'ufficio per l'IA, e presentandoli al consiglio di amministrazione;
c) coordinandosi con le sedi internazionali per la cooperazione in materia di intelligenza artificiale.
Emendamento 540 Proposta di regolamento Articolo 58 – SEZIONE 4 – titolo
Compiti del comitato
Forum consultivo
Emendamento 541 Proposta di regolamento Articolo 58 – comma 1 – parte introduttiva
Nel fornire consulenza e assistenza alla Commissione nel contesto dell'articolo 56, paragrafo 2, il Comitato in particolare:
Il forum consultivo fornisce all'ufficio per l'IA il contributo dei portatori di interessi nelle questioni relative al presente regolamento, in particolare per quanto riguarda i compiti di cui all'articolo 56 ter, lettera l).
La composizione del forum consultivo rappresenta una selezione equilibrata di portatori di interessi, tra cui l'industria, le start-up, le PMI, la società civile, le parti sociali e il mondo accademico. La composizione del forum consultivo è equilibrata per quanto riguarda gli interessi commerciali e non commerciali e, all'interno della categoria degli interessi commerciali, per quanto riguarda le PMI e le altre imprese.
Il consiglio di amministrazione nomina i membri del forum consultivo conformemente alla procedura di selezione stabilita nel regolamento interno dell'ufficio per l'IA, tenendo conto della necessità di trasparenza e nel rispetto dei criteri di cui al paragrafo 2.
Il Comitato europeo di normazione (CEN), il Comitato europeo di normazione elettrotecnica (CENELEC) e l'Istituto europeo per le norme di telecomunicazione (ETSI) sono membri permanenti del forum consultivo. Il Centro comune di ricerca è membro permanente, senza diritto di voto.
Il comitato consultivo redige il proprio regolamento interno. Esso elegge due copresidenti tra i suoi membri, conformemente ai criteri di cui al paragrafo 2. Il mandato dei vicepresidenti ha una durata di due anni, rinnovabile una volta.
Il forum consultivo tiene riunioni almeno quattro volte all'anno. Il forum consultivo può invitare esperti e altri portatori di interessi alle sue riunioni. Il direttore esecutivo può partecipare, ex officio, alle riunioni del forum consultivo.
Il forum consultivo può istituire sottogruppi permanenti o temporanei, se necessario, per esaminare questioni specifiche connesse agli obiettivi del presente regolamento.
Il forum consultivo prepara una relazione annuale sulle sue attività. Tale relazione è resa pubblica.
Emendamento 551 Proposta di regolamento Articolo 58 bis – SEZIONE 5 – titolo
Autorità europee per l'analisi comparativa
Emendamento 552 Proposta di regolamento Articolo 58 bis (nuovo)
Articolo 58 bis
Analisi comparativa
Le autorità europee per l'analisi comparativa di cui all'articolo 15, paragrafo 1 bis, e l'ufficio per l'IA, in stretta cooperazione con i partner internazionali, sviluppano congiuntamente orientamenti e capacità efficaci sotto il profilo dei costi per misurare e valutare gli aspetti dei sistemi e dei componenti di IA, in particolare dei modelli di base pertinenti per la conformità e l'applicazione del presente regolamento secondo lo stato dell'arte generalmente riconosciuto, ivi compreso quanto si riflette nelle pertinenti norme armonizzate.
Emendamento 553 Proposta di regolamento Articolo 59 – titolo
Designazione delle autorità nazionali competenti
Designazione delle autorità nazionali di controllo
Emendamento 554 Proposta di regolamento Articolo 59 – paragrafo 1
1. Ciascuno Stato membro istituisce o designa autorità nazionali competenti al fine di garantire l'applicazione e l'attuazione del presente regolamento.Le autorità nazionali competenti sono organizzateegestite in modo che sia salvaguardata l'obiettività e l'imparzialità dei loro compiti e attività.
1. Entro ... [tre mesi dalla data di entrata in vigore del presente regolamento] ciascuno Stato membro designa un'autorità nazionale di controllo, che è organizzataegestita in modo tale da salvaguardare l'obiettività e l'imparzialità dei suoi compiti e delle sue attività.
Emendamento 555 Proposta di regolamento Articolo 59 – paragrafo 2
2. Ciascuno Stato membro designa un'autorità nazionale di controllo tra le autorità nazionali competenti. L'autorità nazionale di controllo agisce in qualità diautoritàdi notifica e di autorità di vigilanza del mercato,ameno che uno Stato membro non abbia motivi organizzativi e amministrativi per designare piùdiun'autorità.
2. L'autorità nazionale di controllo assicura l'applicazione e l'attuazione del presente regolamento. Per quanto riguarda i sistemidiIA ad alto rischio relativi ai prodotti cui si applicano gli atti giuridici elencati nell'allegato II, le autorità competenti designate a normaditali atti giuridici continuano a guidare le procedure amministrative. Tuttavia, nella misuraincui un caso riguardi aspetti contemplati esclusivamente dal presente regolamento, taliautoritàcompetenti sono vincolate dalle misure connesseadetti aspetti adottate dall'autorità nazionale di controllo designata a norma del presente regolamento. L'autorità nazionale di controllo agisce in qualità di autorità di vigilanza del mercato.
Emendamento 556 Proposta di regolamento Articolo 59 – paragrafo 3
3. Gli Stati membri informano la Commissione della loro designazione o delle loro designazioni e, ove applicabile, dei motivi che giustificano la designazionedipiù autorità.
3. Entro … [tre mesi dalla data di entrata in vigore del presente regolamento] gli Stati membri mettono a disposizione del pubblico e comunicano all'ufficio per l'IA e alla Commissione il nome dell'autorità nazionale di controllo e il suo recapito. L'autorità nazionale di controllo funge da punto di contatto unico per il presente regolamento e dovrebbe essere contattabile tramite mezzidicomunicazione elettronica.
Emendamento 557 Proposta di regolamento Articolo 59 – paragrafo 4
4. Gli Stati membri garantiscono che le autorità nazionali competenti dispongano di risorse finanziarie e umane adeguate per svolgere i loro compiti a norma del presente regolamento. In particolare, le autorità nazionali competenti dispongono di sufficiente personale permanentemente disponibile, le cui competenze e conoscenze comprendono una comprensione approfondita delle tecnologie, dei dati e del calcolo dei dati di intelligenza artificiale, dei diritti fondamentali, dei rischi per la salute e la sicurezza e una conoscenza delle norme e dei requisiti giuridici esistenti.
4. Gli Stati membri garantiscono che l'autorità nazionale di controllo disponga di risorse tecniche, finanziarie e umane adeguate, nonché delle infrastrutture necessarie per svolgere efficacemente i loro compiti a norma del presente regolamento. In particolare, l'autorità nazionale di controllo dispone di sufficiente personale permanentemente disponibile, le cui competenze e conoscenze comprendono una comprensione approfondita delle tecnologie, dei dati e del calcolo dei dati di intelligenza artificiale, della protezione dei dati personali,della cibersicurezza, del diritto in materia di concorrenza, dei diritti fondamentali, dei rischi per la salute e la sicurezza e una conoscenza delle norme e dei requisiti giuridici esistenti. Gli Stati membri valutano e, se ritenuto necessario, aggiornano annualmente i requisiti in termini di competenze e risorse di cui al presente paragrafo.
Emendamento 558 Proposta di regolamento Articolo 59 – paragrafo 4 bis (nuovo)
4 bis. Ciascuna autorità nazionale di controllo esercita i propri poteri e svolge le proprie funzioni in modo indipendente, imparziale e senza pregiudizi. Nell'adempimento dei rispettivi compiti e nell'esercizio dei rispettivi poteri previsti dal presente regolamento, i membri di ciascuna autorità nazionale di controllo non sollecitano né accettano istruzioni da alcun organismo e si astengono da qualsiasi atto incompatibile con il carattere delle loro funzioni.
Emendamento 559 Proposta di regolamento Articolo 59 – paragrafo 4 ter (nuovo)
4 ter. Le autorità nazionali di controllo soddisfano i requisiti minimi di cibersicurezza stabiliti per gli organismi della pubblica amministrazione individuati come operatori di servizi essenziali ai sensi della direttiva (UE) 2022/2555.
4 quater. Nello svolgimento dei propri compiti, l'autorità nazionale di controllo agisce nel rispetto degli obblighi di riservatezza di cui all'articolo 70.
Emendamento 561 Proposta di regolamento Articolo 59 – paragrafo 5
5. Gli Stati membri riferiscono annualmente alla Commissione in merito allo stato delle risorse finanziarie e umane delle autorità nazionali competenti, con una valutazione della loro adeguatezza. La Commissione trasmette tali informazioni al comitato affinché le discuta e formuli eventuali raccomandazioni.
5. Gli Stati membri riferiscono annualmente alla Commissione in merito allo stato delle risorse finanziarie e umane dell'autorità nazionale di controllo, con una valutazione della loro adeguatezza. La Commissione trasmette tali informazioni all'ufficio per l'IA affinché le discuta e formuli eventuali raccomandazioni.
Emendamento 562 Proposta di regolamento Articolo 59 – paragrafo 6
6. La Commissione agevola lo scambio di esperienze tra autorità nazionali competenti.
soppresso
Emendamento 563 Proposta di regolamento Articolo 59 – paragrafo 7
7. Le autorità nazionali competenti possono fornire orientamenti e consulenza sull'attuazione del presente regolamento, anche ai fornitori di piccole dimensioni. Ogniqualvolta le autorità nazionali competenti intendono fornire orientamenti e consulenza in relazione a un sistema di IA in settori disciplinati da altre normative dell'Unione, sono consultate le autorità nazionali competenti a norma di tale normativa dell'Unione, come opportuno. Gli Stati membri possono inoltre istituire un punto di contatto centrale per la comunicazione con gli operatori.
7. Le autorità nazionali di controllo possono fornire orientamenti e consulenza sull'attuazione del presente regolamento, anche alle PMI e alle start-up, tenendo conto degli orientamenti e dei pareri dell'ufficio per l'IA o della Commissione. Ogniqualvolta le autorità nazionali di controllo intendono fornire orientamenti e consulenza in relazione a un sistema di IA in settori disciplinati da altra legislazione dell'Unione, gli orientamenti sono redatti in consultazione con le autorità nazionali competenti a norma di tale legislazione dell'Unione, come opportuno.
Emendamento 564 Proposta di regolamento Articolo 59 – paragrafo 8
8. Nei casi in cui le istituzioni, le agenzie e gli organismi dell'Unione rientrano nell'ambito di applicazione del presente regolamento, il Garante europeo della protezione dei dati agisce in qualità di autorità competente per la loro vigilanza.
8. Nei casi in cui le istituzioni, le agenzie e gli organismi dell'Unione rientrano nell'ambito di applicazione del presente regolamento, il Garante europeo della protezione dei dati agisce in qualità di autorità competente per la loro vigilanza e il loro coordinamento.
Emendamento 565 Proposta di regolamento Articolo 59 bis (nuovo)
Articolo 59 bis
Meccanismo di cooperazione tra autorità nazionali di controllo nei casi che coinvolgono due o più Stati membri
1. Ciascuna autorità nazionale di controllo espleta i compiti che le sono assegnati ed esercita i poteri che le sono conferiti a norma del presente regolamento nel territorio del rispettivo Stato membro.
2. Nei casi che coinvolgono due o più autorità nazionali di controllo, l'autorità nazionale di controllo dello Stato membro in cui ha avuto luogo la violazione è considerata l'autorità nazionale di controllo capofila.
3. Nei casi di cui al paragrafo 2, le autorità nazionali di controllo in questione cooperano e si scambiano tutte le informazioni pertinenti a tempo debito. Le autorità nazionali di controllo cooperano al fine di raggiungere un consenso.
Emendamento 566 Proposta di regolamento Titolo VII
VII BANCA DATI DELL'UE PER I SISTEMI DI IA INDIPENDENTI AD ALTO RISCHIO
BANCA DATI DELL'UE PER I SISTEMI DI IA AD ALTO RISCHIO
Emendamento 567 Proposta di regolamento Articolo 60 – titolo
Banca dati dell'UE per i sistemi di IA indipendenti ad alto rischio
Banca dati dell'UE per i sistemi di IA ad alto rischio
Emendamento 568 Proposta di regolamento Articolo 60 – paragrafo 1
1. La Commissione, in collaborazione con gli Stati membri, istituisce e mantiene una banca dati dell'UE contenente le informazioni di cui al paragrafo 2 relative ai sistemi di IA ad alto rischio di cui all'articolo 6, paragrafo 2, registrati conformemente all'articolo 51.
1. La Commissione, in collaborazione con gli Stati membri, istituisce e mantiene una banca dati pubblica dell'UE contenente le informazioni di cui ai paragrafi 2 e 2 bis relative ai sistemi di IA ad alto rischio di cui all'articolo 6, paragrafo 2, registrati conformemente all'articolo 51.
Emendamento 569 Proposta di regolamento Articolo 60 – paragrafo 2
2. I fornitori inseriscono nella banca dati dell'UE i dati elencati nell'allegato VIII.La Commissione fornisce loro sostegno tecnico e amministrativo.
2. I fornitori inseriscono nella banca dati dell'UE i dati elencati nell'allegato VIII, sezione A.
Emendamento 570 Proposta di regolamento Articolo 60 – paragrafo 2 bis (nuovo)
2 bis. I dati di cui all'allegato VIII, sezione B, sono inseriti nella banca dati dell'UE da operatori che sono autorità pubbliche o istituzioni, organi o organismi dell'Unione o che agiscono per loro conto e da operatori che sono imprese di cui all'articolo 51, lettere 1 bis) e 1 ter).
Emendamento 571 Proposta di regolamento Articolo 60 – paragrafo 3
3. Le informazioni contenute nella banca dati dell'UE sono accessibili al pubblico.
3. Le informazioni contenute nella banca dati dell'UE sono a disposizione del pubblico a titolo gratuito, sono di facile utilizzo e consultazione, sono leggibili meccanicamente e contengono dati digitali strutturati basati su un protocollo standardizzato.
Emendamento 572 Proposta di regolamento Articolo 60 – paragrafo 4
4. La banca dati dell'UE contiene dati personali solo nella misura necessaria per la raccolta e il trattamento delle informazioni in conformità al presente regolamento. Tali informazioni comprendono i nomi e i dati di contatto delle persone fisiche responsabili della registrazione del sistema e aventi l'autorità legale di rappresentare il fornitore.
4. La banca dati dell'UE contiene dati personali solo nella misura necessaria per la raccolta e il trattamento delle informazioni in conformità al presente regolamento. Tali informazioni comprendono i nomi e i dati di contatto delle persone fisiche responsabili della registrazione del sistema e aventi l'autorità legale di rappresentare il fornitore o l'operatore che è un'autorità pubblica o un'istituzione, un organo o un organismo dell'Unione o un operatore che agisce per loro conto, oppure un operatore che è un'impresa di cui all'articolo 51, paragrafo 1 bis, lettera b), e paragrafo 1 ter.
Emendamento 573 Proposta di regolamento Articolo 60 – paragrafo 5
5. La Commissione è il titolare del trattamento della banca dati dell'UE. Essa garantisce inoltre ai fornitori un adeguato sostegno tecnico e amministrativo.
5. La Commissione è il titolare del trattamento della banca dati dell'UE. Essa garantisce inoltre ai fornitori e agli operatori, un adeguato sostegno tecnico e amministrativo.
La banca dati è conforme ai requisiti di accessibilità di cui all'allegato I della direttiva (UE) 2019/882.
Emendamento 574 Proposta di regolamento Articolo 61 – paragrafo 2
2. Il sistema di monitoraggio successivo all'immissione sul mercato raccoglie, documenta e analizza attivamente e sistematicamente i dati pertinenti forniti dagli utenti o raccolti tramite altre fonti sulle prestazioni dei sistemi di IA ad alto rischio per tutta la durata del loro ciclo di vita e consente al fornitore di valutare la costante conformità dei sistemi di IA ai requisiti di cui al titolo III, capo 2.
2. Il sistema di monitoraggio successivo all'immissione sul mercato raccoglie, documenta e analizza attivamente e sistematicamente i dati pertinenti forniti dagli operatori o raccolti tramite altre fonti sulle prestazioni dei sistemi di IA ad alto rischio per tutta la durata del loro ciclo di vita e consente al fornitore di valutare la costante conformità dei sistemi di IA ai requisiti di cui al titoloIII, capo2. Se del caso, il monitoraggio successivo all'immissione sul mercato comprende un'analisi dell'interazione con altri sistemi di IA, compresi altri dispositivi e software, tenendo conto delle norme applicabili in settori quali la protezione dei dati, i diritti di proprietà intellettuale e il diritto della concorrenza.
Emendamento 575 Proposta di regolamento Articolo 61 – paragrafo 3
3. Il sistema di monitoraggio successivo all'immissione sul mercato si basa su un piano di monitoraggio successivo all'immissione sul mercato. Il piano di monitoraggio successivo all'immissione sul mercato fa parte della documentazione tecnica di cui all'allegato IV. La Commissione adotta un atto di esecuzione che stabilisce disposizioni dettagliate in cui si definisce un modello per il piano di monitoraggio successivo all'immissione sul mercato e un elenco di elementi da includere nel piano.
3. Il sistema di monitoraggio successivo all'immissione sul mercato si basa su un piano di monitoraggio successivo all'immissione sul mercato. Il piano di monitoraggio successivo all'immissione sul mercato fa parte della documentazione tecnica di cui all'allegato IV. La Commissione adotta un atto di esecuzione che stabilisce disposizioni dettagliate in cui si definisce un modello per il piano di monitoraggio successivo all'immissione sul mercato e un elenco di elementi da includere nel piano entro [12 mesi dalla data di entrata in vigore del presente regolamento].
Emendamento 576 Proposta di regolamento Articolo 62 – titolo
Segnalazione di incidenti gravi o malfunzionamenti
1. I fornitori di sistemi di IA ad alto rischio immessi sul mercato dell'Unione segnalano qualsiasi incidente grave o malfunzionamento di tali sistemi che costituisca una violazione degli obblighi previsti dal diritto dell'Unione intesi a tutelare i diritti fondamentali alle autorità di vigilanza del mercato degli Stati membri in cui tali incidenti o violazioni si sono verificati.
1. I fornitori e, qualora siano operatori ad aver individuato un incidente grave, gli operatori di sistemi di IA ad alto rischio immessi sul mercato dell'Unione segnalano qualsiasi incidente grave di tali sistemi che costituisca una violazione degli obblighi previsti dal diritto dell'Unione intesi a tutelare i diritti fondamentali alle autorità nazionali di controllo degli Stati membri in cui tali incidenti o violazioni si sono verificati.
Tale notifica è effettuata immediatamente dopo che il fornitore ha stabilito un nesso causale tra il sistema di IA e l'incidente o il malfunzionamento o quando stabilisce la ragionevole probabilità di tale nesso e, in ogni caso, non oltre 15 giorni dopo che è venuto a conoscenza dell'incidente grave o del malfunzionamento.
Tale notifica è effettuata senza indebito ritardo dopo che il fornitore o, se del caso, l'operatore ha stabilito un nesso causale tra il sistema di IA e l'incidente o quando stabilisce la ragionevole probabilità di tale nesso e, in ogni caso, non oltre 72 ore dopo che il fornitore o, se del caso, l'operatore è venuto a conoscenza dell'incidente grave.
Emendamento 579 Proposta di regolamento Articolo 62 – paragrafo 1 bis (nuovo)
1 bis. Al momento di stabilire un nesso causale tra il sistema di IA e l'incidente grave o la ragionevole probabilità di tale nesso, i fornitori adottano le opportune misure correttive a norma dell'articolo 21.
Emendamento 580 Proposta di regolamento Articolo 62 – paragrafo 2
2. Al ricevimento di una notifica relativa a una violazione degli obblighi previsti dal diritto dell'Unione a tutela dei diritti fondamentali, l'autorità di vigilanza del mercato informa le autorità o gli organismi pubblici nazionali di cui all'articolo 64, paragrafo 3. La Commissione elabora orientamenti specifici per facilitare il rispetto degli obblighi di cui al paragrafo 1. Tali orientamenti sono emanati al più tardi 12 mesi dopo l'entrata in vigore del presente regolamento.
2. Al ricevimento di una notifica relativa a una violazione degli obblighi previsti dal diritto dell'Unione a tutela dei diritti fondamentali, l'autorità di nazionale di controllo informa le autorità o gli organismi pubblici nazionali di cui all'articolo 64, paragrafo 3. La Commissione elabora orientamenti specifici per facilitare il rispetto degli obblighi di cui al paragrafo 1. Tali orientamenti sono emanati entro ... [la data di entrata in vigore del presente regolamento] e sono valutati periodicamente.
Emendamento 581 Proposta di regolamento Articolo 62 – paragrafo 2 bis (nuovo)
2 bis. Le autorità nazionali di controllo adottano misure adeguate entro 7 giorni dalla data di ricezione della notifica di cui al paragrafo 1. Qualora la violazione abbia luogo o sia probabile che abbia luogo in altri Stati membri, l'autorità nazionale di controllo ne informa la Commissione, l'ufficio per l'IA e le pertinenti autorità nazionali di controllo di tali Stati membri.
Emendamento 582 Proposta di regolamento Articolo 62 – paragrafo 3
3. Per i sistemi di IA ad alto rischio di cui all'allegato III, punto 5, lettera b), immessi sul mercato o messi in servizio da fornitori che sono enti creditizi disciplinati dalla direttiva 2013/36/UE e per i sistemi di IA ad alto rischiochesono componentidisicurezza di dispositivi, o sono essi stessi dispositivi, disciplinatidalregolamento (UE) 2017/745 e dal regolamento (UE) 2017/746, la notifica è limitata a incidenti gravi o malfunzionamenti che costituiscono una violazione degli obblighi previsti dal diritto dell'Unione a tutela dei diritti fondamentali.
3. Per i sistemi di IA ad alto rischio di cui all'allegato III immessi sul mercato o messi in servizio da fornitori soggetti a strumenti legislativi dell'Unionechestabiliscono obblighidisegnalazione equivalenti a quelli previstidalpresente regolamento, la notifica di incidenti gravi che costituiscono una violazione dei diritti fondamentali ai sensi del diritto dell'Unione è trasferita all'autorità nazionale di controllo.
Emendamento 583 Proposta di regolamento Articolo 62 – paragrafo 3 bis (nuovo)
3 bis. Le autorità nazionali di controllo notificano annualmente all'ufficio per l'IA gli incidenti gravi loro segnalati a norma del presente articolo.
Emendamento 584 Proposta di regolamento Articolo 63 – paragrafo 1 – parte introduttiva
1. Il regolamento (UE) 2019/1020 si applica ai sistemi di IA disciplinati dal presente regolamento. Tuttavia, ai fini dell'efficace applicazione del presente regolamento:
1. Il regolamento (UE) 2019/1020 si applica ai sistemi di IA e ai sistemi di base disciplinati dal presente regolamento. Tuttavia, ai fini dell'efficace applicazione del presente regolamento:
Emendamento 585 Proposta di regolamento Articolo 63 – paragrafo 1 – lettera b bis (nuova)
b bis) le autorità nazionali di controllo agiscono in qualità di autorità di vigilanza del mercato ai sensi del presente regolamento e hanno gli stessi poteri e obblighi delle autorità di vigilanza del mercato ai sensi del regolamento (UE) 2019/1020.
Emendamento 586 Proposta di regolamento Articolo 63 – paragrafo 2
2. L'autorità nazionale di controllo riferisce periodicamente alla Commissione in merito ai risultati delle pertinenti attività di vigilanza del mercato. L'autorità nazionale di controllo comunica senza indugio alla Commissione e alle pertinenti autorità nazionali garanti della concorrenza qualsiasi informazione individuata nel corso delle attività di vigilanza del mercato che possa essere di potenziale interesse per l'applicazione del diritto dell'Unione in materia di concorrenza.
2. L'autorità nazionale di controllo riferisce annualmente alla Commissione e all'ufficio per l'IA in merito ai risultati delle pertinenti attività di vigilanza del mercato. L'autorità nazionale di controllo comunica senza indugio alla Commissione e alle pertinenti autorità nazionali garanti della concorrenza qualsiasi informazione individuata nel corso delle attività di vigilanza del mercato che possa essere di potenziale interesse per l'applicazione del diritto dell'Unione in materia di concorrenza.
Emendamento 587 Proposta di regolamento Articolo 63 – paragrafo 3 bis (nuovo)
3 bis. Al fine di garantire l'effettiva applicazione del presente regolamento, le autorità nazionali di controllo possono:
a) effettuare ispezioni di sistemi di IA ad alto rischio in loco e a distanza senza preavviso;
b) acquisire campioni relativi a sistemi di IA ad alto rischio, anche attraverso ispezioni a distanza, per sottoporre a ingegneria inversa i sistemi di IA e ottenere prove al fine di individuare i casi di non conformità.
Emendamento 588 Proposta di regolamento Articolo 63 – paragrafo 5
5. Per i sistemi di IA elencati al punto 1, lettera a), nella misura in cui tali sistemi sono utilizzati a fini di attività di contrasto, e ai punti 6 e 7 dell'allegato III, gli Stati membri designano come autorità di vigilanza del mercato ai fini del presente regolamento le autorità di controllo competenti per la protezione dei dati a norma della direttiva (UE) 2016/680 o del regolamento (CE) n. 2016/679 o le autorità nazionali competenti che controllano le attività delle autorità di contrasto o delle autorità competenti in materia di immigrazione o di asilo che mettono in servizio o usano tali sistemi.
5. Per i sistemi di IA utilizzati a fini di attività di contrasto, gli Stati membri designano come autorità di vigilanza del mercato ai fini del presente regolamento le autorità di controllo competenti per la protezione dei dati a norma della direttiva (UE)2016/680.
Emendamento 589 Proposta di regolamento Articolo 63 – paragrafo 7
7. Gli Stati membri agevolano il coordinamento tra le autorità di vigilanza del mercato designate a norma del presente regolamento e altre autorità o organismi nazionali pertinenti che controllano l'applicazione della normativa di armonizzazione dell'Unione elencata nell'allegato II o di altre normative dell'Unione che potrebbero essere pertinenti per i sistemi di IA ad alto rischio di cui all'allegato III.
7. Le autorità nazionali di controllo designate a norma del presente regolamento si coordinano con altre autorità o organismi nazionali pertinenti che controllano l'applicazione della legislazione di armonizzazione dell'Unione elencata nell'allegato II o di altra legislazione dell'Unione che potrebbe essere pertinente per i sistemi di IA ad alto rischio di cui all'allegato III.
Emendamento 590 Proposta di regolamento Articolo 64 – paragrafo 1
1. Per quanto riguarda l'accesso ai dati e alla documentazione nell'ambito delle loro attività, alle autorità di vigilanza del mercato è concesso pieno accesso ai set di dati di addestramento, convalida e prova utilizzati dal fornitore, anche attraverso interfacce di programmazionedelleapplicazioni ("API") o altri mezzi tecnici e strumenti adeguati che consentano l'accesso remoto.
1. Nell'ambito delle loro attività, e sulla base di una loro richiesta motivata, alle autorità nazionali di controllo è concesso pieno accesso ai set di dati di addestramento, convalida e prova utilizzati dal fornitore, o, se del caso, dall'operatore, che sono pertinenti e strettamente necessari ai finidellaloro richiesta attraverso altri mezzi tecnici e strumenti adeguati.
Emendamento 591 Proposta di regolamento Articolo 64 – paragrafo 2
2. Ove necessario per valutare la conformità del sistema di IA ad alto rischio ai requisiti di cui al titolo III, capo 2, e su richiesta motivata, alle autorità di vigilanza del mercato è concesso l'accesso al codice sorgente del sistema di IA.
2. Ove necessario per valutare la conformità del sistema di IA ad alto rischio ai requisiti di cui al titolo III, capo 2, dopo che tutte le altre modalità ragionevoli per verificare la conformità, compreso il paragrafo 1, sono state esaurite e si sono rivelate insufficienti, e su richiesta motivata, all'autorità nazionale di controllo è concesso l'accesso ai modelli di addestramento e addestrati del sistema di IA, compresi i relativi parametri del modello. Tutte le informazioni ottenute a norma dell'articolo 70 sono trattate come informazioni riservate, sono soggette alla normativa vigente dell'Unione in materia di tutela della proprietà intellettuale e dei segreti commerciali e sono cancellate al termine dell'indagine per la quale sono state richieste.
Emendamento 592 Proposta di regolamento Articolo 64 – paragrafo 2 bis (nuovo)
2 bis. I paragrafi 1 e 2 non pregiudicano i diritti procedurali dell'operatore interessato in conformità all'articolo 18 del regolamento (UE) 2019/1020.
Emendamento 593 Proposta di regolamento Articolo 64 – paragrafo 3
3. Le autorità o gli organismi pubblici nazionali che controllano o fanno rispettare gli obblighi previsti dal diritto dell'Unione a tutela dei diritti fondamentali in relazione all'uso dei sistemi di IA ad alto rischio di cui all'allegato III hanno il potere di richiedere qualsiasi documentazione creata o mantenuta a norma del presente regolamento o di accedervi quando l'accesso a tale documentazione è necessario per l'adempimento delle competenze a norma del loro mandato entro i limiti della loro giurisdizione. L'autorità pubblica o l'organismo pubblico pertinente informa l'autorità di vigilanza del mercato dello Stato membro interessato di qualsiasi richiesta in tal senso.
3. Le autorità o gli organismi pubblici nazionali che controllano o fanno rispettare gli obblighi previsti dal diritto dell'Unione a tutela dei diritti fondamentali in relazione all'uso dei sistemi di IA ad alto rischio di cui all'allegato III hanno il potere di richiedere qualsiasi documentazione creata o mantenuta a norma del presente regolamento o di accedervi quando l'accesso a tale documentazione è necessario per l'adempimento delle competenze a norma del loro mandato entro i limiti della loro giurisdizione. L'autorità pubblica o l'organismo pubblico pertinente informa l'autorità nazionale di controllo dello Stato membro interessato di qualsiasi richiesta in tal senso.
Emendamento 594 Proposta di regolamento Articolo 64 – paragrafo 4
4. Entro 3 mesi dall'entrata in vigore del presente regolamento, ciascuno Stato membro individua le autorità o gli organismi pubblici di cui al paragrafo 3 e pubblica un elenco sul sito web dell'autorità nazionale di controllo. Gli Stati membri notificano l'elenco alla Commissione e a tutti gli altri Stati membri e lo tengono aggiornato.
4. Entro 3 mesi dall'entrata in vigore del presente regolamento, ciascuno Stato membro individua le autorità o gli organismi pubblici di cui al paragrafo 3 e pubblica un elenco sul sito web dell'autorità nazionale di controllo. Le autorità nazionali di controllo notificano l'elenco alla Commissione, all'ufficio per l'IA e a tutte le altre autorità nazionali di controllo e lo tengono aggiornato. La Commissione pubblica su un sito web dedicato l'elenco di tutte le autorità competenti designate dagli Stati Membri ai sensi del presente articolo.
Emendamento 595 Proposta di regolamento Articolo 64 – paragrafo 5
5. Qualora la documentazione di cui al paragrafo 3 non sia sufficiente per accertare un'eventuale violazione degli obblighi previsti dal diritto dell'Unione a tutela dei diritti fondamentali, l'autorità pubblica o l'organismo pubblico di cui al paragrafo 3 può presentare all'autorità di vigilanza del mercato una richiesta motivata al fine di organizzare una prova del sistema di IA ad alto rischio mediante mezzi tecnici. L'autorità di vigilanza del mercato organizza le prove coinvolgendo da vicino l'autorità pubblica o l'organismo pubblico richiedente entro un termine ragionevole dalla richiesta.
5. Qualora la documentazione di cui al paragrafo 3 non sia sufficiente per accertare un'eventuale violazione degli obblighi previsti dal diritto dell'Unione a tutela dei diritti fondamentali, l'autorità pubblica o l'organismo pubblico di cui al paragrafo 3 può presentare all'autorità nazionale di controllo una richiesta motivata al fine di organizzare una prova del sistema di IA ad alto rischio mediante mezzi tecnici. L'autorità nazionale di controllo organizza le prove coinvolgendo da vicino l'autorità pubblica o l'organismo pubblico richiedente entro un termine ragionevole dalla richiesta.
Emendamento 596 Proposta di regolamento Articolo 65 – paragrafo 1
1. Un sistema di IA che presenta un rischio è inteso come un prodotto che presenta un rischio definito all'articolo 3, punto 19, del regolamento (UE) 2019/1020 per quanto riguarda i rischi per la salute o la sicurezza oper la tutela dei diritti fondamentali delle persone.
1. Un sistema di IA che presenta un rischio è inteso come un sistema di IA che potenzialmente potrebbe pregiudicare la salute, la sicurezza e i diritti fondamentali delle persone in generale, anche sul posto di lavoro, la protezione dei consumatori, l'ambiente e la sicurezza pubblica, la democrazia, lo Stato di diritto e altri interessi pubblici tutelati dalla normativa di armonizzazione dell'Unione applicabile, in una misura che oltrepassa quanto ritenuto ragionevole e accettabile in relazione al suo uso previsto o nelle condizioni d'uso normali o ragionevolmente prevedibili del sistema interessato, incluse la durata di utilizzo e, se del caso, le prescrizioni relative alla messa in servizio, all'installazione e alla manutenzione.
2. Qualora l'autorità di vigilanza del mercato di uno Stato membro abbia motivi sufficienti per ritenere che un sistema di IA presenti un rischio di cui al paragrafo 1, essa effettua una valutazione del sistema di IA interessato per quanto riguarda la sua conformità a tutti i requisiti e gli obblighi di cui al presente regolamento. In presenza di rischi per la tutela dei diritti fondamentali, l'autorità di vigilanza del mercato informa anche le autorità o gli organismi pubblici nazionali competenti di cui all'articolo 64, paragrafo 3. I pertinenti operatori cooperano, per quanto necessario, con le autorità di vigilanza del mercato e con le altre autorità o gli altri organismi pubblici nazionali di cui all'articolo 64, paragrafo 3.
2. Qualora l'autorità nazionale di controllo di uno Stato membro abbia motivi sufficienti per ritenere che un sistema di IA presenti un rischio di cui al paragrafo 1, essa effettua una valutazione del sistema di IA interessato per quanto riguarda la sua conformità a tutti i requisiti e gli obblighi di cui al presente regolamento. In presenza di rischi per i diritti fondamentali, l'autorità nazionale di controllo informa immediatamente anche le autorità o gli organismi pubblici nazionali competenti di cui all'articolo 64, paragrafo 3 e coopera pienamente con essi.Laddove vi siano motivi sufficienti per ritenere che un sistema di IA sfrutti le vulnerabilità di gruppi vulnerabili o violi intenzionalmente o meno i loro diritti, l'autorità nazionale di controllo ha il dovere di indagare sugli obiettivi di progettazione, sugli input di dati, sulla selezione del modello e sull'attuazione e i risultati dei sistemi di IA. I pertinenti operatori cooperano, per quanto necessario, con le autorità nazionali di controllo e con le altre autorità o gli altri organismi pubblici nazionali di cui all'articolo 64, paragrafo 3.
Se, nel corso di tale valutazione, le autorità di vigilanzadelmercato rilevano che il sistema di IA non è conforme ai requisiti e agli obblighi di cui al presente regolamento, esse chiedono senza ritardo al pertinente operatore di adottare tutte le misure correttive adeguate al fine di, a seconda dei casi, ripristinare la conformità del sistema di IA, ritirarlo dal mercato o richiamarlo entro un termine ragionevole e proporzionale alla natura del rischio.
Se, nel corso di tale valutazione, le autorità nazionali di controllo o, sedelcaso, l'autorità pubblica nazionale di cui all'articolo 64, paragrafo 3, rilevano che il sistema di IA non è conforme ai requisiti e agli obblighi di cui al presente regolamento, esse chiedono senza ritardo al pertinente operatore di adottare tutte le misure correttive adeguate al fine di, a seconda dei casi, ripristinare la conformità del sistema di IA, ritirarlo dal mercato o richiamarlo entro un termine ragionevole e proporzionale alla natura del rischio e in ogni caso non oltre 15 giorni lavorativi o secondo quanto previsto nella normativa di armonizzazione applicabile dell'Unione.
L'autorità di vigilanza del mercato informa di conseguenza l'organismo notificato pertinente. L'articolo 18 del regolamento (UE) 2019/1020 si applica alle misure di cui al secondo comma.
L'autorità nazionale di controllo informa di conseguenza l'organismo notificato pertinente. L'articolo 18 del regolamento (UE) 2019/1020 si applica alle misure di cui al secondo comma.
Emendamento 600 Proposta di regolamento Articolo 65 – paragrafo 3
3. Qualora ritenga che la non conformità non sia limitata al territorio nazionale, l'autorità di vigilanza del mercato informa la Commissione e gli altri Stati membri dei risultati della valutazione e delle azioni che hanno chiesto all'operatore economico di intraprendere.
3. Qualora ritenga che la non conformità non sia limitata al territorio nazionale, l'autorità nazionale di controllo informa senza indebito ritardo la Commissione, l'ufficio per l'IA e le autorità nazionali di controllo degli altri Stati membri dei risultati della valutazione e delle azioni che hanno chiesto all'operatore economico di intraprendere.
Emendamento 601 Proposta di regolamento Articolo 65 – paragrafo 5
5. Qualora l'operatore di un sistema di IA non adotti misure correttive adeguate nel periodo di cui al paragrafo 2, l'autorità di vigilanza del mercato adotta tutte le misure provvisorie del caso per vietare o limitare la messa a disposizione del sistema di IA sul mercato nazionale, per ritirare il prodotto dal mercato o per richiamarlo. Tale autorità informa senza ritardo la Commissione e gli altri Stati membri di tale misure.
5. Qualora l'operatore di un sistema di IA non adotti misure correttive adeguate nel periodo di cui al paragrafo 2, l'autorità nazionale di controllo adotta tutte le misure provvisorie del caso per vietare o limitare la messa a disposizione del sistema di IA sul mercato nazionale o la sua messa in funzione, per ritirare il sistema di IA dal mercato o per richiamarlo. Tale autorità informa immediatamente di tali misure la Commissione, l'ufficio per l'IA e l'autorità nazionale di controllo degli gli altri Stati membri.
Emendamento 602 Proposta di regolamento Articolo 65 – paragrafo 6 – parte introduttiva
6. Le informazioni di cui al paragrafo 5 includono tutti i particolari disponibili, soprattutto i dati necessari all'identificazione del sistema di IA non conforme, la sua origine, la natura della presunta non conformità e dei rischi connessi, la natura e la durata delle misure nazionali adottate, nonché gli argomenti espressi dal pertinente operatore. Le autorità di vigilanza del mercato indicano in particolare se la non conformità sia dovuta a una o più delle cause seguenti:
6. Le informazioni di cui al paragrafo 5 includono tutti i particolari disponibili, soprattutto i dati necessari all'identificazione del sistema di IA non conforme, la sua origine e la sua catena di approvvigionamento, la natura della presunta non conformità e dei rischi connessi, la natura e la durata delle misure nazionali adottate, nonché gli argomenti espressi dal pertinente operatore. L'autorità nazionale di controllo indica in particolare se la non conformità sia dovuta a una o più delle cause seguenti:
Emendamento 603 Proposta di regolamento Articolo 65 – paragrafo 6 – lettera a
a) mancato rispetto da parte del sistema di IA dei requisiti di cui al titolo III, capo 2;
a) mancato rispetto da parte del sistema di IA ad alto rischio dei requisiti di cui al presente regolamento;
Emendamento 604 Proposta di regolamento Articolo 65 – paragrafo 6 – lettera b bis (nuova)
b bis) inosservanza del divieto delle pratiche di intelligenza artificiale di cui all'articolo 5;
Emendamento 605 Proposta di regolamento Articolo 65 – paragrafo 6 – lettera b ter (nuova)
b ter) inosservanza delle disposizioni di cui all'articolo 52.
Emendamento 606 Proposta di regolamento Articolo 65 – paragrafo 7
7. Le autorità di vigilanza del mercato degli Stati membri diverse dall'autorità di vigilanza del mercato dello Stato membro che ha avviato la procedura comunicano senza ritardo alla Commissione e agli altri Stati membri tutte le misure adottate, tutte le altre informazioni a loro disposizione sulla non conformità del sistema di IA interessato e, in caso di disaccordo con la misura nazionale notificata, le loro obiezioni.
7. Le autorità nazionali di controllo degli Stati membri diverse dall'autorità nazionale di controllo dello Stato membro che ha avviato la procedura comunicano senza ritardo alla Commissione, all'ufficio per l'IA e agli altri Stati membri tutte le misure adottate, tutte le altre informazioni a loro disposizione sulla non conformità del sistema di IA interessato e, in caso di disaccordo con la misura nazionale notificata, le loro obiezioni.
Emendamento 607 Proposta di regolamento Articolo 65 – paragrafo 8
8. Se, entro tre mesi dal ricevimento delle informazioni di cui al paragrafo 5, uno Stato membro o la Commissione non sollevano obiezioni contro la misura provvisoria adottata da uno Stato membro, tale misura è ritenuta giustificata. Ciò non pregiudica i diritti procedurali dell'operatore interessato in conformità all'articolo 18 del regolamento (UE) 2019/1020.
8. Se, entro tre mesi dal ricevimento delle informazioni di cui al paragrafo 5, un'autorità nazionale di controllo di uno Stato membro o la Commissione non sollevano obiezioni contro la misura provvisoria adottata da un'autorità nazionale di controllo un altro Stato membro, tale misura è ritenuta giustificata. Ciò non pregiudica i diritti procedurali dell'operatore interessato in conformità all'articolo 18 del regolamento (UE) 2019/1020. Il periodo di cui al primo comma del presente paragrafo è ridotto a trenta giorni in caso di inosservanza del divieto delle pratiche di intelligenza artificiale di cui all'articolo 5.
Emendamento 608 Proposta di regolamento Articolo 65 – paragrafo 9
9. Le autorità di vigilanza del mercato garantiscono che siano adottate senza ritardo adeguate misure restrittive in relazione al prodotto interessato, come il ritiro del prodotto dal loro mercato.
9. Le autorità nazionali di controllo di tutti gli Stati membri garantiscono che siano adottate senza ritardo adeguate misure restrittive in relazione al sistema di IA interessato, come il ritiro del sistema di IA dal loro mercato.
Emendamento 609 Proposta di regolamento Articolo 65 – paragrafo 9 bis (nuovo)
9 bis. Le autorità nazionali di controllo riferiscono annualmente all'ufficio per l'IA in merito all'eventuale ricorso a pratiche vietate verificatosi nel corso di tale anno e alle misure adottate per eliminare o attenuare i rischi in conformità del presente articolo.
Emendamento 610 Proposta di regolamento Articolo 66 – paragrafo 1
1. Se entro tre mesi dal ricevimento della notifica di cui all'articolo 65, paragrafo 5, uno Stato membro solleva obiezioni contro la misura adottata da un altro Stato membro, o se la Commissione ritiene che la misura sia contraria al diritto dell'Unione, la Commissione consulta senza ritardo lo Stato membro e l'operatore o gli operatori pertinenti e valuta la misura nazionale. Sulla base dei risultati di tale valutazione, la Commissione decide se la misura nazionale sia giustificata o meno entro 9 mesi dalla notifica di cui all'articolo 65, paragrafo 5, e notifica tale decisione allo Stato membro interessato.
1. Se entro tre mesi dal ricevimento della notifica di cui all'articolo65, paragrafo 5, oppure 30giorni in caso di inosservanza del divieto delle pratiche di intelligenza artificiale di cui all'articolo 5, l'autorità nazionale di controllo di uno Stato membro solleva obiezioni contro la misura adottata da un'altra autorità nazionale di controllo, o se la Commissione ritiene che la misura sia contraria al diritto dell'Unione, la Commissione consulta senza ritardo l'autorità nazionale di controllo dello Stato membro e l'operatore o gli operatori pertinenti e valuta la misura nazionale. Sulla base dei risultati di tale valutazione, la Commissione decide se la misura nazionale sia giustificata o meno entro tre mesi, o 60 giorni in caso di inosservanza del divieto delle pratiche di intelligenza artificiale di cui all'articolo 5, a decorrere dalla notifica di cui all'articolo 65, paragrafo 5, e notifica tale decisione all'autorità nazionale di controllo dello Stato membro interessato. La Commissione informa inoltre di tale decisione tutte le altre autorità nazionali di controllo.
Emendamento 611 Proposta di regolamento Articolo 66 – paragrafo 2
2. Se la misura nazionale è ritenuta giustificata, tutti gli Stati membri adottano le misure necessarie a garantire che il sistema di IA non conforme sia ritirato dal loro mercato e ne informano la Commissione. Se la misura nazionale è ritenuta ingiustificata, lo Stato membro interessato provvede a ritirarla.
2. Se la misura nazionale è ritenuta giustificata, tutte le autorità nazionali di controllo designate a norma del presente regolamento adottano le misure necessarie a garantire che il sistema di IA non conforme sia ritirato senza indugio dal loro mercato e ne informano la Commissione e l'ufficio per l'IA. Se la misura nazionale è ritenuta ingiustificata, l'autorità nazionale di controllo dello Stato membro interessato provvede a ritirarla.
Emendamento 612 Proposta di regolamento Articolo 66 bis (nuovo)
Articolo 66 bis
Indagini congiunte
Qualora un'autorità nazionale di controllo abbia motivo di sospettare che la violazione del presente regolamento da parte di un fornitore o di un operatore di un sistema di IA o di un modello di base ad alto rischio costituisca una violazione diffusa avente una dimensione a livello di Unione o riguardi o possa riguardare almeno 45 milioni di persone in più di uno Stato membro, tale autorità nazionale di controllo informa l'ufficio per l'IA e può chiedere alle autorità nazionali di controllo degli Stati membri in cui si è verificata tale violazione di avviare un'indagine congiunta. L'ufficio per l'IA assicura il coordinamento centrale dell'indagine congiunta. I poteri di indagine restano di competenza delle autorità nazionali di controllo.
Emendamento 613 Proposta di regolamento Articolo 67 – paragrafo 1
1. Se, dopo aver effettuato una valutazione a norma dell'articolo 65, l'autorità di vigilanza del mercato di uno Stato membro ritiene che, sebbene conforme al presente regolamento, il sistema di IA presenti un rischio per la salute o la sicurezza delle persone, per la conformità agli obblighi previsti dal diritto dell'Unione o nazionale a tutela dei diritti fondamentali o per altri aspetti della tutela dell'interesse pubblico, essa chiede all'operatore pertinente di adottare tutte le misure adeguate a far sì che il sistema di IA, all'atto della sua immissione sul mercato o messa in servizio, non presenti più tale rischio o che sia, a seconda dei casi, ritirato dal mercato o richiamato entro un termine ragionevole, proporzionato alla natura delrischio.
1. Se, dopo aver effettuato una valutazione a norma dell'articolo 65, in piena collaborazione con l'autorità nazionale di controllo di cui all'articolo 64, paragrafo 3, l'autorità nazionale di controllo di uno Stato membro ritiene che, sebbene conforme al presente regolamento, il sistema di IA presenti un rischio grave per la salute o la sicurezza delle persone, per la conformità agli obblighi previsti dal diritto dell'Unione o nazionale a tutela dei diritti fondamentali, dell'ambiente, della democrazia, dello Stato di diritto o per altri aspetti della tutela dell'interesse pubblico, essa chiede all'operatore pertinente di adottare tutte le misure adeguate a far sì che il sistema di IA, all'atto della sua immissione sul mercato o messa in servizio, non presenti più tale rischio.
Emendamento 614 Proposta di regolamento Articolo 67 – paragrafo 2
2. Il fornitore o altri operatori pertinenti garantiscono l'adozione di misure correttive nei confronti di tutti i sistemi di IA interessati che hanno messo a disposizione sul mercato in tutta l'Unione entro il termine prescritto dall'autorità di vigilanza del mercato dello Stato membro di cui al paragrafo 1.
2. Il fornitore o altri operatori pertinenti garantiscono l'adozione di misure correttive nei confronti di tutti i sistemi di IA interessati che hanno messo a disposizione sul mercato in tutta l'Unione entro il termine prescritto dall'autorità nazionale di controllo dello Stato membro di cui al paragrafo 1.
Emendamento 615 Proposta di regolamento Articolo 67 – paragrafo 2 bis (nuovo)
2 bis. Qualora il fornitore o altri operatori pertinenti non intraprendano l'azione correttiva di cui al paragrafo 2 e il sistema di IA continui a presentare un rischio di cui al paragrafo 1, l'autorità nazionale di controllo può imporre all'operatore pertinente di ritirare il sistema di IA dal mercato o di richiamarlo entro un termine ragionevole, proporzionato alla natura del rischio.
Emendamento 616 Proposta di regolamento Articolo 67 – paragrafo 3
3. Lo Stato membro informa immediatamente la Commissione e gli altri Stati membri. Tali informazioni comprendono tutti i dettagli disponibili, in particolare i dati necessari all'identificazione del sistema di IA interessato, l'origine e la catena di approvvigionamento del sistema di IA, la natura del rischio connesso, nonché la natura e la durata delle misure nazionali adottate.
3. L'autorità nazionale di controllo informa immediatamente la Commissione, l'ufficio per l'IA e le altre autorità nazionali di controllo. Tali informazioni comprendono tutti i dettagli disponibili, in particolare i dati necessari all'identificazione del sistema di IA interessato, l'origine e la catena di approvvigionamento del sistema di IA, la natura del rischio connesso, nonché la natura e la durata delle misure nazionali adottate.
Emendamento 617 Proposta di regolamento Articolo 67 – paragrafo 4
4. La Commissione avvia senza ritardo consultazioni con gli Stati membri e l'operatore o gli operatori pertinenti e valuta le misure nazionali adottate. In base ai risultati di tale valutazione, la Commissione decide se la misura sia giustificata o meno e propone, ove necessario, misure appropriate.
4. La Commissione, in consultazione con l'ufficio per l'IA, avvia senza ritardo consultazioni con le autorità nazionali di controllo interessate e l'operatore o gli operatori pertinenti e valuta le misure nazionali adottate. In base ai risultati di tale valutazione, l'ufficio per l'IA decide se la misura sia giustificata o meno e propone, ove necessario, misure appropriate.
Emendamento 618 Proposta di regolamento Articolo 67 – paragrafo 5
5. La Commissione trasmette la decisione agli Stati membri.
5. La Commissione, in consultazione con l'ufficio per l'IA, comunica immediatamente la decisione alle autorità nazionali di controllo degli Stati membri interessati e agli operatori pertinenti. Essa comunica inoltre la decisione a tutte le altre autorità nazionali di controllo.
Emendamento 619 Proposta di regolamento Articolo 67 – paragrafo 5 bis (nuovo)
5 bis. La Commissione adotta orientamenti per aiutare le autorità nazionali competenti a individuare e risolvere, ove necessario, problemi analoghi sorti con altri sistemi di IA.
Emendamento 620 Proposta di regolamento Articolo 68 – paragrafo 1 – parte introduttiva
1. Un'autorità di vigilanza del mercato di uno Stato membro che giunga a una delle conclusioni riportate di seguito chiede all'operatore pertinente di porre fine alla non conformità contestata:
1. Un'autorità nazionale di controllo di uno Stato membro che giunga a una delle conclusioni riportate di seguito chiede all'operatore pertinente di porre fine alla non conformità contestata:
Emendamento 621 Proposta di regolamento Articolo 68 – paragrafo 1 – lettera a
a) la marcatura di conformità è stata apposta in violazione dell'articolo 49;
a) la marcatura CE è stata apposta in violazione dell'articolo 49;
Emendamento 622 Proposta di regolamento Articolo 68 – paragrafo 1 – lettera b
b) la marcatura di conformità non è stata apposta;
b) la marcatura CE non è stata apposta;
Emendamento 623 Proposta di regolamento Articolo 68 – paragrafo 1 – lettera e bis (nuova)
e bis) la documentazione tecnica non è disponibile;
Emendamento 624 Proposta di regolamento Articolo 68 – paragrafo 1 – lettera e ter (nuova)
e ter) la registrazione nella banca dati dell'UE non è stata effettuata;
Emendamento 625 Proposta di regolamento Articolo 68 – paragrafo 1 – lettera e quater (nuova)
e quater) se del caso, il rappresentante autorizzato non è stato nominato.
Emendamento 626 Proposta di regolamento Articolo 68 – paragrafo 2
2. Se la non conformità di cui al paragrafo 1 permane, lo Stato membro interessato adotta tutte le misure appropriate per limitare o proibire la messa a disposizione sul mercato del sistema di IA ad alto rischio o garantisce che sia richiamato o ritirato dal mercato.
2. Se la non conformità di cui al paragrafo 1 permane, l'autorità nazionale di controllo dello Stato membro interessato adotta misure appropriate e proporzionate per limitare o proibire la messa a disposizione sul mercato del sistema di IA ad alto rischio o garantisce che sia richiamato o ritirato dal mercato senza ritardo.L'autorità nazionale di controllo dello Stato membro interessato informa immediatamente l'ufficio per l'IA in merito alla non conformità e alle misure adottate.
Emendamento 627 Proposta di regolamento Articolo 68 – Capo 3 bis (new)
3 bis. Mezzi di ricorso
Emendamento 628 Proposta di regolamento Articolo 68 bis (nuovo)
Articolo 68 bis
Diritto di presentare un reclamo all'autorità nazionale di controllo
1. Fatto salvo qualsiasi altro ricorso amministrativo o giurisdizionale, ogni persona fisica o gruppo di persone fisiche ha il diritto di presentare un reclamo a un'autorità nazionale di controllo, in particolare nello Stato membro in cui risiede abitualmente, in cui lavora o in cui si verifica la presunta violazione, se ritiene che il sistema di IA che lo riguarda violi il presente regolamento.
2. L'autorità nazionale di controllo a cui è stato presentato il reclamo informa il ricorrente dello stato o dell'esito del reclamo, compresa la possibilità di un ricorso giurisdizionale ai sensi dell'articolo 78.
Emendamento 629 Proposta di regolamento Articolo 68 ter (nuovo)
Articolo 68 ter
Diritto a un ricorso giurisdizionale effettivo nei confronti dell'autorità nazionale di controllo
1. Fatto salvo ogni altro ricorso amministrativo o extragiudiziale, ogni persona fisica o giuridica ha diritto a un ricorso giurisdizionale effettivo avverso una decisione giuridicamente vincolante dell'autorità nazionale di controllo che la riguarda.
2. Fatto salvo ogni altro ricorso amministrativo o extragiudiziale, ogni persona fisica o giuridica ha diritto a un ricorso giurisdizionale effettivo qualora l'autorità nazionale di controllo competente a norma dell'articolo 59 non tratti un reclamo o non informi l'interessato entro tre mesi in merito allo stato o all'esito del reclamo presentato a norma dell'articolo 68 bis.
3. Le azioni nei confronti dell'autorità nazionale di controllo sono promosse dinanzi alle autorità giurisdizionali dello Stato membro in cui l'autorità nazionale di controllo è stabilita.
4. Qualora sia promossa un'azione avverso una decisione di un'autorità nazionale di controllo che è stata preceduta da un parere o da una decisione della Commissione nell'ambito della procedura di salvaguardia dell'Unione, l'autorità di controllo trasmette tale parere o decisione all'autorità giurisdizionale.
Emendamento 630 Proposta di regolamento Articolo 68 quater (nuovo)
Articolo 68 quater
Diritto alla spiegazione dei singoli processi decisionali
1. Le persone interessate soggette a una decisione presa dall'operatore sulla base dell'output di un sistema di IA ad alto rischio che produca effetti giuridici o che incida in modo analogo e significativo sulle persone stesse in un modo che esse ritengono abbia un impatto negativo sulla salute, la sicurezza, i diritti fondamentali, il benessere socioeconomico o qualsiasi altro dei loro diritti derivanti dagli obblighi stabiliti nel presente regolamento, hanno il diritto di chiedere all'operatore spiegazioni chiare e significative, ai sensi dell'articolo 13, paragrafo 1, sul ruolo del sistema di IA nella procedura decisionale, sui principali parametri della decisione presa e sui relativi dati di input.
2. Il paragrafo 1 non si applica all'uso di sistemi di IA per i quali il diritto dell'Unione o nazionale preveda eccezioni o limitazioni all'obbligo di cui al paragrafo 1 nella misura in cui tali eccezioni o limitazioni rispettino l'essenza dei diritti e delle libertà fondamentali e siano una misura necessaria e proporzionata in una società democratica.
3. Il presente articolo si applica fatti salvi gli articoli 13, 14, 15, e 22 del regolamento 2016/679.
Emendamento 631 Proposta di regolamento Articolo 68 quinquies (nuovo)
Articolo 68 quinquies
Modifica della direttiva (UE) 2020/1828
All'allegato I della direttiva (UE) 2020/1828 del Parlamento europeo e del Consiglio1 bis è aggiunto il punto seguente:
"67 bis) Regolamento xxxx/xxxx del Parlamento europeo e del Consiglio [che stabilisce regole armonizzate sull'intelligenza artificiale (legge sull'intelligenza artificiale) e modifica alcuni atti legislativi dell'Unione (GU L ...)]".
_________________
1 bis Direttiva (UE) 2020/1828 del Parlamento europeo e del Consiglio, del 25 novembre 2020, relativa alle azioni rappresentative a tutela degli interessi collettivi dei consumatori e che abroga la direttiva 2009/22/CE (GU L 409 del 4.12.2020, pag. 1).
Emendamento 632 Proposta di regolamento Articolo 68 sexies (nuovo)
Articolo 68 sexies
Segnalazione delle violazioni e protezione delle persone segnalanti
La direttiva (UE) 2019/1937 del Parlamento europeo e del Consiglio si applica alla segnalazione di violazioni del presente regolamento e alla protezione delle persone che segnalano tali violazioni.
Emendamento 633 Proposta di regolamento Articolo 69 – paragrafo 1
1. La Commissione e gli Stati membri incoraggiano e agevolano l'elaborazione di codici di condotta intesi a promuovere l'applicazione volontaria ai sistemi di IA diversi dai sistemi di IA ad alto rischio dei requisiti di cui al titolo III, capo 2, sulla base di specifiche tecniche e soluzioni che costituiscono mezzi adeguati per garantire la conformità a tali requisiti alla luce della finalità prevista dei sistemi.
1. La Commissione, l'ufficio per l'IA e gli Stati membri incoraggiano e agevolano l'elaborazione di codici di condotta, anche qualora siano elaborati per dimostrare in che modo i sistemi di IA rispettano i principi di cui all'articolo 4 bis e possano quindi essere considerati affidabili, intesi a promuovere l'applicazione volontaria ai sistemi di IA diversi dai sistemi di IA ad alto rischio dei requisiti di cui al titolo III, capo 2, sulla base di specifiche tecniche e soluzioni che costituiscono mezzi adeguati per garantire la conformità a tali requisiti alla luce della finalità prevista dei sistemi.
Emendamento 634 Proposta di regolamento Articolo 69 – paragrafo 2
2. La Commissione e il comitato incoraggiano e agevolano l'elaborazione di codici di condotta intesi a promuovere l'applicazione volontaria ai sistemi di IA dei requisiti relativi, ad esempio, alla sostenibilità ambientale, all'accessibilità per le persone con disabilità, alla partecipazione dei portatori di interessi alla progettazione e allo sviluppo dei sistemi di IA e alla diversità dei gruppi che si occupano dello sviluppo sulla base di obiettivi chiari e indicatori chiave di prestazione volti a misurare il conseguimento di tali obiettivi.
2. I codici di condotta intesi a promuovere il rispetto volontario dei principi alla base dei sistemi di IA affidabili provvedono in particolare a quanto segue:
a) mirano a un livello sufficiente di alfabetizzazione in materia di IA tra il loro personale e altre persone che si occupano del funzionamento e dell'uso dei sistemi di IA al fine di osservare tali principi;
b) valutano in che misura i loro sistemi di IA possano interessare le persone o i gruppi di persone vulnerabili, inclusi i bambini, gli anziani, i migranti e le persone con disabilità o se potrebbero essere messe in atto misure volte a incrementare l'accessibilità o a sostenere in altro modo tali persone o gruppi di persone;
c) prestano attenzione al modo in cui l'uso dei loro sistemi di IA può avere un impatto sulla diversità, sull'equilibrio e sull'uguaglianza di genere o può aumentare tali aspetti;
d) prestano attenzione al fatto che i loro sistemi di IA possano essere utilizzati in un modo che, direttamente o indirettamente, possa rafforzare in modo residuo o significativo i pregiudizi o le disuguaglianze esistenti;
e) riflettono sulla necessità e sull'importanza di disporre di diversi gruppi di sviluppatori al fine di garantire una progettazione inclusiva dei loro sistemi;
f) valutano attentamente se i loro sistemi possono avere un impatto negativo sulla società, in particolare per quanto concerne le istituzioni politiche e i processi democratici;
g) valutano in che modo i sistemi di IA possono contribuire alla sostenibilità ambientale e in particolare agli impegni dell'Unione nell'ambito del Green Deal europeo e della dichiarazione europea sui diritti e i principi digitali;
Emendamento 635 Proposta di regolamento Articolo 69 – paragrafo 3
3. I codici di condotta possono essere elaborati da singoli fornitori di sistemi di IA o da organizzazioni che li rappresentano o da entrambi, anche con la partecipazione degli utenti e di tutti gli altri portatori di interessi e delle loro organizzazioni rappresentative. I codici di condotta possono riguardare uno o più sistemi di IA tenendo conto della similarità della finalità prevista dei sistemi pertinenti.
3. I codici di condotta possono essere elaborati da singoli fornitori di sistemi di IA o da organizzazioni che li rappresentano o da entrambi, anche con la partecipazione degli utenti e di tutti gli altri portatori di interessi, compresi i ricercatori scientifici, e delle loro organizzazioni rappresentative, in particolare i sindacati, e delle organizzazioni dei consumatori. I codici di condotta possono riguardare uno o più sistemi di IA tenendo conto della similarità della finalità prevista dei sistemi pertinenti. I fornitori che adottano codici di condotta designano almeno una persona fisica responsabile del monitoraggio interno.
Emendamento 636 Proposta di regolamento Articolo 69 – paragrafo 4
4. Nell'incoraggiare e agevolare l'elaborazione di codici di condotta, la Commissione e il comitato tengono conto degli interessi e delle esigenze specifici dei fornitori di piccole dimensioni e delle start-up.
4. Nell'incoraggiare e agevolare l'elaborazione di codici di condotta, la Commissione e l'ufficio per l'IA tengono conto degli interessi e delle esigenze specifici delle PMI e delle start-up.
Emendamento 637 Proposta di regolamento Articolo 70 – paragrafo 1 – parte introduttiva
1. Le autorità nazionali competenti e gli organismi notificati che partecipano all'applicazione del presente regolamento rispettano la riservatezza delle informazioni e dei dati ottenuti nello svolgimento dei loro compiti e delle loro attività in modo da tutelare, in particolare:
1. La Commissione, le autorità nazionali competenti e gli organismi notificati, l'ufficio per l'IA e qualsiasi altra persona fisica o giuridica che partecipano all'applicazione del presente regolamento rispettano la riservatezza delle informazioni e dei dati ottenuti nello svolgimento dei loro compiti e delle loro attività in modo da tutelare, in particolare:
Emendamento 638 Proposta di regolamento Articolo 70 – paragrafo 1 – lettera a
a) i diritti di proprietà intellettuale e le informazioni commerciali riservate o i segreti commerciali di una persona fisica o giuridica, compreso il codice sorgente, tranne i casi cui si applica l'articolo 5 della direttiva 2016/943 sulla protezione del know-how riservato e delle informazioni commerciali riservate (segreti commerciali) contro l'acquisizione, l'utilizzo e la divulgazione illeciti;
a) i diritti di proprietà intellettuale e le informazioni commerciali riservate o i segreti commerciali di una persona fisica o giuridica, conformemente alla disposizioni delle direttive 2004/48/CE e 2016/943/CE, compreso il codice sorgente, tranne i casi cui si applica l'articolo 5 della direttiva 2016/943 sulla protezione del know-how riservato e delle informazioni commerciali riservate (segreti commerciali) contro l'acquisizione, l'utilizzo e la divulgazione illeciti;
Emendamento 639 Proposta di regolamento Articolo 70 – paragrafo 1 – lettera b bis (nuova)
b bis) gli interessi di sicurezza pubblica e nazionale;
Emendamento 640 Proposta di regolamento Articolo 70 – paragrafo 1 bis (nuovo)
1 bis. Le autorità coinvolte nell'applicazione del presente regolamento a norma del paragrafo 1 limitano la quantità di dati di cui è richiesta la comunicazione ai dati strettamente necessari per il rischio percepito e la valutazione di tale rischio. Esse cancellano i dati non appena non sono più necessari per lo scopo per il quale sono stati richiesti. Esse dovrebbero porre in essere misure organizzative, tecniche e di cibersicurezza adeguate ed efficaci per proteggere la sicurezza e la riservatezza delle informazioni e dei dati ottenuti nello svolgimento dei loro compiti e delle loro attività.
2. Fatto salvo il paragrafo 1, nel momento in cui i sistemi di IA ad alto rischio di cui all'allegato III, punti 1, 6 e 7, sono utilizzati dalle autorità di contrasto o dalle autorità competenti in materia di immigrazione o di asilo, le informazioni scambiate in via riservata tra le autorità nazionali competenti e tra le autorità nazionali competenti e la Commissione non sono divulgate senza previa consultazione dell'autorità nazionale competente e dell'utente che hanno prodotto tali informazioni, qualora tale divulgazione rischi di compromettere gli interessi pubblici e di sicurezza nazionale.
2. Fatto salvo i paragrafi 1 e 1 bis, nel momento in cui i sistemi di IA ad alto rischio di cui all'allegato III, punti 1, 6 e 7, sono utilizzati dalle autorità di contrasto o dalle autorità competenti in materia di immigrazione o di asilo, le informazioni scambiate in via riservata tra le autorità nazionali competenti e tra le autorità nazionali competenti e la Commissione non sono divulgate senza previa consultazione dell'autorità nazionale competente e dell'operatore che hanno prodotto tali informazioni, qualora tale divulgazione rischi di compromettere la sicurezza pubblica o nazionale.
Emendamento 642 Proposta di regolamento Articolo 70 – paragrafo 3
3. I paragrafi 1 e 2 non pregiudicano i diritti e gli obblighi della Commissione, degli Stati membri e degli organismi notificati in materia di scambio delle informazioni e di diffusione degli avvisi di sicurezza, né gli obblighi delle parti interessate di fornire informazioni a norma del diritto penale degli Stati membri.
3. I paragrafi 1, 1 bis e 2 non pregiudicano i diritti e gli obblighi della Commissione, degli Stati membri e degli organismi notificati in materia di scambio delle informazioni e di diffusione degli avvisi di sicurezza, né gli obblighi delle parti interessate di fornire informazioni a norma del diritto penale degli Stati membri;
Emendamento 643 Proposta di regolamento Articolo 70 – paragrafo 4
4. La Commissione e gli Stati membri possono scambiare, ove necessario, informazioni riservate con le autorità di regolamentazione dei paesi terzi con i quali abbiano concluso accordi di riservatezza, bilaterali o multilaterali, che garantiscano un livello di riservatezza adeguato.
4. La Commissione e gli Stati membri possono scambiare, ove strettamente necessario e conformemente alle pertinenti disposizioni degli accordi internazionali e commerciali, informazioni riservate con le autorità di regolamentazione dei paesi terzi con i quali abbiano concluso accordi di riservatezza, bilaterali o multilaterali, che garantiscano un livello di riservatezza adeguato.
Emendamento 644 Proposta di regolamento Articolo 71 – titolo
Sanzioni
(Non concerne la versione italiana)
Emendamento 645 Proposta di regolamento Articolo 71 – paragrafo 1
1. Nel rispetto dei termini e delle condizioni di cui al presente regolamento, gli Stati membri stabiliscono le regole relative alle sanzioni, comprese le sanzioni amministrative pecuniarie, applicabili in caso di violazione del presente regolamento e adottano tutte le misure necessarie per garantirne un'attuazione corretta ed efficace. Le sanzioni previste sono effettive, proporzionate e dissuasive. Esse tengono conto in particolare degli interessi dei fornitori di piccole dimensioni e delle start-up e della loro sostenibilità economica.
1. Nel rispetto dei termini e delle condizioni di cui al presente regolamento, gli Stati membri stabiliscono le regole relative alle sanzioni applicabili in caso di violazione del presente regolamento da qualsiasi operatore e adottano tutte le misure necessarie per garantirne un'attuazione corretta ed efficace e l'allineamento con gli orientamenti emanati dalla Commissione e dall'ufficio per l'IA a norma dell'articolo 82 ter. Le sanzioni previste sono effettive, proporzionate e dissuasive. Esse tengono conto degli interessi delle PMI e delle start-up e della loro sostenibilità economica.
Emendamento 646 Proposta di regolamento Articolo 71 – paragrafo 2
2. Gli Stati membri notificano tali regole e misure alla Commissione e provvedono poi a dare immediata notifica delle eventuali modifiche successive.
2. Entro … [sei mesi dalla data di entrata in vigore del presente regolamento], gli Stati membri notificano tali regole e misure alla Commissione e all'ufficio e provvedono poi a dare immediata notifica delle eventuali modifiche successive.
Emendamento 647 Proposta di regolamento Articolo 71 – paragrafo 3 – parte introduttiva
3. Le seguenti violazioni sono soggette a sanzioni amministrative pecuniarie fino a 30 000 000 di EUR o, se l'autore del reato è una società, fino al 6 % del fatturato mondiale totale annuo dell'esercizio precedente, se superiore:
3. L'inosservanza del divieto delle pratiche di intelligenza artificiale di cui all'articolo 5 è soggetta a sanzioni amministrative pecuniarie fino a 40 000 000 di EUR o, se l'autore del reato è una società, fino al 7 % del fatturato mondiale totale annuo dell'esercizio precedente, se superiore:
Emendamento 648 Proposta di regolamento Articolo 71 – paragrafo 3 – lettera a
a) inosservanza del divieto delle pratiche di intelligenza artificiale di cui all'articolo 5;
soppresso
Emendamento 649 Proposta di regolamento Articolo 71 – paragrafo 3 – lettera b
b) non conformità del sistema di IA ai requisiti di cui all'articolo 10.
soppresso
Emendamento 650 Proposta di regolamento Articolo 71 – paragrafo 3 bis (nuovo)
3 bis. La non conformità del sistema di IA ai requisiti di cui all'articolo 10 e all'articolo 13, è soggetta a sanzioni amministrative pecuniarie fino a 20 000 000 di EUR o, se l'autore del reato è una società, fino al 4 % del fatturato mondiale totale annuo dell'esercizio precedente, se superiore.
Emendamento 651 Proposta di regolamento Articolo 71 – paragrafo 4
4. La non conformità del sistema di IA ai requisiti o agli obblighi previsti dal presente regolamento, diversi da quelli di cui agli articoli 5 e 10, è soggetta a sanzioni amministrative pecuniarie fino a 20 000 000 di EUR o, se l'autore del reato è una società, fino al 4 % del fatturato mondiale totale annuo dell'esercizio precedente, se superiore.
4. La non conformità del sistema di IA o del modello di base ai requisiti o agli obblighi previsti dal presente regolamento, diversi da quelli di cui agli articoli5, 10 e 13, è soggetta a sanzioni amministrative pecuniarie fino a 10 000 000 di EUR o, se l'autore del reato è una società, fino al 2 % del fatturato mondiale totale annuo dell'esercizio precedente, se superiore;
Emendamento 652 Proposta di regolamento Articolo 71 – paragrafo 5
5. La fornitura di informazioni inesatte, incomplete o fuorvianti agli organismi notificati e alle autorità nazionali competenti è soggetta a sanzioni amministrative pecuniarie fino a 10 000 000 di EUR o, se l'autore del reato è una società, fino al 2 % del fatturato mondiale totale annuo dell'esercizio precedente, se superiore.
5. La fornitura di informazioni inesatte, incomplete o fuorvianti agli organismi notificati e alle autorità nazionali competenti è soggetta a sanzioni amministrative pecuniarie fino a 5 000 000 di EUR o, se l'autore del reato è una società, fino all'1 % del fatturato mondiale totale annuo dell'esercizio precedente, se superiore.
Emendamento 653 Proposta di regolamento Articolo 71 – paragrafo 6 – parte introduttiva
6. Nel decidere l'importo della sanzione amministrativa pecuniaria in ogni singolo caso, si tiene conto di tutte le circostanze pertinenti della situazione specifica e si tiene quanto segue in debita considerazione:
6. Le sanzioni possono essere inflitte in aggiunta o in sostituzione di misure non pecuniarie quali ordini o avvertimenti. Nel decidere l'importo della sanzione amministrativa pecuniaria in ogni singolo caso, si tiene conto di tutte le circostanze pertinenti della situazione specifica e si tiene quanto segue in debita considerazione;
Emendamento 654 Proposta di regolamento Articolo 71 – paragrafo 6 – lettera a
a) la natura, la gravità e la durata della violazione e delle sue conseguenze;
a) la natura, la gravità e la durata della violazione e delle sue conseguenze, tenendo in considerazione la finalità del sistema di IA, nonché, ove opportuno, il numero di persone interessate e il livello del danno da esse subito;
Emendamento 655 Proposta di regolamento Articolo 71 – paragrafo 6 – lettera b
b) se altre autorità di vigilanza del mercato hanno già applicato sanzioni amministrative pecuniarie allo stesso operatore per la stessa violazione;
b) se altre autorità di controllo nazionali di uno o più Stati membri hanno già applicato sanzioni amministrative pecuniarie allo stesso operatore per la stessa violazione;
Emendamento 656 Proposta di regolamento Articolo 71 – paragrafo 6 – lettera c
c) le dimensioni e la quota di mercato dell'operatore che ha commesso la violazione.
c) le dimensioni e il fatturato mondiale dell'operatore che ha commesso la violazione.
Emendamento 657 Proposta di regolamento Articolo 71 – paragrafo 6 – lettera c bis (nuova)
c bis) l'eventuale azione intrapresa dall'operatore per attenuare il pregiudizio o danno subito dalle persone interessate;
Emendamento 658 Proposta di regolamento Articolo 71 – paragrafo 6 – lettera c ter (nuova)
c ter) il carattere doloso o colposo della violazione;
Emendamento 659 Proposta di regolamento Articolo 71 – paragrafo 6 – lettera c quater (nuova)
c quater) il grado di cooperazione con le autorità nazionali competenti al fine di porre rimedio alla violazione e attenuarne i possibili effetti negativi;
Emendamento 660 Proposta di regolamento Articolo 71 – paragrafo 6 – lettera c quinquies (nuova)
c quinquies) il grado di responsabilità dell'operatore tenendo conto delle misure tecniche e organizzative attuate;
Emendamento 661 Proposta di regolamento Articolo 71 – paragrafo 6 – lettera c sexies (nuova)
c sexies) il modo in cui le autorità nazionali competenti sono venute a conoscenza della violazione, in particolare se e in che misura è stata notificata dall'operatore;
Emendamento 662 Proposta di regolamento Articolo 71 – paragrafo 6 – lettera c septies (nuova)
c septies) il rispetto dei codici di condotta o dei meccanismi di certificazione approvati;
Emendamento 663 Proposta di regolamento Articolo 71 – paragrafo 6 – lettera c octies (nuova)
c octies) eventuali violazioni pertinenti commesse in precedenza dall'operatore;
Emendamento 664 Proposta di regolamento Articolo 71 – paragrafo 6 – lettera c nonies (nuova)
c nonies) eventuali altri fattori aggravanti o attenuanti applicabili alle circostanze del caso.
Emendamento 665 Proposta di regolamento Articolo 71 – paragrafo 7
7. Ciascuno Stato membro può prevedere regole che dispongano se e in quale misura possono essere inflitte sanzioni amministrative pecuniarie ad autorità pubbliche e organismi pubblici istituiti in tale Stato membro.
7. Ciascuno Stato membro prevede regole che dispongano l'applicazione di sanzioni amministrative pecuniarie ad autorità pubbliche e organismi pubblici istituiti in tale Stato membro.
Emendamento 666 Proposta di regolamento Articolo 71 – paragrafo 8 bis (nuovo)
8 bis. Le sanzioni di cui al presente articolo, nonché le relative spese processuali e le richieste di indennizzo, non possono essere oggetto di clausole contrattuali o di altre forme di accordi di ripartizione degli oneri tra fornitori e distributori, importatori, operatori o altri terzi;
Emendamento 667 Proposta di regolamento Articolo 71 – paragrafo 8 ter (nuovo)
8 ter. Le autorità nazionali di controllo riferiscono annualmente all'ufficio per l'IA in merito alle ammende da essi inflitte durante l'anno a norma del presente articolo;
8 quater. L'esercizio da parte delle autorità competenti dei poteri attribuiti loro dal presente articolo dovrebbe essere soggetto a garanzie procedurali adeguate in conformità del diritto dell'Unione e del diritto nazionale, inclusi il ricorso giurisdizionale e il giusto processo;
Emendamento 669 Proposta di regolamento Articolo 72 – paragrafo 1 – lettera a
a) la natura, la gravità e la durata della violazione e delle sue conseguenze;
a) la natura, la gravità e la durata della violazione e delle sue conseguenze, tenendo in considerazione la finalità del sistema di IA interessato, il numero di persone interessate e il livello del danno da esse subito, nonché eventuali precedenti violazioni pertinenti;
Emendamento 670 Proposta di regolamento Articolo 72 – paragrafo 1 – lettera a bis (nuova)
a bis) qualsiasi azione intrapresa dall'istituzione, dall'agenzia o dall'organismo dell'Unione per attenuare il danno subito dalle persone interessate;
Emendamento 671 Proposta di regolamento Articolo 72 – paragrafo 1 – lettera a ter (nuova)
a ter) il grado di responsabilità dell'istituzione, dell'agenzia o dell'organismo dell'Unione, tenendo conto delle misure tecniche e organizzative da essi attuate;
Emendamento 672 Proposta di regolamento Articolo 72 – paragrafo 1 – lettera b
b) la cooperazione con il Garante europeo della protezione dei dati al fine di porre rimedio alla violazione e attenuarne i possibili effetti negativi, compreso il rispetto delle misure precedentemente disposte dal Garante europeo della protezione dei dati nei confronti dell'istituzione, dell'agenzia o dell'organismo dell'Unione in relazione allo stesso tema;
b) il grado di cooperazione con il Garante europeo della protezione dei dati al fine di porre rimedio alla violazione e attenuarne i possibili effetti negativi, compreso il rispetto delle misure precedentemente disposte dal Garante europeo della protezione dei dati nei confronti dell'istituzione, dell'agenzia o dell'organismo dell'Unione in relazione allo stesso tema;
Emendamento 673 Proposta di regolamento Articolo 72 – paragrafo 1 – lettera c bis (nuova)
c bis) la maniera in cui il Garante europeo della protezione dei dati ha preso conoscenza della violazione, in particolare se e in che misura l'istituzione o l'organismo dell'Unione ha notificato la violazione;
Emendamento 674 Proposta di regolamento Articolo 72 – paragrafo 1 – lettera c ter (nuova)
c ter) il bilancio annuale dell'organismo;
Emendamento 675 Proposta di regolamento Articolo 72 – paragrafo 2 – parte introduttiva
2. Le seguenti violazioni sono soggette a sanzioni amministrative pecuniarie fino a 500 000 EUR:
2. L'inosservanza del divieto delle pratiche di intelligenza artificiale di cui all'articolo 5 è soggetta a sanzioni amministrative pecuniarie fino a 1 500 000 EUR.
Emendamento 676 Proposta di regolamento Articolo 72 – paragrafo 2 – lettera a
a) inosservanza del divieto delle pratiche di intelligenza artificiale di cui all'articolo 5;
soppresso
Emendamento 677 Proposta di regolamento Articolo 72 – paragrafo 2 bis (nuovo)
2 bis. La non conformità del sistema di IA ai requisiti di cui all'articolo 10 è soggetta a sanzioni amministrative pecuniarie fino a 1 000 000 EUR.
Emendamento 678 Proposta di regolamento Articolo 72 – paragrafo 3
3. La non conformità del sistema di IA ai requisiti o agli obblighi previsti dal presente regolamento, diversi da quelli di cui agli articoli 5 e 10, è soggetta a sanzioni amministrative pecuniarie fino a 250 000 EUR.
3. La non conformità del sistema di IA ai requisiti o agli obblighi previsti dal presente regolamento, diversi da quelli di cui agli articoli 5 e 10, è soggetta a sanzioni amministrative pecuniarie fino a 750 000 EUR.
Emendamento 679 Proposta di regolamento Articolo 72 – paragrafo 6
6. I fondi raccolti mediante l'imposizione di sanzioni pecuniarie in forza del presente articolo entrano nel bilancio generale dell'Unione.
6. I fondi raccolti mediante l'imposizione di sanzioni pecuniarie in forza del presente articolo contribuiscono al bilancio generale dell'Unione. Le sanzioni pecuniarie non pregiudicano l'effettivo funzionamento dell'istituzione, dell'organismo o dell'agenzia dell'Unione sanzionata.
Emendamento 680 Proposta di regolamento Articolo 72 – paragrafo 6 bis (nuovo)
6 bis. Il garante europeo della protezione dei dati notifica annualmente all'ufficio per l'IA le sanzioni pecuniarie da esso imposte a norma del presente articolo.
Emendamento 681 Proposta di regolamento Articolo 73 – paragrafo 2
2. La delega di potere di cui all'articolo 4, all'articolo 7, paragrafo 1, all'articolo 11, paragrafo 3, all'articolo 43, paragrafi 5 e 6, e all'articolo 48, paragrafo 5, è conferita alla Commissione per un periodo indeterminato a decorrere dal [data di entrata in vigore del presente regolamento].
2. Il potere di adottare gli atti delegati di cui all'articolo 4, all'articolo 7, paragrafo 1, all'articolo 11, paragrafo 3, all'articolo 43, paragrafi 5 e 6, e all'articolo 48, paragrafo 5, è conferito alla Commissione per un periodo di cinque anni a decorrere dal ... [data di entrata in vigore del presente regolamento]. La Commissione elabora una relazione sulla delega di potere al più tardi nove mesi prima della scadenza del periodo di cinque anni. La delega di potere è tacitamente prorogata per periodi di identica durata, a meno che il Parlamento europeo o il Consiglio non si oppongano a tale proroga al più tardi tre mesi prima del termine di ciascun periodo.
Emendamento 682 Proposta di regolamento Articolo 73 – paragrafo 3 bis (nuovo)
3 bis. Prima dell'adozione di un atto delegato, la Commissione consulta le istituzioni pertinenti, l'ufficio, il forum consultivo e altri portatori d'interessi pertinenti a norma dei principi stabiliti nell'accordo interistituzionale "Legiferare meglio" del 13 aprile 2016.
Una volta deciso di elaborare un atto delegato, la Commissione ne dà notifica al Parlamento europeo. La notifica non impone alla Commissione l'obbligo di adottare tale atto.
Emendamento 683 Proposta di regolamento Articolo 81 bis (nuovo)
Articolo 81 bis
Modifica del regolamento (UE) 2019/1020
Il regolamento (UE) 2019/1020 è così modificato:
all'articolo 14, paragrafo 4, è aggiunto il seguente comma:
"l) il potere di attuare i poteri previsti dal presente articolo a distanza, ove applicabile;"
Emendamento 684 Proposta di regolamento Articolo 82 bis (nuovo)
Articolo 82 bis
Legiferare meglio
Nel tenere conto dei requisiti del presente regolamento ai sensi delle modifiche di cui agli articoli 75, 76, 77, 78, 79, 80, 81 e 82, la Commissione effettua un'analisi e consulta i pertinenti portatori di interessi per stabilire le potenziali lacune e sovrapposizioni tra la legislazione settoriale esistente e le disposizioni del presente regolamento.
Emendamento 685 Proposta di regolamento Articolo 82 ter (nuovo)
Articolo 82 ter
Orientamenti della Commissione riguardo all'attuazione del presente regolamento
1. La Commissione elabora, in consultazione con l'ufficio per l'IA, orientamenti sull'attuazione pratica del presente regolamento, in particolare per quanto riguarda:
a) l'applicazione dei requisiti di cui agli articoli da 8 a 15 e agli articoli da 28 a 28 ter;
b) le pratiche vietate di cui all'articolo 5;
c) l'attuazione pratica delle disposizioni relative alla modifica sostanziale;
d) le circostanze pratiche in cui l'output di un sistema di IA di cui all'allegato III comporterebbe un rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche di cui all'articolo 6, paragrafo 2, compresi esempi in relazione ai sistemi di IA ad alto rischio di cui all'allegato III;
e) l'attuazione pratica degli obblighi di trasparenza di cui all'articolo 52;
f) lo sviluppo di codici di condotta di cui all'articolo 69;
g) la relazione del presente regolamento con altre norme pertinenti dell'Unione, anche per quanto riguarda la coerenza della loro applicazione;
h) l'attuazione pratica dell'articolo 12, dell'articolo 28 ter sull'impatto ambientale dei modelli di base e dell'allegato IV, punto 3, lettera b), in particolare i metodi di misurazione e di registrazione per consentire il calcolo e la comunicazione dell'impatto ambientale dei sistemi per conformarsi agli obblighi previsti dal presente regolamento, compresa l'impronta di carbonio e l'efficienza energetica, tenendo conto dei metodi più avanzati e delle economie di scala.
Quando pubblica tali orientamenti, la Commissione presta particolare attenzione alle esigenze delle PMI, comprese le start-up, delle autorità pubbliche locali e dei settori maggiormente interessati dal presente regolamento.
2. Su richiesta degli Stati membri o dell'ufficio per l'IA, o di propria iniziativa, la Commissione aggiorna gli orientamenti già adottati quando lo ritiene necessario.
1. Il presente regolamento non si applica ai sistemi di IA che sono componenti di sistemi IT su larga scala istituiti dagli atti giuridici elencati nell'allegato IX che sono stati immessi sul mercato o messi in servizio prima del [12 mesi dopo la data di applicazione del presente regolamento di cui all'articolo 85, paragrafo 2], a meno che la sostituzione o la modifica di tali atti giuridici non comporti una modifica significativa della progettazione o della finalità prevista del sistema di IA o dei sistemi di IA interessati.
1. Gli operatori di sistemi di IA che sono componenti di sistemi IT su larga scala istituiti dagli atti giuridici elencati nell'allegato IX che sono stati immessi sul mercato o messi in servizio prima del [data di entrata in vigore del presente regolamento] adottano le misure necessarie per conformarsi ai requisiti stabiliti dal presente regolamento entro ... [4 anni dopo la data di entrata in vigore del presente regolamento].
Si tiene conto dei requisiti di cui al presente regolamento, ove applicabile, nella valutazione di ciascun sistema IT su larga scala istituito dagli atti giuridici elencati nell'allegato IX da effettuare come previsto in tali atti.
Si tiene conto dei requisiti di cui al presente regolamento nella valutazione di ciascun sistema IT su larga scala istituito dagli atti giuridici elencati nell'allegatoIX da effettuare come previsto in tali atti e ogniqualvolta tali atti giuridici sono sostituiti o modificati.
Emendamento 688 Proposta di regolamento Articolo 83 – paragrafo 2
2. Il presente regolamento si applica ai sistemi di IA ad alto rischio, diversi da quelli di cui al paragrafo 1, che sono stati immessi sul mercato o messi in servizio prima del [data di applicazione del presente regolamento di cui all'articolo 85, paragrafo 2], solo se, a decorrere da tale data, tali sistemi sono soggetti a modifiche significative della loro progettazione o finalità prevista.
2. Il presente regolamento si applica agli operatori di sistemi di IA ad alto rischio, diversi da quelli di cui al paragrafo1, che sono stati immessi sul mercato o messi in servizio prima del [data di applicazione del presente regolamento di cui all'articolo85, paragrafo2], solo se, a decorrere da tale data, tali sistemi sono soggetti a modifiche sostanziali a norma di quanto stabilito all'articolo 3, punto 23. Nel caso di sistemi di IA ad alto rischio destinati a essere utilizzati dalle autorità pubbliche, i fornitori e gli operatori di tali sistemi adottano le misure necessarie per conformarsi ai requisiti del presente regolamento [due anni dopo la data di entrata in vigore del presente regolamento].
Emendamento 689 Proposta di regolamento Articolo 84 – paragrafo 1
1. La Commissione valuta la necessità di modificare l'elenco di cui all'allegato III una volta l'anno dopo l'entrata in vigore del presente regolamento.
1. Dopo aver consultato l'ufficio per l'IA, la Commissione valuta la necessità di modificare l'elenco di cui all'allegatoIII, compreso l'ampliamento di rubriche settoriali esistenti o l'aggiunta di nuove rubriche settoriali in tale allegato, dell'elenco di pratiche di IA vietate di cui all'articolo 5 e dell'elenco di sistemi di IA che richiedono ulteriori misure di trasparenza di cui all'articolo 52, una volta l'anno dopo l'entrata in vigore del presente regolamento e dopo una raccomandazione dell'ufficio.
La Commissione trasmette gli esiti della valutazione al Parlamento europeo e al Consiglio.
Emendamento 690 Proposta di regolamento Articolo 84 – paragrafo 2
2. Entro [tre anni dalla data di applicazione del presente regolamento di cui all'articolo 85, paragrafo 2] e successivamente ogni quattro anni, la Commissione trasmette al Parlamento europeo e al Consiglio una relazione di valutazione e sul riesame del presente regolamento. Le relazioni sono rese pubbliche.
2. Entro ... [due anni dalla data di applicazione del presente regolamento di cui all'articolo 85, paragrafo 2] e successivamente ogni due anni, la Commissione, unitamente all'ufficio per l'IA, trasmette al Parlamento europeo e al Consiglio una relazione di valutazione e sul riesame del presente regolamento. Le relazioni sono rese pubbliche.
Emendamento 691 Proposta di regolamento Articolo 84 – paragrafo 3 – lettera a
a) lo stato delle risorse finanziarie e umane necessarie alle autorità nazionali competenti per lo svolgimento efficace dei compiti loro assegnati a norma del presente regolamento;
a) lo stato delle risorse finanziarie, tecniche e umane necessarie alle autorità nazionali competenti per lo svolgimento efficace dei compiti loro assegnati a norma del presente regolamento;
Emendamento 692 Proposta di regolamento Articolo 84 – paragrafo 3 – lettera b bis (nuova)
b bis) lo stato di elaborazione di norme armonizzate e specifiche comuni per l'intelligenza artificiale;
Emendamento 693 Proposta di regolamento Articolo 84 – paragrafo 3 – lettera b ter (nuova)
b ter) il livello di investimenti nella ricerca, sviluppo e applicazione dei sistemi di IA in tutta l'Unione;
Emendamento 694 Proposta di regolamento Articolo 84 – paragrafo 3 – lettera b quater (nuova)
b quater) la competitività del settore di IA aggregato europeo rispetto ai settori di IA di paesi terzi;
Emendamento 695 Proposta di regolamento Articolo 84 – paragrafo 3 – lettera b quinquies (nuova)
b quinquies) l'impatto del regolamento per quanto riguarda l'uso delle risorse e dell'energia, nonché la produzione di rifiuti e altri impatti ambientali;
Emendamento 696 Proposta di regolamento Articolo 84 – paragrafo 3 – lettera b sexies (nuova)
b sexies) l'attuazione del piano coordinato sull'IA, tenendo conto del diverso livello di progresso tra gli Stati membri e individuando gli ostacoli esistenti all'innovazione nell'IA;
Emendamento 697 Proposta di regolamento Articolo 84 – paragrafo 3 – lettera b septies (nuova)
b septies) l'aggiornamento dei requisiti specifici relativi alla sostenibilità dei sistemi di IA e dei modelli di base, sulla base dei requisiti in materia di comunicazione e documentazione di cui all'allegato IV e all'articolo 28 ter;
Emendamento 698 Proposta di regolamento Articolo 84 – paragrafo 3 – lettera b octies (nuova)
b octies) il regime giuridico che disciplina i modelli di base;
Emendamento 699 Proposta di regolamento Articolo 84 – paragrafo 3 – lettera b nonies (nuova)
b nonies) l'elenco delle clausole contrattuali inique di cui all'articolo 28 bis, tenendo conto, se necessario, delle nuove pratiche commerciali;
Emendamento 700 Proposta di regolamento Articolo 84 – paragrafo 3 bis (nuovo)
3 bis. Entro ... [due anni dopo la data di entrata in applicazione del presente regolamento di cui all'articolo 85, paragrafo 2], la Commissione valuta il funzionamento dell'ufficio per l'IA, se all'ufficio siano stati conferiti poteri e competenze adeguati per svolgere i suoi compiti e se sia pertinente e necessario per la corretta attuazione e applicazione del presente regolamento potenziare l'Ufficio e le sue competenze di esecuzione e aumentare le sue risorse. La Commissione trasmette tale relazione di valutazione al Parlamento europeo e al Consiglio.
Emendamento 701 Proposta di regolamento Articolo 84 – paragrafo 4
4. Entro [tre anni dalla data di applicazione del presente regolamento di cui all'articolo 85, paragrafo 2] e successivamente ogni quattro anni, la Commissione valuta l'impatto e l'efficacia dei codici di condotta per la promozione dell'applicazione dei requisiti di cui al titolo III, capo 2, ed eventualmente di altri requisiti supplementari per i sistemi di IA diversi dai sistemi di IA ad alto rischio.
4. Entro ... [1 anno dalla data di applicazione del presente regolamento di cui all'articolo 85, paragrafo 2] e successivamente ogni due anni, la Commissione valuta l'impatto e l'efficacia dei codici di condotta per la promozione dell'applicazione dei requisiti di cui al titolo III, capo 2, ed eventualmente di altri requisiti supplementari per i sistemi di IA diversi dai sistemi di IA ad alto rischio;
Emendamento 702 Proposta di regolamento Articolo 84 – paragrafo 5
5. Ai fini dei paragrafi da 1 a 4, il comitato, gli Stati membri e le autorità nazionali competenti forniscono alla Commissione informazioni su sua richiesta.
5. Ai fini dei paragrafi da 1 a 4, l'ufficio per l'IA, gli Stati membri e le autorità nazionali competenti forniscono senza indebito ritardo alla Commissione informazioni su sua richiesta.
Emendamento 703 Proposta di regolamento Articolo 84 – paragrafo 6
6. Nello svolgere le valutazioni e i riesami di cui ai paragrafi da 1 a 4, la Commissione tiene conto delle posizioni e delle conclusioni del comitato, del Parlamento europeo, del Consiglio, nonché di altri organismi o fonti pertinenti.
6. Nello svolgere le valutazioni e i riesami di cui ai paragrafi da 1 a 4, la Commissione tiene conto delle posizioni e delle conclusioni dell'ufficio per l'IA, del Parlamento europeo, del Consiglio, nonché di altri organismi o fonti pertinenti e consulta tutti i pertinenti portatori di interessi. Il risultato di tale consultazione è allegato alla relazione;
Emendamento 704 Proposta di regolamento Articolo 84 – paragrafo 7
7. Se necessario, la Commissione presenta opportune proposte di modifica del presente regolamento tenendo conto, in particolare, degli sviluppi delle tecnologie e alla luce dei progressi della società dell'informazione.
7. Se necessario, la Commissione presenta opportune proposte di modifica del presente regolamento tenendo conto, in particolare, degli sviluppi delle tecnologie, dell'effetto dei sistemi di IA sulla salute e la sicurezza, sui diritti fondamentali, sull'ambiente, sull'uguaglianza, sull'accessibilità delle persone con disabilità, sulla democrazia e sullo Stato di diritto e alla luce dei progressi della società dell'informazione.
Emendamento 705 Proposta di regolamento Articolo 84 – paragrafo 7 bis (nuovo)
7 bis. Per orientare le valutazioni e i riesami di cui ai paragrafi da 1 a 4 del presente articolo, l'ufficio si impegna a sviluppare una metodologia obiettiva e partecipativa per la valutazione del livello di rischio basata sui criteri definiti negli articoli pertinenti e l'inclusione di nuovi sistemi nell'elenco di cui all'allegato III, compreso l'ampliamento di rubriche settoriali esistenti o l'aggiunta di nuove rubriche settoriali in tale allegato, nell'elenco delle pratiche vietate di cui all'articolo 5 e nell'elenco dei sistemi di IA che richiedono ulteriori misure di trasparenza a norma dell'articolo 52.
Emendamento 706 Proposta di regolamento Articolo 84 – paragrafo 7 ter (nuovo)
7 ter. Eventuali modifiche al presente regolamento ai sensi del paragrafo 7 del presente articolo, o i pertinenti atti delegati o di esecuzione futuri, che riguardano la legislazione settoriale di cui all'allegato II, sezione B, tengono conto delle specificità normative di ciascun settore e dei vigenti meccanismi di governance, valutazione della conformità e applicazione e delle autorità da essi stabilite.
7 quater. Entro ... [cinque anni dalla data di applicazione del presente regolamento], la Commissione effettua una valutazione dell'applicazione del presente regolamento e presenta una relazione al Parlamento europeo, al Consiglio e al Comitato economico e sociale europeo, tenendo conto dei primi anni di applicazione del regolamento. Sulla base dei risultati, la relazione è accompagnata, se del caso, da una proposta di modifica del regolamento in relazione alla modalità di applicazione e alla necessità di un'agenzia dell'Unione che ponga rimedio alle carenze individuate.
Emendamento 708 Proposta di regolamento Allegato I
TECNICHE E APPROCCI DI INTELLIGENZA ARTIFICIALE di cui all'articolo 3, punto 1)
soppresso
a) Approcci di apprendimento automatico, compresi l'apprendimento supervisionato, l'apprendimento non supervisionato e l'apprendimento per rinforzo, con utilizzo di un'ampia gamma di metodi, tra cui l'apprendimento profondo (deep learning);
b) approcci basati sulla logica e approcci basati sulla conoscenza, compresi la rappresentazione della conoscenza, la programmazione induttiva (logica), le basi di conoscenze, i motori inferenziali e deduttivi, il ragionamento (simbolico) e i sistemi esperti;
c) approcci statistici, stima bayesiana, metodi di ricerca e ottimizzazione.
Emendamento 709 Proposta di regolamento Allegato III – comma 1 – parte introduttiva
I sistemi di IA ad alto rischio a norma dell'articolo 6, paragrafo 2, sono i sistemi di IA elencati in uno dei settori indicati di seguito.
I sistemi di IAdi cui ai punti da 1 a 8 bis rappresentano casi d'uso critici e sono tutti considerati sistemi di IA ad alto rischio a norma dell'articolo6, paragrafo2, a condizione che soddisfino i criteri di cui a tale articolo:
Emendamento 710 Proposta di regolamento Allegato III – punto 1 – parte introduttiva
1. Identificazione e categorizzazione biometrica delle persone fisiche:
1. Sistemi biometrici e basati su elementi biometrici:
Emendamento 711 Proposta di regolamento Allegato III – punto 1 – lettera a
a) i sistemi di IA destinati a essere utilizzati per l'identificazione biometrica remota "in tempo reale" e "a posteriori" delle persone fisiche.
a) i sistemi di IA destinati a essere utilizzati per l'identificazione biometrica delle persone fisiche, ad eccezione di quelli di cui all'articolo 5.
Emendamento 712 Proposta di regolamento Allegato III – punto 1 – lettera a bis (nuova)
a bis) I sistemi di IA destinati a essere utilizzati per trarre conclusioni sulle caratteristiche personali delle persone fisiche sulla base di dati biometrici o basati su elementi biometrici, compresi i sistemi di riconoscimento delle emozioni, ad eccezione di quelli di cui all'articolo 5;
Il punto 1 non comprende i sistemi di IA destinati a essere utilizzati per le verifiche biometriche il cui unico scopo è confermare che una determinata persona fisica è la persona che dichiara di essere.
Emendamento 713 Proposta di regolamento Allegato III – punto 12– lettera a
a) i sistemi di IA destinati a essere utilizzati come componenti di sicurezza nella gestione del traffico stradale e nella fornitura di acqua, gas, riscaldamento ed elettricità.
a) i sistemi di IA destinati a essere utilizzati come componenti di sicurezza nella gestione del traffico stradale, ferroviario e aereo, a meno che non siano disciplinati da normative di armonizzazione o di settore.
Emendamento 714 Proposta di regolamento Allegato III – punto 2 – lettera a bis (nuova)
a bis) i sistemi di IA destinati a essere utilizzati come componenti di sicurezza nella gestione e nel funzionamento della fornitura di acqua, gas, riscaldamento, energia elettrica e infrastrutture digitali critiche;
Emendamento 715 Proposta di regolamento Allegato III – punto 3– lettera a
a) i sistemi di IA destinati a essere utilizzati al fine di determinare l'accesso o l'assegnazione di persone fisiche agli istituti di istruzione e formazione professionale;
a) i sistemi di IA destinati a essere utilizzati al fine di determinare l'accesso o influenzare materialmente le decisioni sull'ammissione o l'assegnazione di persone fisiche agli istituti di istruzione e formazione professionale;
Emendamento 716 Proposta di regolamento Allegato III – punto 3– lettera b
b) i sistemi di IA destinati a essere utilizzati per valutare gli studenti negli istituti di istruzione e formazione professionale e per valutare i partecipanti alle prove solitamente richieste per l'ammissione agli istituti di istruzione.
b) i sistemi di IA destinati a essere utilizzati per valutare gli studenti negli istituti di istruzione e formazione professionale e per valutare i partecipanti alle prove solitamente richieste per l'ammissione a tali istituti.
Emendamento 717 Proposta di regolamento Allegato III – punto 3 – lettera b bis (nuova)
b bis) i sistemi di IA destinati a essere utilizzati per valutare il livello di istruzione adeguato per un individuo e a influenzare materialmente il livello di istruzione e formazione professionale che tale individuo riceverà o al quale potrà accedere;
Emendamento 718 Proposta di regolamento Allegato III – punto 3 – lettera b ter (nuova)
b ter) i sistemi di IA destinati a essere utilizzati per monitorare e rilevare comportamenti vietati da parte degli studenti durante le prove nel contesto/all'interno degli istituti di istruzione e formazione professionale;
Emendamento 719 Proposta di regolamento Allegato III – punto 4– lettera a
a) i sistemi di IA destinati a essere utilizzati per l'assunzione o la selezione di persone fisiche, in particolare per pubblicizzare i posti vacanti, vagliare o filtrare le candidature, valutare i candidati nel corso di colloqui o prove;
a) i sistemi di IA destinati a essere utilizzati per l'assunzione o la selezione di persone fisiche, in particolare per inserire annunci di lavoro mirati, vagliare o filtrare le candidature, valutare i candidati nel corso di colloqui o prove;
Emendamento 720 Proposta di regolamento Allegato III – punto 4– lettera b
b) l'IA destinata a essere utilizzata per adottare decisioni in materia di promozione e cessazione dei rapporti contrattuali di lavoro, per l'assegnazione dei compiti e per il monitoraggio e la valutazione delle prestazioni e del comportamento delle persone nell'ambito di tali rapporti di lavoro.
b) i sistemi di IA destinati a essere utilizzati per adottare decisioni o influenzare materialmente le decisioni riguardanti l'avvio, la promozione e la cessazione dei rapporti contrattuali di lavoro, l'assegnazione dei compiti sulla base dei comportamenti individuali, dei tratti o delle caratteristiche personali, o il monitoraggio e la valutazione delle prestazioni e del comportamento delle persone nell'ambito di tali rapporti di lavoro;
Emendamento 721 Proposta di regolamento Allegato III – punto 5– lettera a
a) i sistemi di IA destinati a essere utilizzati dalle autorità pubbliche o per conto di autorità pubbliche per valutare l'ammissibilità delle persone fisiche alle prestazioni e ai servizi di assistenza pubblica, nonché per concedere, ridurre, revocare o recuperare tali prestazioni e servizi;
a) i sistemi di IA destinati a essere utilizzati dalle autorità pubbliche o per conto di autorità pubbliche per valutare l'ammissibilità delle persone fisiche alle prestazioni e ai servizi di assistenza pubblica, compresi i servizi sanitari e i servizi essenziali, tra cui, ma non solo, l'alloggio, l'elettricità, il riscaldamento/raffreddamento e internet, nonché per concedere, ridurre, revocare, aumentare o recuperare tali prestazioni e servizi;
Emendamento 722 Proposta di regolamento Allegato III – punto 5– lettera b
b) i sistemi di IA destinati a essere utilizzati per valutare l'affidabilità creditizia delle persone fisiche o per stabilire il loro merito di credito, a eccezione dei sistemi di IA messi in servizio per uso proprio da fornitori di piccole dimensioni;
b) i sistemi di IA destinati a essere utilizzati per valutare l'affidabilità creditizia delle persone fisiche o per stabilire il loro merito di credito, a eccezione dei sistemi di IA utilizzati allo scopo di individuare frodi finanziarie;
Emendamento 723 Proposta di regolamento Allegato III – punto 5 – lettera b bis (nuova)
b bis) i sistemi di IA destinati a essere utilizzati per adottare decisioni o influenzare materialmente le decisioni riguardo all'ammissibilità di persone fisiche all'assicurazione sanitaria e sulla vita;
Emendamento 724 Proposta di regolamento Allegato III – punto 5– lettera c
c) i sistemi di IA destinati a essere utilizzati per inviare servizi di emergenza di primo soccorso o per stabilire priorità in merito all'invio di tali servizi, compresi vigili del fuoco e assistenza medica.
c) i sistemi di IA destinati a essere utilizzati per valutare e classificare le chiamate di emergenza effettuate da persone fisiche o inviare servizi di emergenza di primo soccorso o per stabilire priorità in merito all'invio di tali servizi, compresi polizia, autorità di contrasto, vigili del fuoco e assistenza medica, nonché per i sistemi di selezione dei pazienti per quanto concerne l'assistenza sanitaria di emergenza;
Emendamento 725 Proposta di regolamento Allegato III – punto 6– lettera a
a) i sistemi di IA destinati a essere utilizzati dalle autorità di contrasto per effettuare valutazioni individuali dei rischi delle persone fisiche al fine di determinare il rischio di reato o recidiva in relazione a una persona fisica o il rischio per vittime potenziali di reati;
soppresso
Emendamento 726 Proposta di regolamento Allegato III – punto 6– lettera b
b) i sistemi di IA destinati a essere utilizzati dalle autorità di contrasto, come poligrafi e strumenti analoghi, o per rilevare lo stato emotivo di una persona fisica;
b) i sistemi di IA destinati a essere utilizzati da o per conto delle autorità di contrasto, o da agenzie, uffici o organismi dell'Unione a sostegno delle autorità di contrasto, come poligrafi e strumenti analoghi, nella misura in cui il loro uso è consentito dal pertinente diritto dell'Unione e nazionale;
Emendamento 727 Proposta di regolamento Allegato III – punto 6– lettera c
c) i sistemi di IA destinati a essere utilizzati dalle autorità di contrasto per individuare i "deep fake" di cui all'articolo 52, paragrafo 3;
soppresso
Emendamento 728 Proposta di regolamento Allegato III – punto 6– lettera d
d) i sistemi di IA destinati a essere utilizzati dalle autorità di contrasto per la valutazione dell'affidabilità degli elementi probatori nel corso delle indagini o del perseguimento di reati;
d) i sistemi di IA destinati a essere utilizzati da o per conto delle autorità di contrasto, o da agenzie, uffici o organismi dell'Unione a sostegno delle autorità di contrasto per la valutazione dell'affidabilità degli elementi probatori nel corso delle indagini o del perseguimento di reati;
Emendamento 729 Proposta di regolamento Allegato III – punto 6– lettera e
e) i sistemi di IA destinati a essere utilizzati dalle autorità di contrasto per prevedere il verificarsi o il ripetersi di un reato effettivo o potenziale sulla base della profilazione delle persone fisiche di cui all'articolo 3, paragrafo 4, della direttiva (UE) 2016/680 o per valutare i tratti e le caratteristiche della personalità o il comportamento criminale pregresso di persone fisiche o gruppi;
soppresso
Emendamento 730 Proposta di regolamento Allegato III – punto 6– lettera f
f) i sistemi di IA destinati a essere utilizzati dalle autorità di contrasto per la profilazione delle persone fisiche di cui all'articolo 3, paragrafo 4, della direttiva (UE) 2016/680 nel corso dell'indagine, dell'accertamento e del perseguimento di reati;
f) i sistemi di IA destinati a essere utilizzati da o per conto delle autorità di contrasto, o da agenzie, uffici o organismi dell'Unione a sostegno delle autorità di contrasto per la profilazione delle persone fisiche di cui all'articolo 3, paragrafo 4, della direttiva (UE) 2016/680 nel corso dell'indagine, dell'accertamento e del perseguimento di reati o, nel caso delle agenzie dell'Unione, degli uffici o degli organismi, a norma di quanto stabilito all'articolo 3, paragrafo 5, del regolamento (UE) 2018/1725;
Emendamento 731 Proposta di regolamento Allegato III – punto 6– lettera g
g) i sistemi di IA destinati a essere utilizzati per l'analisi criminale riguardo alle persone fisiche, che consentono alle autorità di contrasto di eseguire ricerche in set di dati complessi, correlati e non correlati, resi disponibili da fonti di dati diverse o in formati diversi, al fine di individuare modelli sconosciuti o scoprire relazioni nascoste nei dati.
g) i sistemi di IA destinati a essere utilizzati da o per conto delle autorità di contrasto, o da agenzie, uffici o organismi dell'Unione a sostegno delle autorità di contrasto per l'analisi criminale riguardo alle persone fisiche, che consentono alle autorità di contrasto di eseguire ricerche in set di dati complessi, correlati e non correlati, resi disponibili da fonti di dati diverse o in formati diversi, al fine di individuare modelli sconosciuti o scoprire relazioni nascoste nei dati.
Emendamento 732 Proposta di regolamento Allegato III – punto 7– lettera a
a) i sistemi di IA destinati a essere utilizzati dalle autorità pubbliche competenti, come poligrafi e strumenti analoghi, o per rilevare lo stato emotivo di una persona fisica;
a) i sistemi di IA destinati a essere utilizzati da o per conto delle autorità pubbliche competenti, o da agenzie, uffici o organismi dell'Unione, come poligrafi e strumenti analoghi, nella misura in cui il loro uso è consentito dal pertinente diritto dell'Unione e nazionale
Emendamento 733 Proposta di regolamento Allegato III – punto 7– lettera b
b) i sistemi di IA destinati a essere utilizzati dalle autorità pubbliche competenti per valutare un rischio (compresi un rischio per la sicurezza, un rischio di immigrazione irregolare o un rischio per la salute) posto da una persona fisica che intende entrare o è entrata nel territorio di uno Stato membro;
b) i sistemi di IA destinati a essere utilizzati da o per conto delle autorità pubbliche competenti o dalle agenzie, dagli uffici o organismi dell'Unione per valutare un rischio (compresi un rischio per la sicurezza, un rischio di immigrazione irregolare o un rischio per la salute) posto da una persona fisica che intende entrare o è entrata nel territorio di uno Stato membro;
Emendamento 734 Proposta di regolamento Allegato III – punto 7– lettera c
c) i sistemi di IA destinati a essere utilizzati dalle autorità pubbliche competenti per verificare l'autenticità dei documenti di viaggio e dei documenti giustificativi delle persone fisiche e per individuare i documenti non autentici mediante il controllo delle caratteristiche di sicurezza;
c) i sistemi di IA destinati a essere utilizzati da o per conto delle autorità pubbliche competenti o dalle agenzie, dagli uffici o organismi dell'Unione per verificare l'autenticità dei documenti di viaggio e dei documenti giustificativi delle persone fisiche e per individuare i documenti non autentici mediante il controllo delle caratteristiche di sicurezza;
Emendamento 735 Proposta di regolamento Allegato III – punto 7– lettera d
d) i sistemi di IA destinati ad assistere le autorità pubbliche competenti nell'esame delle domande di asilo, di visto e di permesso di soggiorno e dei relativi reclami per quanto riguarda l'ammissibilità delle persone fisiche che richiedono tale status.
d) i sistemi di IA destinati a essere utilizzati da o per conto delle autorità pubbliche competenti o dalle agenzie, dagli uffici o organismi dell'Unione, per ricevere assistenza nell'esame e nella valutazione della veridicità delle prove in relazione alle domande di asilo, di visto e di permesso di soggiorno e dei relativi reclami per quanto riguarda l'ammissibilità delle persone fisiche che richiedono tale status.
Emendamento 736 Proposta di regolamento Allegato III – punto 7 – lettera d bis (nuova)
d bis) i sistemi di IA destinati a essere utilizzati da o per conto delle autorità pubbliche competenti o dalle agenzie, dagli uffici o organismi dell'Unione nella gestione della migrazione, dell'asilo e del controllo delle frontiere per monitorare, sorvegliare o elaborare dati nel contesto delle attività di gestione delle frontiere allo scopo di individuare, riconoscere o identificare persone fisiche;
Emendamento 737 Proposta di regolamento Allegato III – punto 7 – lettera d ter (nuova)
d ter) i sistemi di IA destinati a essere utilizzati da o per conto delle autorità pubbliche competenti o dalle agenzie, dagli uffici o organismi dell'Unione in materia di gestione della migrazione, dell'asilo e del controllo delle frontiere per prevedere o anticipare le tendenze relative ai movimenti migratori e all'attraversamento delle frontiere;
Emendamento 738 Proposta di regolamento Allegato III – punto 8– lettera a
a) i sistemi di IA destinati ad assistere un'autorità giudiziaria nella ricerca e nell'interpretazione dei fatti e del diritto e nell'applicazione della legge a una serie concreta di fatti.
a) i sistemi di IA destinati a essere utilizzati da un'autorità giudiziaria o da un organo amministrativo, o per loro conto, per assistere un'autorità giudiziaria o un organo amministrativo nella ricerca e nell'interpretazione dei fatti e del diritto e nell'applicazione della legge a una serie concreta di fatti o utilizzati in modo analogo nella risoluzione alternativa delle controversie.
Emendamento 739 Proposta di regolamento Allegato III – punto 8 – lettera a bis (nuova)
a bis) i sistemi di IA destinati a essere utilizzati per influenzare l'esito di un'elezione o di un referendum o il comportamento di voto delle persone fisiche nell'esercizio del loro voto alle elezioni o ai referendum. Sono esclusi i sistemi di IA i cui risultati non sono rivolti direttamente alle persone fisiche, come gli strumenti utilizzati per organizzare, ottimizzare e strutturare campagne politiche da un punto di vista amministrativo e logistico.
Emendamento 740 Proposta di regolamento Allegato III – punto 8 – lettera a ter (nuova)
a ter) i sistemi di IA destinati a essere utilizzati dalle piattaforme di social media che sono state designate come piattaforme online di dimensioni molto grandi ai sensi dell'articolo 33 del regolamento (UE) 2022/2065, per quanto concerne i loro sistemi di raccomandazione per raccomandare al destinatario del servizio i contenuti generati dagli utenti disponibili sulla piattaforma.
Emendamento 741 Proposta di regolamento Allegato IV – punto 1– lettera a
a) la finalità prevista, la persona o le persone che sviluppano il sistema, la data e la versione del sistema;
a) la finalità prevista, il nome del fornitore e la versione del sistema, tenendo conto del suo rapporto con le versioni precedentie, ove del caso, più recenti, nella successione delle revisioni;
Emendamento 742 Proposta di regolamento Allegato IV – punto 1 – lettera a bis (nuova)
a bis) la natura dei dati che possono o sono destinati a essere trattati dal sistema e, nel caso dei dati personali, le categorie di persone fisiche e di gruppi che possono o sono destinati a essere interessati;
Emendamento 743 Proposta di regolamento Allegato IV – punto 1– lettera b
b) il modo in cui il sistema interagisce o può essere utilizzato per interagire con hardware o software che non fanno parte del sistema di IA stesso, ove applicabile;
b) il modo in cui il sistema può interagire o può essere utilizzato per interagire con hardware o software, compresi altri sistemi di IA che non fanno parte del sistema di IA stesso, ove applicabile;
Emendamento 744 Proposta di regolamento Allegato IV – punto 1– lettera c
c) le versioni dei pertinenti software o firmware e qualsiasi requisito relativo all'aggiornamento della versione;
c) le versioni dei pertinenti software o firmware e, ove applicabile, le informazioni per l'operatore o qualsiasi requisito relativo all'aggiornamento della versione;
Emendamento 745 Proposta di regolamento Allegato IV – punto 1– lettera d
d) la descrizione di tutte le forme in cui il sistema di IA è immesso sul mercato o messo in servizio;
d) la descrizione delle diverse configurazioni e varianti del sistema di IA che si intende immettere sul mercato o mettere in servizio;
Emendamento 746 Proposta di regolamento Allegato IV – punto 1 – lettera f bis (nuova)
f bis) la descrizione dell'interfaccia dell'operatore;
Emendamento 747 Proposta di regolamento Allegato IV – punto 1– lettera g
g) le istruzioni per l'uso destinate all'utente e, ove applicabile, le istruzioni per l'installazione.
g) le istruzioni per l'uso destinate all'operatore a norma dell'articolo 13, paragrafi 2 e 3, e dell'articolo 14, paragrafo 4, letterae), e, ove applicabile, le istruzioni per l'installazione.
Emendamento 748 Proposta di regolamento Allegato IV – punto 1 – lettera g bis (nuova)
g bis) una descrizione dettagliata e facilmente intelligibile del principale obiettivo o dei principali obiettivi di ottimizzazione del sistema;
Emendamento 749 Proposta di regolamento Allegato IV – punto 1 – lettera g ter (nuova)
g ter) una descrizione dettagliata e facilmente intelligibile dell'output e della qualità di output previsti dal sistema;
Emendamento 750 Proposta di regolamento Allegato IV – punto 1 – lettera g quater (nuova)
g quater) istruzioni dettagliate e facilmente intelligibili per l'interpretazione dell'output del sistema;
Emendamento 751 Proposta di regolamento Allegato IV – punto 1 – lettera g quinquies (nuova)
g quinquies) esempi di scenari per i quali il sistema non dovrebbe essere utilizzato;
Emendamento 752 Proposta di regolamento Allegato IV – punto 2– lettera b
b) le specifiche di progettazione del sistema, vale a dire la logica generale del sistema di IA e degli algoritmi; le principali scelte di progettazione, comprese le motivazioni e le ipotesi formulate, anche per quanto riguarda le persone o i gruppi di persone sui quali il sistema è destinato a essere utilizzato; le principali scelte di classificazione; gli aspetti che il sistema è progettato per ottimizzare e la pertinenza dei diversi parametri; le decisioni in merito a eventuali compromessi posti in essere con riguardo alle soluzioni tecniche adottate per soddisfare i requisiti di cui al titolo III, capo 2;
b) una descrizione dell'architettura, delle specifiche di progettazione, degli algoritmi e delle strutture dati, compresa una scomposizione dei suoi componenti e delle sue interfacce, del modo in cui si relazionano tra loro e di come provvedono all'elaborazione complessiva o alla logica del sistema di IA; le principali scelte di progettazione, comprese le motivazioni e le ipotesi formulate, anche per quanto riguarda le persone o i gruppi di persone sui quali il sistema è destinato a essere utilizzato; le principali scelte di classificazione; gli aspetti che il sistema è progettato per ottimizzare e la pertinenza dei diversi parametri; le decisioni in merito a eventuali compromessi posti in essere con riguardo alle soluzioni tecniche adottate per soddisfare i requisiti di cui al titolo III, capo 2;
Emendamento 753 Proposta di regolamento Allegato IV – punto 2– lettera c
c) la descrizione dell'architettura del sistema che spiega in che modo i componenti software si basano l'uno sull'altro o si alimentano reciprocamente e si integrano nel processo complessivo; le risorse computazionali utilizzate per sviluppare, addestrare, sottoporre a prova e convalidare il sistema di IA;
c) soppresso
Emendamento 754 Proposta di regolamento Allegato IV – punto 2– lettera e
e) la valutazione delle misure di sorveglianza umana necessarie in conformità dell'articolo 14, compresa una valutazione delle misure tecniche necessarie per facilitare l'interpretazione degli output dei sistemi di IA da parte degli utenti, in conformità dell'articolo 13, paragrafo 3, lettera d);
e) la valutazione delle misure di sorveglianza umana necessarie in conformità dell'articolo 14, compresa una valutazione delle misure tecniche necessarie per facilitare l'interpretazione degli output dei sistemi di IA da parte degli operatori, in conformità dell'articolo 13, paragrafo 3, lettera d);
Emendamento 755 Proposta di regolamento Allegato IV – punto 2– lettera g
g) le procedure di convalida e di prova utilizzate, comprese le informazioni sui dati di convalida e di prova utilizzati e sulle loro principali caratteristiche; le metriche utilizzate per misurare l'accuratezza, la robustezza, la cibersicurezza e la conformità ad altri requisiti pertinenti di cui al titolo III, capo 2, nonché gli impatti potenzialmente discriminatori; i log delle prove e tutte le relazioni di prova corredate di data e firma delle persone responsabili, anche per quanto riguarda le modifiche predeterminate di cui alla lettera f).
g) le procedure di convalida e di prova utilizzate, comprese le informazioni sui dati di convalida e di prova utilizzati e sulle loro principali caratteristiche; le metriche utilizzate per misurare l'accuratezza, la robustezza e la conformità ad altri requisiti pertinenti di cui al titolo III, capo 2, nonché gli impatti potenzialmente discriminatori; i log delle prove e tutte le relazioni di prova corredate di data e firma delle persone responsabili, anche per quanto riguarda le modifiche predeterminate di cui alla lettera f).
Emendamento 756 Proposta di regolamento Allegato IV – punto 2 – lettera g bis (nuova)
g bis) le misure di cibersicurezza poste in essere.
Emendamento 757 Proposta di regolamento Allegato IV – punto 3
3. Informazioni dettagliate sul monitoraggio, sul funzionamento e sul controllo del sistema di IA, in particolare per quanto riguarda: le sue capacità e limitazioni in termini di prestazioni, compresi i gradi di accuratezza relativi a determinate persone o determinati gruppi di persone sui quali il sistema è destinato a essere utilizzato e il livello di accuratezza complessivo atteso in relazione alla finalità prevista del sistema; i prevedibili risultati indesiderati e fonti di rischio per la salute, la sicurezza e i diritti fondamentali, nonché di rischio di discriminazione in considerazione della finalità prevista del sistema di IA; le misure di sorveglianza umana necessarie in conformità dell'articolo 14, comprese le misure tecniche poste in essere per facilitare l'interpretazione degli output dei sistemi di IA da parte degli utenti; le specifiche relative ai dati di input, se del caso.
3. Informazioni dettagliate sul monitoraggio, sul funzionamento e sul controllo del sistema di IA, in particolare per quanto riguarda: le sue capacità e limitazioni in termini di prestazioni, compresi i gradi di accuratezza relativi a determinate persone o determinati gruppi di persone sui quali il sistema è destinato a essere utilizzato e il livello di accuratezza complessivo atteso in relazione alla finalità prevista del sistema; i prevedibili risultati indesiderati e fonti di rischio per la salute, la sicurezza e i diritti fondamentali, nonché di rischio di discriminazione in considerazione della finalità prevista del sistema di IA; le misure di sorveglianza umana necessarie in conformità dell'articolo 14, comprese le misure tecniche poste in essere per facilitare l'interpretazione degli output dei sistemi di IA da parte degli operatori; le specifiche relative ai dati di input, se del caso.
Emendamento 758 Proposta di regolamento Allegato IV – punto 3 bis (nuovo)
3 bis. Una descrizione dell'adeguatezza delle metriche di prestazione per il sistema di IA specifico.
Emendamento 759 Proposta di regolamento Allegato IV – punto 3 ter (nuovo)
3 ter. Informazioni sul consumo energetico del sistema di IA durante la fase di sviluppo e sul consumo energetico previsto durante l'uso, tenendo conto, se del caso, del pertinente diritto dell'Unione e nazionale;
Emendamento 760 Proposta di regolamento Allegato IV – punto 5
5. Una descrizione di qualsiasi modifica apportata al sistema durante il suo ciclo di vita.
5. Una descrizione di qualsiasi modifica pertinente apportata dai fornitori al sistema durante il suo ciclo di vita.
Emendamento 761 Proposta di regolamento Allegato IV – punto 6
6. Un elenco delle norme armonizzate applicate integralmente o in parte i cui riferimenti sono stati pubblicati nella Gazzetta ufficiale dell'Unione europea; nei casi in cui tali norme armonizzate non sono state applicate, una descrizione dettagliata delle soluzioni adottate per soddisfare i requisiti di cui al titolo III, capo 2, compreso un elenco delle altre norme e specifiche tecniche pertinenti applicate.
6. Un elenco delle norme armonizzate applicate integralmente o in parte i cui riferimenti sono stati pubblicati nella Gazzetta ufficiale dell'Unione europea; nei casi in cui tali norme armonizzate non sono state applicate, una descrizione dettagliata delle soluzioni adottate per soddisfare i requisiti di cui al titolo III, capo 2, compreso un elenco delle altre norme o specifiche comuni pertinenti applicate.
Emendamento 762 Proposta di regolamento Allegato IV – punto 4 bis (nuovo)
4 bis. se un sistema di IA comporta il trattamento di dati personali, una dichiarazione attestante che tale sistema di IA è conforme ai regolamenti (UE) 2016/679 e (UE) 2018/1725 e alla direttiva (UE) 2016/680.
Emendamento 763 Proposta di regolamento Allegato V – punto 7
7. il luogo e la data di rilascio della dichiarazione, il nome e la funzione della persona che firma la dichiarazione nonché un'indicazione della persona a nome e per conto della quale ha firmato, la firma.
7. il luogo e la data di rilascio della dichiarazione, la firma, il nome e la funzione della persona che firma la dichiarazione nonché un'indicazione della persona a nome e per conto della quale ha firmato, la firma.
Emendamento 764 Proposta di regolamento Allegato VII – punto 4 – punto 4.5
4.5. Ove necessario per valutare la conformità del sistema di IA ad alto rischio ai requisiti di cui al titolo III, capo 2, e su richiesta motivata, anche all'organismo notificato deve essere concesso l'accesso al codice sorgente del sistema di IA.
4.5. Ove necessario per valutare la conformità del sistema di IA ad alto rischio ai requisiti di cui al titolo III, capo 2, dopo che tutte le altre modalità ragionevoli per verificare la conformità sono state esaurite e si sono rivelate insufficienti, e su richiesta motivata, anche all'organismo notificato deve essere concesso l'accesso ai modelli di addestramento e addestrati del sistema di IA, compresi i relativi parametri.Tale accesso è soggetto al vigente diritto dell'Unione in materia di protezione della proprietà intellettuale e dei segreti commerciali. Essi adottano misure tecniche e organizzative per garantire la protezione della proprietà intellettuale e dei segreti commerciali.
Emendamento 765 Proposta di regolamento Allegato VIII – parte introduttiva
Le seguenti informazioni devono essere fornite e successivamente aggiornate in relazione ai sistemi di IA ad alto rischio che devono essere registrati a norma dell'articolo 51:
Sezione A - Le seguenti informazioni devono essere fornite e successivamente aggiornate in relazione ai sistemi di IA ad alto rischio che devono essere registrati a norma dell'articolo 51, paragrafo 1:
Emendamento 766 Proposta di regolamento Allegato VIII – punto 4 bis (nuovo)
4 bis. la denominazione commerciale del modello di base e qualsiasi ulteriore riferimento inequivocabile che ne consenta l'identificazione e la tracciabilità
Emendamento 767 Proposta di regolamento Allegato VIII – punto 5
5. la descrizione della finalità prevista del sistema di IA;
5. Una descrizione semplice e comprensibile di quanto segue:
a) la finalità prevista del sistema di IA;
b) i componenti e le funzioni supportate dall'IA;
c) una spiegazione a grandi linee della logica del sistema di IA
Emendamento 768 Proposta di regolamento Allegato VIII – punto 5 bis (nuovo)
5 bis. se del caso, le categorie e la natura dei dati presumibilmente o prevedibilmente trattati dal sistema di IA.
Emendamento 769 Proposta di regolamento Allegato VIII – punto 11
11. le istruzioni per l'uso in formato elettronico; questa informazione non deve essere fornita per i sistemi di IA ad alto rischio nei settori delle attività di contrasto e della gestione migrazione, dell'asilo e del controllo delle frontiere di cui all'allegato III, punti 1, 6 e 7;
soppresso
Emendamento 770 Proposta di regolamento Allegato VIII – Sezione B (nuova)
Sezione B - Le seguenti informazioni devono essere fornite e successivamente aggiornate in relazione ai sistemi di IA ad alto rischio da registrare a norma dell'articolo 51, paragrafo 1 bis, lettera a), e paragrafo 1 ter:
1. il nome, l'indirizzo e i dati di contatto dell'operatore;
2. il nome, l'indirizzo e i dati di contatto della persona che fornisce informazioni a nome dell'operatore;
3. la denominazione commerciale del sistema di IA ad alto rischio e qualsiasi ulteriore riferimento inequivocabile che consenta l'identificazione e la tracciabilità del sistema di IA utilizzato;
4. a) una descrizione semplice e comprensibile dell'uso previsto del sistema di IA, compresi gli esiti specifici perseguiti attraverso l'uso del sistema, l'ambito geografico e temporale dell'applicazione;
b) se del caso, le categorie e la natura dei dati trattati dal sistema di IA;
c) le modalità di sorveglianza umana e governance
d) se del caso, gli organismi o le persone fisiche responsabili delle decisioni adottate o sostenute dal sistema di IA;
5. una sintesi dei risultati della valutazione d'impatto sui diritti fondamentali effettuata a norma dell'articolo 29 bis;
6. l'URL dell'inserimento del sistema di IA nella banca dati dell'UE da parte del suo fornitore;
7. una sintesi della valutazione d'impatto sulla protezione dei dati effettuata ai sensi dell'articolo 35 del regolamento (UE) 2016/679 o dell'articolo 27 della direttiva (UE) 2016/680, come specificato all'articolo 29, paragrafo 6, del presente regolamento, ove applicabile;
Emendamento 771 Proposta di regolamento Allegato VIII – Sezione C (nuova)
Sezione C - Le seguenti informazioni devono essere fornite e successivamente aggiornate in relazione ai modelli di base da registrare a norma dell'articolo 28 ter, lettera e):
1. Il nome, l'indirizzo e i dati di contatto del fornitore;
2. Se le informazioni sono trasmesse da un'altra persona per conto del fornitore: il nome, l'indirizzo e i dati di contatto di tale persona;
3. Il nome, l'indirizzo e i dati di contatto del rappresentante autorizzato, ove applicabile;
4. La denominazione commerciale e qualsiasi ulteriore riferimento inequivocabile che consenta l'identificazione del modello di base;
5. La descrizione delle fonti di dati utilizzate nello sviluppo del modello di base;
6. La descrizione delle capacità e dei limiti del modello di base, compresi i rischi ragionevolmente prevedibili e le misure adottate per attenuarli, nonché i restanti rischi non attenuati, con una spiegazione del motivo per cui non possono essere attenuati;
7. La descrizione delle risorse di formazione utilizzate dal modello di fondazione, compresa la potenza di calcolo richiesta, il tempo di formazione e altre informazioni pertinenti relative alle dimensioni e alla potenza del modello 8. La descrizione delle prestazioni del modello, anche per quanto riguarda i parametri di riferimento pubblici o i parametri di riferimento aggiornati dell'industria;
8. La descrizione dei risultati delle pertinenti prove interne ed esterne e dell'ottimizzazione del modello;
9. Gli Stati membri in cui il modello di base è o è stato immesso sul mercato, messo in servizio o reso disponibile nell'Unione;
10. L'URL per ulteriori informazioni (facoltativo).
La questione è stata rinviata alla commissione competente in base all'articolo 59, paragrafo 4, quarto comma, del regolamento del Parlamento, per l'avvio di negoziati interistituzionali (A9-0188/2023).
Risoluzione legislativa del Parlamento europeo del 14 giugno 2023 sulla proposta di regolamento del Parlamento europeo e del Consiglio relativo alle batterie e ai rifiuti di batterie, che abroga la direttiva 2006/66/CE e modifica il regolamento (UE) 2019/1020 (COM(2020)0798 – C9-0400/2020 – 2020/0353(COD))
– vista la proposta della Commissione al Parlamento e al Consiglio (COM(2020)0798),
– visti l'articolo 294, paragrafo 2, e l'articolo 114 del trattato sul funzionamento dell'Unione europea, a norma dei quali la proposta gli è stata presentata dalla Commissione (C9‑0400/2020),
– visto il parere della commissione giuridica sulla base giuridica proposta,
– visti l'articolo 294, paragrafo 3, l'articolo 114 e l'articolo 192, paragrafo 1, del trattato sul funzionamento dell'Unione europea,
– visto il parere del Comitato economico e sociale europeo del 24 marzo 2021(1),
– previa consultazione del Comitato delle regioni,
– visti l'accordo provvisorio approvato dalla commissione competente a norma dell'articolo 74, paragrafo 4, del regolamento e l'impegno assunto dal rappresentante del Consiglio, con lettera del 18 gennaio 2023, di approvare la posizione del Parlamento europeo, in conformità dell'articolo 294, paragrafo 4, del trattato sul funzionamento dell'Unione europea,
– visti gli articoli 59 e 40 del suo regolamento,
– visti i pareri della commissione per l'industria, la ricerca e l'energia, della commissione per il mercato interno e la protezione dei consumatori e della commissione per i trasporti e il turismo,
– vista la relazione della commissione per l'ambiente, la sanità pubblica e la sicurezza alimentare (A9‑0031/2022),
1. adotta la posizione in prima lettura figurante in appresso(2);
2. chiede alla Commissione di presentargli nuovamente la proposta qualora la sostituisca, la modifichi sostanzialmente o intenda modificarla sostanzialmente;
3. incarica la sua Presidente di trasmettere la posizione del Parlamento al Consiglio e alla Commissione nonché ai parlamenti nazionali.
Posizione del Parlamento europeo definita in prima lettura il 14 giugno 2023 in vista dell'adozione del regolamento (UE) 2023/... del Parlamento europeo e del Consiglio relativo alle batterie e ai rifiuti di batterie, che modifica la direttiva 2008/98/CE e il regolamento (UE) 2019/1020 e abroga la direttiva 2006/66/CE
La presente posizione sostituisce gli emendamenti approvati il 10 marzo 2022 (GU C 347 del 9.9.2022, pag. 245).
Garantire la sicurezza alimentare e la resilienza a lungo termine dell'agricoltura dell'UE
218k
72k
Risoluzione del Parlamento europeo del 14 giugno 2023 sul garantire la sicurezza alimentare e la resilienza a lungo termine dell'agricoltura dell'UE (2022/2183(INI))
– visto l'articolo 39 del trattato sul funzionamento dell'Unione europea (TFUE), che stabilisce che le finalità della politica agricola comune sono garantire la sicurezza degli approvvigionamenti, stabilizzare i mercati e assicurare prezzi ragionevoli nelle consegne ai consumatori,
– vista la sua risoluzione del 15 gennaio 2020 sul Green Deal europeo(1),
– visti l'articolo 25 della Dichiarazione universale dei diritti dell'uomo e l'articolo 11 del Patto internazionale relativo ai diritti economici, sociali e culturali, che riconoscono il diritto all'alimentazione come parte integrante del diritto a un tenore di vita adeguato,
– vista la comunicazione della Commissione, del 3 ottobre 2012, dal titolo "L'approccio dell'Unione alla resilienza: imparare dalle crisi della sicurezza alimentare" (COM(2012)0586),
– vista la comunicazione della Commissione, del 12 novembre 2021, dal titolo "Piano di emergenza per garantire l'approvvigionamento alimentare e la sicurezza di tale approvvigionamento in tempi di crisi" (COM(2021)0689),
– vista la comunicazione della Commissione, del 23 marzo 2022, dal titolo "Proteggere la sicurezza alimentare e rafforzare la resilienza dei sistemi alimentari" (COM(2022)0133),
– vista la sua risoluzione del 24 marzo 2022 sulla necessità di un piano d'azione urgente dell'UE per garantire la sicurezza alimentare all'interno e all'esterno dell'Unione europea alla luce dell'invasione dell'Ucraina da parte russa(2),
– vista la sua risoluzione del 6 luglio 2022 sulla questione della sicurezza alimentare nei paesi in via di sviluppo(3),
– vista la direttiva (UE) 2022/2557 del Parlamento europeo e del Consiglio, del 14 dicembre 2022, relativa alla resilienza dei soggetti critici e che abroga la direttiva 2008/114/CE del Consiglio(4), che aggiunge tra i settori interessati la produzione, la trasformazione e la distribuzione di alimenti,
– visti lo stato della sicurezza alimentare e della nutrizione nell'ambito delle relazioni a livello mondiale, la relazione globale sulle crisi alimentari e la relazione sulla nutrizione globale, comprese le edizioni del 2021, gli orientamenti sul diritto all'alimentazione dell'Organizzazione delle Nazioni Unite per l'alimentazione e l'agricoltura (FAO), gli orientamenti volontari sui sistemi alimentari e la nutrizione del comitato della FAO per la sicurezza alimentare mondiale, i 10 elementi dell'agroecologia per guidare la transizione verso sistemi alimentari e agricoli sostenibili della FAO e il quadro d'azione per la sicurezza alimentare e la nutrizione del 2014 nelle crisi prolungate,
– vista la risoluzione dell'Assemblea generale delle Nazioni Unite, del 25 settembre 2015, dal titolo "Transforming our world: the 2030 Agenda for Sustainable Development" (Trasformare il nostro mondo: l'Agenda 2030 per lo sviluppo sostenibile),
– vista la risoluzione dell'Assemblea generale delle Nazioni Unite, del 1° aprile 2016, dal titolo "United Nations Decade of Action on Nutrition (2016-2025)" (Il decennio d'azione delle Nazioni Unite per la nutrizione (2016-2025)), che mira a promuovere azioni vigorose per porre fine alla fame ed eliminare la malnutrizione a livello mondiale e a garantire l'accesso universale a regimi alimentari più sani e sostenibili per tutte le persone indistintamente e ovunque esse vivano,
– visti gli orientamenti volontari del comitato per la sicurezza alimentare mondiale (CFS) sulla governance responsabile della terra, della pesca e delle foreste nel contesto della sicurezza alimentare nazionale del 2012 e i principi del CFS per investimenti responsabili nel settore agricolo e nei sistemi alimentari del 2015,
– visti gli obiettivi di sviluppo sostenibile (OSS) delle Nazioni Unite e il loro stretto legame e integrazione, in particolare l'OSS 1 (porre fine alla povertà in tutte le sue forme) l'OSS 2 (porre fine alla fame, raggiungere la sicurezza alimentare, migliorare la nutrizione e promuovere un'agricoltura sostenibile),
– vista la relazione delle Nazioni Unite, del 30 dicembre 2021, dal titolo "Seeds, right to life and farmers' rights" (Sementi, diritto alla vita e diritti degli agricoltori) (A/HRC/49/43) del relatore speciale delle Nazioni Unite sul diritto all'alimentazione,
– vista la comunicazione della Commissione, del 9 novembre 2022, dal titolo "Garantire la disponibilità e l'accessibilità economica dei concimi" (COM(2022)0590),
– vista la relazione della Commissione al Consiglio e al Parlamento europeo sullo sviluppo delle proteine vegetali nell'Unione europea, del 22 novembre 2018 (COM(2018)0757),
– vista la sua risoluzione del 13 dicembre 2022 su una visione a lungo termine per le zone rurali dell'UE: verso zone rurali più forti, connesse, resilienti e prospere entro il 2040(5),
– visto il parere del Comitato economico e sociale europeo,
– visto il parere del Comitato delle regioni,
– visto l'articolo 54 del suo regolamento,
– visti i pareri della commissione per l'ambiente, la sanità pubblica e la sicurezza alimentare e della commissione per lo sviluppo,
– vista la relazione di iniziativa della commissione per l'agricoltura e lo sviluppo rurale (A9‑0185/2023),
A. considerando che il 24 febbraio 2022 la Federazione russa ha invaso illegalmente l'Ucraina, provocando conseguenze disastrose, tra cui una grave minaccia per la sicurezza alimentare globale, specialmente per i paesi più vulnerabili; che l'invasione su vasta scala dell'Ucraina da parte della Russia ha notevolmente aggravato la situazione già difficile e delicata del settore agroalimentare, che si sta ancora riprendendo dall'impatto della pandemia di COVID-19 e che risente dell'attuale crisi climatica e dell'aumento dei prezzi dell'energia e dei concimi;
B. considerando che le ripercussioni della crisi provocata dall'aggressione russa nei confronti dell’Ucraina hanno posto la sicurezza alimentare e la resilienza del sistema alimentare mondiale al centro dell'agenda politica; che la produzione alimentare europea deve pertanto essere considerata un settore strategico e deve essere posta sullo stesso piano della sicurezza energetica, della difesa e della lotta ai cambiamenti climatici, a livello dell'Unione e internazionale;
C. considerando che, secondo la FAO, all'inizio del 2022 l'Ucraina e la Russia rappresentavano quasi il 30 % delle esportazioni mondiali di mais e grano e che la Russia era il principale esportatore mondiale di concimi; che più di 30 paesi, situati principalmente in Africa, Medio Oriente e Asia centrale, dipendono per oltre il 30 % delle loro importazioni dalle esportazioni di cereali dall'Ucraina e dalla Russia; che, secondo le simulazioni della FAO, l'invasione dell'Ucraina da parte della Russia sta aggravando tale insicurezza alimentare globale e potrebbe portare a una situazione di insicurezza alimentare per un ulteriore numero di persone compreso tra gli 8 e i 13 milioni nel mondo;
D. considerando che, nei suoi 60 anni di esistenza, la politica agricola comune (PAC) ha contribuito positivamente al rafforzamento del proprio ruolo nell'agricoltura europea; che dovrebbe continuare a farlo in futuro con un sostegno di bilancio adeguato e sufficientemente ampio da garantire la sicurezza e l'approvvigionamento alimentari in Europa;
E. considerando che la guerra contro l'Ucraina e i conseguenti considerevoli aumenti dei prezzi di fattori di produzione quali concimi, energia e mangimi, unitamente alla speculazione alimentare, stanno portando a significative distorsioni e tensioni cumulative sui mercati globali dell'agricoltura, della pesca e dell'acquacoltura, in particolare per quanto riguarda i cereali, l'olio vegetale e il bestiame; che la produzione alimentare e l'accesso al cibo non devono essere messi ulteriormente a repentaglio e non devono in alcun caso essere utilizzati come arma geopolitica, poiché ciò avrebbe un impatto sulle economie di tutto il mondo, specie sui cittadini e sui soggetti più vulnerabili della società;
F. considerando che lo scoppio delle prime rivolte alimentari nei paesi arabi nel 2008 ha dimostrato il grande potere di destabilizzazione geopolitica del cibo usato come arma;
G. considerando che non soltanto i prezzi al consumo dei prodotti alimentari ma anche il reddito delle famiglie costituiscono fattori determinanti per la sicurezza alimentare; che, dovendo far fronte a un aumento senza precedenti dei prezzi dei prodotti alimentari, le famiglie a basso reddito, che spendono una quota considerevole del proprio bilancio per acquistare generi alimentari, possono essere costrette a scegliere cibi meno sani e variati, il che le rende particolarmente vulnerabili al rischio di malattie non trasmissibili legate alla cattiva alimentazione;
H. considerando che i prezzi dei prodotti alimentari, pur essendo elevati, non compensano i costi di produzione per gli agricoltori e le cooperative agricole dell'UE; che nell'ultimo anno tali costi di produzione sono aumentati in modo esponenziale a causa dell'impennata dei prezzi dell'energia e degli imballaggi, nonché dei problemi relativi alla disponibilità e ai prezzi di concimi e macchinari;
I. considerando che, secondo il Consiglio internazionale dei cereali, all'epoca del raccolto del 2021 la Russia e l'Ucraina rappresentavano l'8,6 % della produzione mondiale di cereali, escluso il riso, e il 24 % delle esportazioni; che, a seguito della guerra condotta dalla Russia contro l'Ucraina, le perturbazioni e le strozzature a livello delle infrastrutture critiche, in particolare per il trasporto e lo stoccaggio dei prodotti agricoli, limitano la circolazione di alimenti, mangimi e altri prodotti agricoli, specialmente cereali e semi oleosi provenienti dal Mar Nero; che i prezzi sui mercati agricoli mondiali erano già aumentati prima dell'invasione russa dell'Ucraina, in parte a causa dell'impatto dei cambiamenti climatici e degli effetti della pandemia di COVID-19;
J. considerando che le infrastrutture di trasporto e di stoccaggio sono fondamentali per garantire flussi commerciali, forniture e stabilità del mercato in modo efficiente e sicuro; che qualsiasi perturbazione di tali elementi può alterare i livelli precedentemente ragionevoli dei prezzi al consumo; che la sicurezza alimentare va ben oltre l'agricoltura e la produzione alimentare e influisce su diversi aspetti, non soltanto sui produttori primari e sui consumatori, ma anche sull'economia più ampia, sugli scambi commerciali, sullo sviluppo, sugli aiuti umanitari e sulla coesione sociale e regionale;
K. considerando che la Commissione dovrebbe utilizzare tutti i mezzi possibili per garantire il buon funzionamento del mercato unico europeo; che la Commissione dovrebbe intensificare gli sforzi tesi ad affrontare tutte le barriere legate al settore agroalimentare nel mercato unico, compresa la rimozione delle strozzature nelle reti dei trasporti;
L. considerando che, secondo la FAO, il concetto di sicurezza alimentare non si limita alla produzione di cibo, bensì comprende anche gli aspetti connessi alla disponibilità, all'accessibilità e alla stabilità, come anche il diritto umano riconosciuto a livello internazionale al cibo e all'accesso conveniente a diete sane e nutrienti per tutti; che nessun diritto umano è violato altrettanto spesso;
M. considerando che un'alimentazione sana ed equilibrata fa la differenza nella vita delle persone e consente uno sviluppo equo e sostenibile della società; che i consumatori sono sempre più orientati verso scelte alimentari sane e sicure, prodotti sostenibili, la trasparenza della filiera e una migliore tracciabilità di tutti i processi di produzione e di distribuzione in virtù del loro diritto di ottenere maggiori informazioni sull'origine e sui metodi di produzione degli alimenti che consumano;
N. considerando che l'accesso universale ad alimenti sicuri e sani è un diritto riconosciuto a livello internazionale; che è fondamentale che la società si concentri sulla disponibilità e l'accessibilità economica degli alimenti per tutti, date le implicazioni e le conseguenze sociali, economiche e ambientali e gli effetti che tali prodotti hanno sulla salute umana;
O. considerando che il diritto all'alimentazione è un diritto umano fondamentale; che l'obiettivo di sviluppo sostenibile 2 mira a eliminare la fame entro il 2030; che l'UE dovrebbe difendere il diritto a un'alimentazione adeguata quale priorità per i sistemi alimentari al fine di conseguire la sicurezza alimentare e migliorare la nutrizione;
P. considerando che, secondo la relazione delle Nazioni Unite dal titolo "Seeds, right to life and farmers' rights" (Sementi, diritto alla vita e diritti degli agricoltori) del relatore speciale delle Nazioni Unite sul diritto all'alimentazione, quest'ultimo diritto è intrinsecamente legato ai sistemi di sementi degli agricoltori e al loro diritto indivisibile di conservare, utilizzare, scambiare e vendere liberamente i semi di produzione agricola; che Team Europa dovrebbe sostenere sia programmi che tengano conto delle esigenze dei sistemi di sementi degli agricoltori o dei sistemi informali di sementi sia banche di sementi o biblioteche di sementi che consentano agli agricoltori e ai giardinieri di raccogliere, conservare e condividere sementi autoctone, ecotipi e varietà locali;
Q. considerando che la crisi alimentare non conosce confini e che nessun paese può superarla da solo; che si profila l'urgente necessità di un'azione comune e di solidarietà;
R. considerando che, a seguito della crisi globale dell'approvvigionamento, la FAO stima che i prezzi internazionali dei prodotti alimentari e dei mangimi siano cresciuti fino a livelli mai osservati da quando la FAO ha iniziato a effettuare analisi dei prezzi e comunque al di sopra dei loro livelli già elevati, anche nel caso di prodotti per i quali l'aumento dei prezzi risultava ingiustificato; che a ottobre 2022 l'inflazione dei prezzi dei prodotti alimentari ha raggiunto il 17,26 %; che molte persone nel mondo rischiano di trovarsi esposte a carenze alimentari, fame e prezzi inaccessibili dei generi alimentari; che, al fine di individuare, prevenire ed eliminare la speculazione alimentare, che contribuisce alla volatilità dei prezzi degli alimenti, gli operatori lungo l'intera filiera alimentare devono diventare più trasparenti in merito alla loro quota di valore aggiunto, il che aiuterebbe a migliorare la trasparenza complessiva del mercato;
S. considerando che l'insicurezza alimentare mondiale non è imputabile principalmente alla carenza di offerta bensì ai conflitti, alla disparità nella distribuzione e all'inaccessibilità economica degli alimenti e alle perturbazioni della catena di approvvigionamento globale; che l'aumento dei prezzi dei generi alimentari colpisce principalmente le famiglie a basso reddito, che spendono la quota più consistente del loro reddito per acquistare generi alimentari; che è essenziale analizzare i fattori che determinano l'aumento dei prezzi dei fattori di produzione agricoli e il loro effetto sull'aumento dei prezzi dei generi alimentari;
T. considerando che, nel mondo, una persona su tre non ha ancora accesso a un'alimentazione adeguata e sufficiente e a una nutrizione sana; che, nel 2021, 2,3 miliardi di persone nel mondo erano esposti a un'insicurezza alimentare moderata o grave; che molte di queste persone sono impiegate nel settore agricolo; che, secondo il Programma alimentare mondiale, nel 2022 la grave insicurezza alimentare ha colpito il numero record di 349 milioni di persone;
U. considerando che la fame e l'insicurezza alimentare sono in aumento in tutto il mondo e che molti paesi sono ben lontani dal raggiungimento dell'obiettivo di azzerare la fame entro il 2030; che la malnutrizione è un onere permanente per gli individui e le società, poiché impedisce ai bambini di realizzare il loro pieno potenziale, limitando così lo sviluppo umano ed economico nazionale;
V. considerando che l'accordo di Marrakech del 1994 e in particolare l'accordo sull'agricoltura dell'Organizzazione mondiale del commercio (OMC) hanno contribuito a far sì che le regioni agricole si specializzassero nella produzione di specifiche colture di base, creando così dipendenze di percorso nei sistemi di produzione; che tale situazione non è resiliente alle crisi, specialmente poiché lascia i paesi importatori di prodotti alimentari esposti agli shock dei prezzi;
W. considerando che la natura e la biodiversità interagiscono con l'agricoltura, l'alimentazione e la nutrizione in molti ambiti fondamentali, fornendo una varietà di piante e animali da fonti addomesticate e selvatiche;
X. considerando che la biodiversità delle colture è importante in quanto consente ai singoli agricoltori di adattare la propria pianificazione agricola alle condizioni climatiche e rende i sistemi alimentari naturalmente più resilienti ai cambiamenti climatici, ai parassiti e agli agenti patogeni; che allo stesso tempo questo approccio basato sulla natura contribuisce a migliorare la biodiversità; che alcuni paesi non UE hanno istituito progetti innovativi, quali l'iniziativa della "Grande muraglia verde" in Africa, che promuove lo sviluppo di progetti agroecologici; che il sostegno dell'Unione europea ai sistemi alimentari sostenibili è una delle priorità dei programmi indicativi pluriennali adottati con circa 70 paesi partner nell'ambito dello strumento di vicinato, cooperazione allo sviluppo e cooperazione internazionale (NDICI) – Europa globale nel periodo 2021-2027;
Y. considerando che la disponibilità di generi alimentari varia in funzione degli shock economici, delle condizioni climatiche, della stagionalità e degli squilibri; che l'UE deve investire nella resilienza del settore agroalimentare e realizzare una transizione verso un'agricoltura più sostenibile, che rafforzerà la sicurezza alimentare a lungo termine e potrebbe offrire agli agricoltori fonti di reddito alternative; che la lotta contro il riscaldamento globale è necessaria per garantire un'agricoltura resiliente e sostenibile nel lungo termine;
Z. considerando che il 63 % delle persone a basso reddito nel mondo è impiegata nel settore agricolo e la stragrande maggioranza di tali persone lavora in aziende agricole di piccole e medie dimensioni, la cui sostenibilità economica è attualmente minacciata;
AA. considerando che, secondo l'Organizzazione mondiale per la salute animale (WOAH), la concorrenza per l'utilizzo dei terreni agricoli e delle foreste sta aumentando a un ritmo pari a quello della crescita della popolazione umana mondiale, che secondo le stime è destinata a passare dagli attuali 8 miliardi a 9,5 miliardi entro il 2050;
AB. considerando che la sicurezza alimentare attuale e a lungo termine dell'Unione europea è direttamente legata agli obiettivi della strategia "Dal produttore al consumatore" e della strategia sulla biodiversità; che la strategia "Dal produttore al consumatore" ha delineato diverse iniziative importanti, tra cui un piano di emergenza dell'UE per garantire l'approvvigionamento e la sicurezza alimentari in tempi di crisi;
AC. considerando che le ambizioni del Green Deal potrebbero rendere il sistema alimentare dell'UE più equo, sano e rispettoso dell'ambiente, in quanto la sicurezza alimentare dell'UE e globale dipende da sistemi alimentari resilienti e sostenibili a breve e lungo termine; che l'attuazione della legislazione relativa al Green Deal deve avere l'effetto cumulativo di preservare la capacità di produzione alimentare dell'UE e consentire una transizione agevole in termini di tempistiche e requisiti, senza aumentare la dipendenza dalle importazioni da paesi terzi, e che tutto questo potrebbe compromettere la sicurezza alimentare nell'UE; che è essenziale stanziare finanziamenti pubblici sufficienti per l'agricoltura e l'allevamento al fine di proteggere tali settori dagli effetti negativi e scongiurare un calo della produzione alimentare dell'UE;
AD. considerando che l'attuazione del Green Deal dovrebbe consentire una transizione equa, capace di garantire un'adeguata protezione agli agricoltori, in particolare quelli di piccole e medie dimensioni, e quantità sufficienti di prodotti agricoli sicuri e a prezzi accessibili ai consumatori, in linea con gli obiettivi di resilienza e sostenibilità a lungo termine dell'UE; che la garanzia di condizioni di vita sostenibili per i produttori primari, i cui redditi continuano a non tenere il passo, è la base per affrontare in modo sostenibile le attuali crisi dei mercati agricoli e per conseguire in modo durevole gli obiettivi del Green Deal europeo;
AE. considerando che nel 2016 quasi il 34 % degli agricoltori europei aveva 65 anni o più; che il fatto che molti agricoltori andranno in pensione nel futuro prossimo è motivo di grande preoccupazione in diversi Stati membri; che il ricambio generazionale costituisce una delle maggiori sfide per il sussistere di un settore agricolo e di sistemi alimentari resilienti nell'UE; che gli sforzi compiuti attraverso la PAC, pur essendo una priorità dell'UE, si sono dimostrati finora insufficienti per invertire la tendenza e che pertanto sarà necessario un insieme più ampio di strumenti programmatici;
AF. considerando che i giovani agricoltori, in particolare, sono innovativi, soprattutto nell'uso delle nuove tecnologie; che, se adeguatamente remunerati, motivati e responsabilizzati, sono disposti a effettuare investimenti capaci di aumentare la sostenibilità, la capacità produttiva e la competitività del settore agricolo; che la connettività alle reti a banda larga ad alta capacità è essenziale per ammodernare le aziende agricole, rafforzare la produttività e migliorare l'efficienza; che occorrono incentivi per incentivare la formazione informatica per gli agricoltori;
AG. considerando che il drammatico e significativo rincaro dei prezzi mondiali dei fertilizzanti e dell'energia, unitamente al forte aumento dei costi di altri fattori di produzione, sta creando difficoltà per gli agricoltori e mettendo a repentaglio la futura produzione agricola e, pertanto, la sicurezza alimentare e accessibilità economica dei prodotti alimentari; che nel settembre 2022 i prezzi dei concimi azotati sono cresciuti del 149 % rispetto ai prezzi dei concimi azotati sul mercato europeo l'anno precedente; che, alla luce dell'attuale crisi dei fattori di produzione e dell'energia, la Commissione deve prestare particolare attenzione alla situazione economica degli agricoltori europei;
AH. considerando che le attuali sfide geopolitiche dimostrano che la sicurezza alimentare non è una conquista permanente e che la produzione alimentare europea dovrebbe essere considerata un settore strategico ed essere preservata e rafforzata in tal senso; che il corretto funzionamento del mercato unico europeo è un presupposto inderogabile per garantire la sicurezza alimentare; che è opportuno riesaminare tutti gli ostacoli tariffari e non tariffari nel settore agroalimentare; che zone e comunità rurali più forti, dinamiche, resilienti e prospere sono fondamentali per la sicurezza e l'autonomia alimentari dell'Europa, nonché per la prosperità dell'Unione europea;
AI. considerando che l'agricoltura riveste una grande importanza per l'economia delle regioni ultraperiferiche dell'UE, che spesso sono confrontate a una situazione di particolare fragilità in relazione alla sicurezza alimentare; che, in virtù della natura della sicurezza alimentare, il costo di reagire dopo che i fatti sono avvenuti, è maggiore rispetto a quello di un intervento preventivo;
AJ. considerando che se intende scongiurare la destabilizzazione, la povertà alimentare, la carestia e i disordini sociali e politici in altri paesi, l'UE deve delineare una visione atta a garantire la sicurezza alimentare e nutrizionale nell'Unione e contribuire alla sicurezza alimentare a livello internazionale;
AK. considerando che il 20 % circa di tutti gli alimenti prodotti va perduto o sprecato; che oltre 36 milioni di persone non possono permettersi un pasto adeguato ogni due giorni; che il numero delle persone più indigenti è in aumento a causa della crisi economica in atto;
AL. considerando che le imprese alimentari impegnate nella logistica e nella distribuzione all'ingrosso nonché nella produzione e trasformazione industriale su larga scala sono state riconosciute come soggetti critici la cui resilienza va rafforzata, in quanto fornitori di servizi essenziali; che i mercati all'ingrosso sono soggetti di interesse pubblico che prestano, in vaste zone regionali e interregionali, un servizio essenziale per l'approvvigionamento e la distribuzione al consumatore finale di prodotti agricoli e ittici alimentari freschi e deperibili, garantendone la qualità e la conformità con le norme sanitarie; che, oltretutto, durante la pandemia di COVID-19 i mercati all'ingrosso hanno già dimostrato la loro resilienza e il ruolo vitale che svolgono garantendo la continuità dell'offerta e della distribuzione di alimenti;
AM. considerando che nel 2020 soltanto l'11,9 % del totale dei coltivatori diretti nell'UE aveva meno di 40 anni, mentre il 33,2 % di essi aveva un'età pari o superiore a 65 anni; che l'età media degli agricoltori europei è salita a 57 anni; che nel 2020 nell'UE vi erano 5,3 milioni di aziende agricole in meno rispetto al 2005, pari a un calo del 37 %; che tra il 2016 e il 2020 il numero dei coltivatori diretti è diminuito dell'11,2 %; che nella maggior parte degli Stati membri dell'UE si è registrata una diminuzione generale del numero di coltivatori diretti;
AN. considerando il ruolo cruciale che svolgono le donne nelle zone rurali; che, al fine di contrastare il declino annunciato di tali zone nell'UE, è indispensabile garantire alle donne il riconoscimento e la visibilità del loro lavoro e della comproprietà delle aziende agricole; che occorre promuovere interventi e misure anche per colmare il divario di genere nel settore agroalimentare e che è imperativo coinvolgere le donne nel processo decisionale a tutti i livelli in sede di elaborazione di piani e politiche;
Sfide per la sicurezza alimentare dell'UE
1. pone l'accento sulla resilienza del settore agroalimentare durante le recenti crisi e sulla sua capacità di assicurare il buon funzionamento delle filiere alimentari e di garantire la sicurezza alimentare in circostanze assai ardue; rileva che la pandemia di COVID-19 e l'invasione illegale dell'Ucraina da parte della Russia hanno messo in luce i problemi strutturali del settore agricolo europeo e comportano rischi sostanziali per i mercati agricoli degli Stati membri, soprattutto quelli geograficamente più vicini al teatro di guerra; invita pertanto il Consiglio, nel contesto della revisione del quadro finanziario pluriennale, a prendere in considerazione la possibilità di accelerare il processo di livellamento del sostegno della PAC verso la media dell'UE, al fine di consentire agli agricoltori degli Stati membri in cui tale processo non è ancora stato completato di far fronte alle sfide attuali; sottolinea che è necessaria un'azione immediata dell'Unione europea per proteggere la sicurezza alimentare da minacce quali i cambiamenti climatici e la perdita di biodiversità; pone l'accento sul fatto che la certezza di ecosistemi funzionali e la mitigazione dei cambiamenti climatici sono due aspetti fondamentali per la disponibilità e l'accessibilità economica degli alimenti, come anche per i mezzi di sussistenza rurali;
2. pone in evidenza la necessità che l'UE rafforzi la propria sicurezza alimentare, autonomia strategica e resilienza del proprio settore agricolo e dell'intera catena di approvvigionamento riducendo la dipendenza dalle importazioni dall'esterno dell'Unione e diversificando le forniture di importazioni critiche per la produzione, come concimi, mangimi e materie prime; sottolinea la necessità di evitare che le catene di approvvigionamento diventino uno strumento geopolitico per destabilizzare e compromettere la sicurezza alimentare mondiale, specialmente nei paesi più svantaggiati e vulnerabili; pone l'accento sulla necessità di rafforzare in modo sostenibile le filiere corte e regionali;
3. plaude all'adozione, in ragione delle circostanze eccezionali, di misure temporanee intese a sostenere gli agricoltori dell'UE, che dovrebbero essere mantenute se proseguirà l'invasione russa dell'Ucraina; insiste sul fatto che tali misure permetteranno agli agricoltori di rafforzare la sostenibilità della produzione agricola dell'UE e garantire la sopravvivenza delle aziende agricole durante la campagna di raccolta 2022-2023, il che contribuirà a preservare la sicurezza alimentare; invita la Commissione a presentare senza indugio un piano strategico olistico per garantire la sicurezza alimentare nell'UE, che potrebbe includere l'impiego di stock alimentari strategici; evidenzia la necessità di rafforzare la stabilità di fronte all'imprevedibilità dei raccolti dovuta ai cambiamenti climatici e ad altri fattori, che possono essere aggravati dalla speculazione;
4. esorta la Commissione a individuare i settori più gravemente colpiti dalla crisi e ad adottare tutti i provvedimenti necessari per permettere di fornire loro un sostegno urgente e più consistente;
5. sottolinea che la dipendenza alimentare aggrava l'indebitamento dei paesi in via di sviluppo, mettendo così a repentaglio i risultati conseguiti in materia di sicurezza alimentare; invita la Commissione e gli Stati membri a valutare tutti i mezzi disponibili per evitare inadempienze nella bilancia dei pagamenti dei paesi importatori di prodotti alimentari, compresi la riduzione del debito sotto l'egida di iniziative internazionali, il finanziamento diretto e la ristrutturazione del loro debito; ribadisce l'importanza dei finanziamenti basati sulle sovvenzioni in particolare per i paesi meno sviluppati;
6. si compiace del nuovo quadro temporaneo di crisi per aiutare i produttori europei a far fronte agli effetti della guerra in Ucraina, ma sottolinea la necessità di individuare nuove fonti di sostegno finanziario per garantire la sicurezza alimentare dell'Europa e dei paesi terzi; sottolinea la situazione critica dei mercati dei suini e del latte in alcuni Stati membri e chiede un sostegno finanziario diretto e immediato a favore di tali settori;
7. ricorda il principio della coerenza delle politiche per lo sviluppo (CPS) sancito dall'articolo 208 TFUE, il quale precisa che "l'Unione tiene conto degli obiettivi della cooperazione allo sviluppo nell'attuazione delle politiche che possono avere incidenze sui paesi in via di sviluppo", e l'importanza di assicurare la coerenza tra tutte le politiche dell'UE al fine di garantire l'efficacia della cooperazione allo sviluppo a vantaggio dei paesi in via di sviluppo e di aumentare l'efficacia dell'impegno dell'Unione europea a favore della sicurezza alimentare globale; insiste sul fatto che garantire la CPS per la sicurezza alimentare è importante per contribuire alla salvaguardia dei diritti umani fondamentali e alla prevenzione delle crisi umanitarie;
Un'agricoltura sostenibile e resiliente
8. sottolinea l'importanza cruciale del settore agroalimentare nell'economia e per la creazione di opportunità di lavoro dignitose e sostenibili, in condizioni di sicurezza del lavoro, nelle zone rurali; osserva che i crescenti costi dei fattori di produzione agricoli si aggiungono ai costi già elevati della produzione e compromettono il reddito degli agricoltori; invita la Commissione ad adottare le misure necessarie per fornire agli agricoltori la certezza di pianificazione della produzione, nonché sufficienti risorse finanziarie e garanzie per poter mantenere e, se necessario, incrementare la produzione alimentare, rafforzare i sistemi agricoli sostenibili, accrescere la diversità delle colture alimentari dell'UE e migliorare la qualità dei prodotti, rifiutando al contempo le imitazioni artificiali e industriali;
9. invita la Commissione altresì a provvedere affinché i terreni agricoli rimangano disponibili principalmente per la produzione sostenibile di alimenti e mangimi, dal momento che tali terreni contribuiscono alla conservazione della biodiversità e, al contempo, alla sicurezza alimentare, e possano contribuire altresì a ridurre la dipendenza energetica dell'UE; sottolinea la necessità di prendere in considerazione tale aspetto in tutte le proposte legislative pertinenti, che devono tenere conto sia della necessità di ridurre le emissioni di gas a effetto serra che di invertire la tendenza alla perdita di biodiversità, in linea con la strategia "Dal produttore al consumatore" e la strategia sulla biodiversità, sia della necessità di garantire la sicurezza alimentare a lungo termine e di conformarsi agli obiettivi della PAC; invita pertanto la Commissione, nell'attuazione del Green Deal europeo, a garantire la diversificazione dei modelli agricoli nell'intera UE e ad assicurare il mantenimento dell'imprenditorialità e dell'attività agricola in tutta l'Unione sotto il profilo strategico, in termini di sicurezza alimentare;
10. invita la Commissione a tenere conto in particolare dei modelli agricoli ad alta efficienza nelle zone con terreni agricoli fertili, in cui gli alimenti sono prodotti in maniera sostenibile; pone l'accento sulla necessità di condizioni di attuazione specifiche per l'agricoltura nelle zone urbanizzate, in cui le aziende agricole a conduzione familiare sono confrontate a costi più elevanti e ad altre sfide;
11. rileva che, in ragione della crescente urbanizzazione e di una popolazione mondiale in aumento, si è assistito a una drastica riduzione delle terre disponibili per l'agricoltura e che è possibile produrre in misura nettamente maggiore su superfici ridotte mediante un'intensificazione sostenibile o un'agricoltura urbana;
12. mette in luce le potenzialità dell'agricoltura verticale per la produzione alimentare, che non dipende dal clima e dalle stagioni e che potrebbe ottenere raccolti più abbondanti utilizzando minori quantità di acqua e antiparassitari; chiede un maggiore riconoscimento dell'agricoltura verticale nelle strategie dell'UE, nonché delle iniziative intese a incrementare gli investimenti nelle attività di ricerca e sviluppo (R&S) di tale pratica agricola;
13. ricorda che una normativa a favore di un'agricoltura a basso tenore di carbonio deve poter essere facilmente applicabile dai soggetti interessati e potrebbe contribuire a migliorare la sicurezza alimentare dell'Europa garantendo che gli agricoltori siano pagati meglio, consentendo nel contempo al settore agricolo di svolgere un ruolo importante nel contesto della riduzione delle emissioni di gas a effetto serra; deplora tuttavia che, nella sua proposta, la Commissione non abbia tenuto conto della riduzione delle emissioni nelle aziende agricole, includendovi unicamente il sequestro;
14. sottolinea l'importanza della protezione e della promozione del diritto delle comunità locali alla sicurezza alimentare; deplora, in tale contesto, che il fenomeno dell'accaparramento delle terre sia diffuso in numerosi paesi, il che mina la sovranità alimentare; invita l'UE a sostenere fermamente la prevenzione dell'accaparramento delle terre; insiste sull'importanza di avviare un processo inclusivo con l'obiettivo di garantire l'effettiva partecipazione delle organizzazioni della società civile e delle comunità locali allo sviluppo, all'attuazione e al monitoraggio delle politiche e delle azioni in relazione all'accaparramento delle terre; chiede che le direttive volontarie per una governance responsabile dei regimi di proprietà applicabili alle terre, alla pesca e alle foreste nel contesto della sicurezza alimentare nazionale (Voluntary Guidelines on the Responsible Governance on Tenure – VGGT) siano attuate in tutti i progetti che promuovono la tutela dei diritti fondiari, anche nel commercio, e che siano introdotte misure atte a garantire che i progetti in questione non mettano a repentaglio i diritti fondiari dei piccoli agricoltori.
15. invita la Commissione ad assicurare che la futura legge quadro dell’UE sui sistemi alimentari sostenibili promuova considerazioni sociali e ambienti alimentari favorevoli, in cui gli alimenti sani e sostenibili siano i più disponibili, convenienti, pubblicizzati e attraenti e favorisca filiere brevi e il consumo di prodotti locali e stagionali;
16. fa osservare che il reddito agricolo nell'UE continua a essere inferiore alla metà dei salari e degli stipendi lordi nell'Unione e che pertanto, viste le tendenze inflazionistiche, occorre concentrarsi ancora di più sulla sostenibilità economica;
17. sottolinea la necessità che il valore del cibo sia inteso anche come un qualcosa di ben superiore a un semplice prodotto commerciale, ma come diritto umano da rispettare, come pure la necessità di valutare, attenuare e, all'occorrenza, sfruttare meglio le incidenze economica, sociale e ambientale e le esternalità;
18. constata che il Green Deal europeo potrebbe costituire una pietra miliare nella transizione dell'UE verso un'economia e un'agricoltura più verdi, più sostenibili e più resilienti; fa osservare tuttavia che alcune delle misure proposte potrebbero avere effetti indesiderati, che non sono ancora stati adeguatamente valutati e individuati a livello di azienda agricola, in particolare sulla necessità di garantire la sicurezza alimentare a lungo termine e la redditività delle aziende agricole, soprattutto quelle di piccole e medie dimensioni; invita pertanto la Commissione a effettuare una valutazione esaustiva degli effetti cumulativi delle proposte legislative del Green Deal europeo sul settore agricolo dell'UE in maniera olistica e sistematica, abbracciando tutte le dimensioni della sostenibilità, soprattutto gli effetti ambientale, economico e sociale, onde garantire la sicurezza alimentare e nutrizionale, la redditività delle aziende agricole e la produzione agricola nell'Unione; invita la Commissione ad evitare situazioni in cui gli agricoltori europei subiscono una concorrenza sleale da importazioni che non rispettano la nostre norme;
19. insiste sulla necessità di misure proporzionate, una transizione giusta e un calendario adeguato per meccanismi di adattamento ed equa retribuzione al fine di mantenere la competitività, la produttività e la resilienza sociale del settore agroalimentare dell'UE;
20. sottolinea che le pratiche agro-climatico-ambientali, quali l'agroecologia, l'agrosilvicoltura, la difesa integrata, l'agricoltura biologica, l'agricoltura di precisione e il sequestro del carbonio dai terreni agricoli, hanno la potenziale capacità di affrontare le sfide in materia di clima, biodiversità, ambiente, economia e società; insiste sull'importanza di effettuare investimenti efficienti e ben mirati nell'attenuazione, nonché in misure di adattamento, al fine di ridurre i rischi ed evitare costi considerevoli sul lungo periodo;
21. invita la Commissione a fornire agli agricoltori migliori strumenti che consentano loro di contribuire sempre di più alla transizione ecologica attualmente in atto: fa osservare in tale contesto che gli agricoltori devono essere in grado di contribuire (al di là dell'autoconsumo) alla produzione di energia nell'UE, in particolare quella da fonti rinnovabili, in modo da poter imprimere un effettivo slancio allo sviluppo di pratiche di economia circolare ed energia pulita; ritiene inoltre che sia necessario garantire agli agricoltori e alle loro organizzazioni rappresentative un effettivo coinvolgimento nella designazione delle aree idonee;
22. insiste sul fatto che la sicurezza alimentare include anche la necessità che gli alimenti siano sani e nutritivi e che dovrebbe essere considerata in una prospettiva a breve, medio e lungo termine;
23. chiede che si tenga conto del nesso tra salute pubblica e biodiversità in linea con l'approccio "One Health";
24. chiede la rigorosa applicazione del principio "One Health" che integra la salute umana, la salute degli animali e le questioni ambientali in tutte le politiche che incidono sulla disponibilità e l'accessibilità degli alimenti; insiste sulla necessità che la sicurezza alimentare non sia mai messa a repentaglio ed evidenzia l'importanza di orientare le politiche in modo giusto ed equo dal punto di vista socioeconomico verso la promozione di alimenti nutrienti e a prezzi accessibili, prodotti in modo sostenibile per il lungo periodo, in linea con la conservazione della biodiversità e le soluzioni agro-ecologiche; insiste sull'importanza di un'etichettatura idonea e trasparente che aiuti i consumatori a compiere scelte sane;
Ricambio generazionale
25. esprime profonda preoccupazione per il calo del numero di aziende agricole e di coltivatori diretti, associato all'aumento dell'età media degli agricoltori europei; sottolinea che, a lungo termine, la priorità fondamentale per garantire la sicurezza alimentare europea è il ricambio generazionale;
26. esorta la Commissione a elaborare una strategia dell'UE ambiziosa e globale sul ricambio generazionale nel settore agricolo, volta ad aumentare il numero di giovani agricoltori e a migliorare le loro competenze e abilità, soprattutto per sfruttare appieno le possibilità offerte dall'agricoltura intelligente e dall'intelligenza artificiale; invita la Commissione a includere una verifica delle ripercussioni socioeconomiche sui giovani agricoltori in tutte le future normative agricole, climatiche o ambientali;
27. fa osservare che la mancanza di accesso alla terra, una remunerazione insufficiente che non consente una vita dignitosa, migliori opportunità di lavoro extra-agricolo e crescenti oneri normativi sono fattori chiave che spiegano perché un numero sempre crescente di agricoltori si vede costretto ad abbandonare il settore e perché sempre meno persone sono propense a dedicarsi all'agricoltura; evidenzia l'importanza di garantire che gli agricoltori abbiano una fonte di reddito prevedibile e possano vivere della loro attività;
28. richiama l'attenzione sulla necessità di incrementare gli investimenti, anche nella digitalizzazione; invita la Commissione, in tale contesto, a elaborare, in stretta cooperazione con gli Stati membri, orientamenti volti a facilitare la creazione di sinergie tra le sezioni di finanziamento nel quadro della PAC e quelle previste dalla politica di coesione;
29. invita la Commissione a comunicare gli interventi in materia di sicurezza alimentare in maniera coerente e coordinata; ricorda alla Commissione di valutare gli effetti sulle procedure e la sicurezza alimentare nella sua proposta legislativa;
Strategia dell'UE in materia di proteine
30. invita la Commissione a presentare una strategia globale dell'UE in materia di proteine e mangimi che includa misure efficaci per incrementare la produzione europea nel breve, medio e lungo termine; ritiene che tale strategia debba concentrarsi sulla produzione nazionale per sfruttarne appieno il potenziale e ridurre la dipendenza dalle importazioni da paesi terzi; ritiene altresì che la strategia debba preservare o incrementare i redditi degli agricoltori derivanti da una produzione sostenibile;
31. ritiene che la Commissione debba valutare le possibilità di massimizzare le sinergie con la produzione di energia da fonti rinnovabili dell'UE, onde accrescere la disponibilità di mangimi a elevato contenuto proteico; sottolinea che una forte dipendenza dalle importazioni di alimenti e mangimi espone la popolazione alle volatilità dei mercati globali; insiste sulla necessità, in ragione delle perturbazioni delle catene di produzione globali e della maggiore volatilità dei prezzi, di sviluppare un'autonomia strategica aperta per l'UE al fine di garantire l'accesso ai mercati chiave e ridurre la dipendenza dalle importazioni di beni critici come le fonti proteiche vegetali e i mangimi;
Nuove pratiche colturali
32. riconosce l'importanza di rendere le colture più resilienti ai cambiamenti climatici e ai nuovi agenti patogeni, di aumentare e mantenere i rendimenti nel breve e lungo termine, in particolare alla luce dei periodi di siccità e della carenza idrica che colpiscono un numero crescente di Stati membri dell'UE; ricorda che ciò dipende dal ripristino e dalla conservazione della biodiversità, dalla salute del suolo e dall'applicazione di metodi agroecologici e biologici, e sottolinea l'importanza della sicurezza e della varietà delle sementi; sottolinea che i selezionatori e gli agricoltori devono avere un accesso garantito a sementi di qualità di varietà vegetali adattate alle pressioni dei cambiamenti climatici e a sistemi agricoli a basso apporto di fattori di produzione, compresi le varietà tradizionali e adattate alle condizioni locali e il materiale eterogeneo; evidenzia che essi devono avere un accesso garantito alle risorse genetiche necessarie per proseguire la selezione;
33. sottolinea che le pratiche di coltivazione innovative ed efficienti nell'impiego delle risorse in ambienti controllati e chiusi richiedono un approvvigionamento sicuro di materie prime per i substrati di coltivazione; ritiene opportuno garantire la produzione e l'approvvigionamento di tali materie nell'UE;
34. invita la Commissione a sostenere l'uso mirato e l'ulteriore sviluppo di nuove tecniche di selezione in agricoltura; chiede che l'Unione acceleri l'adozione di una legislazione sull'uso di nuove tecniche di selezione in collaborazione con gli Stati membri, nel rispetto del principio di precauzione, al fine di aumentare i rendimenti in modo sostenibile e di rendere le colture più resilienti ai cambiamenti climatici e ai nuovi agenti patogeni, in particolare alla luce degli organismi nocivi, dei periodi di siccità, delle inondazioni, della carenza idrica e delle altre condizioni meteorologiche estreme che colpiscono un numero crescente di Stati membri dell'UE; evidenzia che nuove tecniche di selezione possono promuovere l'agricoltura sostenibile, che non è possibile senza l'innovazione;
35. sottolinea l'importanza di garantire che i risultati della ricerca siano integrati nelle pratiche agricole, in quanto ciò svolgerebbe un ruolo importante nel conseguimento degli obiettivi del Green Deal europeo, sviluppando un'agricoltura più sostenibile, anche offrendo agli agricoltori europei alternative per ridurre l'uso di fertilizzanti e pesticidi sintetici;
36. evidenzia l'importanza di assicurare un accesso paritario alle innovazioni tecnologiche e scientifiche in grado di migliorare la resistenza delle varietà e di promuovere la diversità delle risorse genetiche e dei sistemi di produzione alimentare, in conformità delle norme dell'UE in materia di sicurezza alimentare;
37. invita la Commissione a valutare meglio gli effetti degli organismi geneticamente modificati sulla salute, la biodiversità e l'inclusione sociale, nonché sulla libertà di scelta degli agricoltori e dei consumatori;
38. chiede un'analisi completa degli effetti socioeconomici e ambientali che i brevetti relativi ai processi di selezione, al materiale di moltiplicazione delle piante e a parti degli stessi hanno sul sistema alimentare, compreso il loro potenziale in termini di aumento della concentrazione del mercato e della monopolizzazione nella filiera alimentare, nonché sull'accessibilità economica e la disponibilità dei prodotti alimentari;
39. ritiene che l'applicazione mirata di nuove tecniche genomiche e l'approvazione di sementi che impiegano tali tecniche nell'UE siano misure importanti per rendere l'agricoltura sostenibile nel contesto del Green Deal europeo e della strategia "Dal produttore al consumatore";
40. invita la Commissione a promuovere un dialogo a livello europeo sulle opportunità offerte dai nuovi metodi di selezione nella lotta ai cambiamenti climatici e nella sensibilizzazione dell'opinione pubblica in merito alle differenze tra le piante transgeniche e i nuovi metodi di selezione;
41. sottolinea l'importanza della sicurezza e della varietà delle sementi, e in particolare della promozione delle proteine vegetali coltivate nell'UE ai fini della produzione di alimenti e mangimi di provenienza locale ad alto valore nutrizionale, garantendo agli agricoltori l'accesso a sementi di qualità di varietà vegetali adattate alle pressioni dei cambiamenti climatici e a sistemi agricoli a basso apporto di fattori di produzione, compresi le varietà tradizionali e adattate alle condizioni locali e il materiale eterogeneo;
42. invita l'UE e i suoi Stati membri a non concedere brevetti relativi a materiale biologico; chiede loro di salvaguardare la libera attuazione e l'esenzione dei selezionatori per le varietà;
Intelligenza artificiale e agricoltura di precisione
43. evidenzia che le tecnologie digitali e l'agricoltura di precisione possono offrire soluzioni lungimiranti a sfide fondamentali, in quanto consentono di monitorare la deforestazione, di ridurre l'impiego di pesticidi e fertilizzanti come pure il consumo di acqua in agricoltura, di accrescere i rendimenti e di migliorare le prestazioni economiche e ambientali; sottolinea che tali tecnologie spesso comportano elevati costi di investimento iniziali e che sono pertanto necessarie soluzioni adeguate e finanziamenti aggiuntivi per gli agricoltori affinché siano accessibili, anche economicamente, per le aziende agricole a conduzione familiare e di piccole dimensioni; pone in evidenza che tali tecnologie dovrebbero essere accessibili ai piccoli agricoltori e che gli agricoltori mantengono sempre i diritti sui loro dati;
44. invita la Commissione a intensificare l'uso dell'innovazione digitale sostenibile per modernizzare l'agricoltura dell'UE, consentendo agli agricoltori di realizzare appieno il loro potenziale produttivo e di salvaguardare i loro redditi nel contesto della transizione verde, anche attraverso l'ottimizzazione del ciclo dei nutrienti, garantendo nel contempo l'inclusione digitale; sottolinea che tali nuove tecnologie possono anche offrire agli agricoltori europei soluzioni alternative per aiutarli a soddisfare nuove esigenze, segnatamente in termini di riduzione dell'uso dei pesticidi e dei fattori di produzione;
45. sottolinea che i dati spaziali e le tecnologie di intelligenza artificiale possono essere una fonte di informazioni preziose per l'agricoltura e l'intera filiera alimentare, con tecnologie che consentono la circolazione delle informazioni dal produttore al consumatore e viceversa, migliorano il funzionamento dell'intera catena del valore e riducono gli sprechi e i costi logistici; evidenzia tuttavia che attualmente il loro utilizzo resta alquanto limitato, poiché nella maggior parte dei casi tali dati e tecnologie non sono disponibili gratuitamente o risultano troppo complessi per essere impiegati dalle aziende agricole o dalle autorità locali; chiede che l'utilizzo e la disponibilità di tali dati e tecnologie siano rafforzati al fine di sostenere gli agricoltori nelle transizioni verde e digitale e di garantire la resilienza dell'agricoltura dell'UE; chiede la creazione di uno spazio dei dati sicuro e affidabile per consentire al settore agricolo di condividere dati e accedervi, migliorando così le prestazioni economiche e ambientali in tale ambito;
Logistica
46. invita l'UE a riconoscere l'importanza strategica dei centri logistici, in particolare dei mercati all'ingrosso, in quanto parte integrante e complementare della produzione agricola primaria, senza la quale gli agricoltori e le imprese di trasporto non sarebbero in grado di garantire un approvvigionamento costante che soddisfi le esigenze dei consumatori;
47. chiede che si investa in infrastrutture per impianti di trasporto e di stoccaggio più sostenibili per i prodotti agricoli freschi o di altro tipo, contribuendo così anche a ridurre gli sprechi alimentari e l'impronta ambientale del settore; invita l'UE, in tale contesto, a riconoscere le differenze regionali, a stimolare la produzione alimentare locale e a tenere conto delle zone scarsamente popolate e delle loro esigenze;
Pesticidi
48. riconosce che l'adozione di nuove norme volte a ridurre i rischi associati ai pesticidi e il loro utilizzo nell'Unione, con l'obiettivo di conseguire un sistema alimentare più equo, sano e rispettoso dell'ambiente in linea con il Green Deal europeo, risponde a una forte domanda da parte della società;
49. sottolinea che il numero di impollinatori è in calo in tutta Europa e pone l'accento sull'urgente necessità di proteggere le api e gli impollinatori, in particolare promuovendo il controllo biologico degli organismi nocivi e riducendo i rischi associati ai pesticidi e il loro utilizzo; evidenzia tuttavia che la Commissione ha presentato una proposta legislativa contenente obiettivi vincolanti di riduzione dell'uso di pesticidi, compreso il divieto di utilizzarli nelle cosiddette aree sensibili, senza aver prima offerto agli agricoltori alternative economicamente accessibili e sufficientemente efficaci per il controllo biologico degli organismi nocivi né aver tenuto conto delle ripercussioni che l'assenza di strumenti per la protezione delle piante dagli organismi nocivi potrebbe avere sulla sicurezza alimentare dell'UE, sulla sua dipendenza dalle importazioni di paesi terzi e sulla sua capacità di mantenere un'adeguata salute delle piante; sottolinea che tale proposta non tiene conto delle specificità regionali dell'agricoltura europea e non prevede una valutazione d'impatto globale che comprenda la quantificazione degli effetti sulla produzione alimentare, la competitività dell'agricoltura dell'UE, il potenziale impatto sugli agricoltori, la dipendenza dalle importazioni alimentari, i prezzi dei prodotti alimentari e la diffusione di organismi nocivi; ricorda che la limitazione dell'uso dei pesticidi nelle aree sensibili è già regolamentata nella legislazione di taluni Stati membri;
50. pone l'accento sul ruolo chiave della difesa integrata nella riduzione della dipendenza dai pesticidi ed esorta gli Stati membri a garantirne la corretta applicazione; invita la Commissione a garantire che gli agricoltori siano sostenuti con risorse finanziarie e di altro tipo nella transizione verso tali pratiche;
51. esprime preoccupazione per l'ambigua definizione di "aree sensibili" fornita dalla Commissione e per le modalità di utilizzo previste per i prodotti fitosanitari in tali aree, che di fatto potrebbero determinare una riduzione della produzione agricola e pertanto un calo dei redditi degli agricoltori nonché, nel medio e lungo termine, la scomparsa delle aziende agricole di piccole e medie dimensioni, un maggiore rischio di abbandono delle aziende agricole, un aumento della concorrenza sleale, un incremento dei prezzi dei prodotti alimentari e una crescita delle importazioni dai paesi terzi, tutti fattori che incidono direttamente sulla sicurezza alimentare;
52. invita la Commissione ad assicurare la disponibilità di una quantità sufficiente di prodotti fitosanitari efficaci accelerando il processo di autorizzazione ed evitando i ritardi, al fine di disporre di strumenti adeguati contro gli organismi nocivi e le malattie, e a garantire un approccio basato su dati scientifici e armonizzato all'accesso ai prodotti fitosanitari in tutta l'UE;
53. sottolinea che la disponibilità di una quantità sufficiente di prodotti fitosanitari efficaci rimarrà indispensabile per proteggere le colture da nuovi organismi nocivi e malattie, onde evitare perdite di produzione alimentare; è preoccupato che ulteriori limitazioni della disponibilità di prodotti fitosanitari possano minare gli sforzi compiuti per applicare l'approccio olistico alla difesa integrata;
54. condanna il fatto che l'UE applichi due pesi e due misure in materia di pesticidi, il che consente l'esportazione dall'UE delle stesse sostanze pericolose che sono vietate nel suo territorio; invita la Commissione a garantire la reciprocità negli accordi commerciali internazionali, in particolare per quanto riguarda l'agricoltura e i prodotti agricoli, e a dare l'esempio assicurando che i pesticidi pericolosi vietati nell'UE non siano esportati nei paesi partner, evitando così che nei prodotti alimentari sul mercato dell'Unione siano tollerati residui di pesticidi vietati e rafforzando il meccanismo di esecuzione dei capitoli sul commercio e lo sviluppo sostenibile;
Formazione e condivisione delle conoscenze
55. invita la Commissione a prendere atto dell'importanza di una formazione attiva lungo tutto l'arco della vita per gli agricoltori e del sostegno alle nuove pratiche di mitigazione e di coltivazione, al fine di rafforzare l'attrattiva del settore agricolo e delle zone rurali; sottolinea che la condivisione e il trasferimento delle conoscenze tra pari su questioni quali la gestione del territorio, l'adattamento e la mitigazione dei cambiamenti climatici, le pratiche agroecologiche e le catene del valore eque e resilienti potrebbero essere un fattore chiave nella promozione di una produzione agroalimentare più sostenibile, salvaguardando nel contempo la produttività agricola;
Filiera alimentare
56. evidenzia che la Commissione deve adottare misure aggiuntive per sviluppare una filiera alimentare più resiliente, trasparente ed equa, in particolare rafforzando la posizione dei produttori primari lungo l'intera filiera alimentare; invita gli Stati membri e la Commissione a garantire l'effettiva applicazione della direttiva sulle pratiche commerciali sleali e a prendere in considerazione l'adozione di misure intese a contrastare la speculazione alimentare; ritiene che le organizzazioni di produttori, che possono includere le cooperative, possano contribuire a rafforzare il ruolo degli agricoltori come imprenditori nella filiera alimentare, apportando un valore aggiunto attraverso misure innovative e ottimizzando i costi di produzione attraverso la messa in comune di servizi e acquisti;
57. sottolinea la necessità di sfruttare appieno i programmi scolastici per garantire che i bambini indigenti abbiano accesso ai prodotti alimentari; evidenzia inoltre che i programmi di appalti pubblici contribuiscono a promuovere il sostegno pubblico agli acquisti da piccoli agricoltori e produttori locali, ai fini di un approvvigionamento di prodotti alimentari nutrienti destinati alla distribuzione, contrastando così l'insicurezza alimentare;
Le donne nelle zone rurali
58. sottolinea l'importanza di colmare il divario di genere nel settore agroalimentare investendo nelle donne e promuovendo misure volte ad attrarre un maggior numero di donne nel settore; pone l'accento sulla necessità di sostenere l'imprenditorialità, l'occupazione e la rappresentanza politica delle donne; sottolinea la necessità di garantire l'inclusione di una prospettiva di genere nella gestione della sicurezza alimentare e di assicurare la partecipazione delle donne al processo decisionale in questo settore;
59. sottolinea che sostenibilità è sinonimo di equilibrio tra lo sviluppo economico, l'impatto ambientale e l'uguaglianza sociale, compresa la giustizia di genere; evidenzia gli impatti negativi di genere dell'aumento dell'insicurezza alimentare, in quanto le donne tendono a ridurre il proprio consumo di cibo in tempi di penuria alimentare e che le donne e le ragazze costituiscono il 60 % delle persone malnutrite; constata che il 60 % delle donne che vivono nell'Africa subsahariana lavora nel settore agricolo ed è altamente vulnerabile agli effetti dei cambiamenti climatici sulla propria sicurezza alimentare e idrica;
Strategia in materia di fertilizzanti
60. sottolinea che il settore dei fertilizzanti è fondamentale per garantire la sicurezza alimentare a livello mondiale; si compiace che la Commissione, nella sua comunicazione dal titolo "Garantire la disponibilità e l'accessibilità economica dei concimi" (COM(2022)0590), abbia incluso una strategia per aiutare gli agricoltori a far fronte ai costi eccezionalmente elevati; ritiene tuttavia che la comunicazione, pur contenendo alcune valide raccomandazioni politiche a medio e lungo termine, non comprenda misure volte a ridurre la dipendenza da fattori di produzione esterni sempre più costosi, non definisca tappe concrete e non proponga adeguate misure immediate per sostenere gli agricoltori nel contesto dell'attuale crisi, il che potrebbe avere ripercussioni molto gravi sulla sicurezza alimentare; sottolinea, a tal proposito, l'importanza della prossima revisione del quadro finanziario pluriennale (QFP);
61. invita la Commissione a definire una visione a lungo termine per il conseguimento dell'autonomia strategica nel settore dei fertilizzanti, al fine di incentivare l'industria a riorientarsi verso metodi di produzione più sostenibili; sottolinea che le pratiche agricole e le fonti alternative di nutrienti possono migliorare i cicli dei nutrienti e ridurre la dipendenza dai fertilizzanti chimici, riducendo così la dipendenza dalle importazioni di fertilizzanti; evidenzia, in tale contesto, la necessità di sostenere ulteriormente la ricerca e l'innovazione a livello dell'UE; sottolinea che, per garantire la produzione alimentare nel lungo termine, occorre utilizzare e sviluppare appieno le risorse prontamente disponibili e prodotte all'interno dell'UE, come i fertilizzanti biologici;
62. invita la Commissione a innalzare i valori limite per l'applicazione di fertilizzanti azotati derivati dal letame animale, quale il RENURE (azoto recuperato dal letame), del digestato da rifiuti organici e di qualsiasi altra fonte efficace e verificata; chiede che la Commissione, nel frattempo, conceda una deroga temporanea per ridurre il costo dei fertilizzanti e si adoperi al contempo per introdurre disposizioni quadro a lungo termine volte a promuovere un'economia circolare nelle aziende agricole e a ridurre la dipendenza dalle risorse di paesi terzi; sottolinea che tali misure a più lungo termine dovrebbero includere l'elaborazione di strategie di intervento agricolo, compresi gli aspetti legati ai piani di gestione dei nutrienti, al ripristino del suolo, all'agricoltura di precisione, all'agricoltura biologica e all'uso di leguminose nei sistemi di rotazione delle colture, ed essere accompagnate da periodi di transizione sufficienti ed equi;
63. riconosce che l'industria dei fertilizzanti nell'UE deve avere accesso alle materie prime necessarie per assicurare la produzione di fertilizzanti all'interno dell'Unione e garantire che le prospettive di raccolto dell'UE non siano compromesse;
64. plaude all'intenzione della Commissione di reperire nutrienti fondamentali quali il fosfato e il potassio da altre fonti e la invita ad accelerare tale processo per prevenire future carenze;
Lotta contro le perdite e gli sprechi alimentari
65. ribadisce che circa un terzo di tutti i prodotti alimentari a livello mondiale viene perso o sprecato in qualche fase della filiera alimentare dal produttore al consumatore; richiama l'attenzione sul fatto che le perdite e gli sprechi alimentari possono essere evitati se si adotta un approccio olistico, comprese misure sull'uso di imballaggi sostenibili e riciclabili, e se si prevengono e gestiscono le malattie animali; ritiene che le perdite e gli sprechi alimentari possano essere minimizzati anche adottando provvedimenti per ridurre la presenza di agenti patogeni nei prodotti alimentari, ad esempio attraverso una corretta igiene e l'uso di tecnologie perfezionate lungo l'intera catena del valore;
66. sottolinea gli effetti positivi che il sostegno alla produzione locale e al consumo di prodotti stagionali e locali provenienti da filiere alimentari corte ed autentiche può avere sulla riduzione degli sprechi alimentari; pone l'accento sugli effetti positivi dell'educazione dei consumatori in tal senso; rammenta che la riduzione degli sprechi alimentari sarebbe un passo importante verso la sicurezza alimentare a livello mondiale; invita pertanto la Commissione a promuovere campagne volte a sensibilizzare produttori, consumatori e dettaglianti in merito all'importanza di evitare qualsiasi tipo di spreco alimentare e alle ripercussioni economiche, sociali e ambientali di tale spreco; invita la Commissione a sostenere gli Stati membri nell'attuazione di efficaci programmi di prevenzione degli sprechi alimentari; sottolinea che gli Stati membri dovrebbero anche misurare in modo più efficace il volume degli sprechi alimentari e monitorare questi ultimi lungo l'intera catena di approvvigionamento; invita in particolare i supermercati ad affrontare con urgenza la questione degli sprechi alimentari evitabili ricorrendo a soluzioni alternative, come la collaborazione con progetti delle comunità locali quali i banchi alimentari, per alleviare la povertà e l'insicurezza alimentari a livello locale;
67. reputa urgente adottare le misure necessarie per cambiare la percezione dei "prodotti alimentari imperfetti", ovvero i prodotti che hanno un aspetto non conforme agli standard di mercato, seppur ciò non incida sul loro gusto o valore nutrizionale, nonché modificare la normativa relativa alle date di consumo raccomandato e preferibile riportate sulle etichette dei prodotti alimentari;
68. sottolinea che, secondo le stime del WOAH, circa il 20 % della produzione alimentare mondiale va perso a causa delle malattie degli animali d'allevamento e che la riduzione dell'incidenza di tali malattie è pertanto una delle priorità da tenere in considerazione per nutrire la popolazione mondiale;
Biocarburanti
69. invita la Commissione a elaborare uno scenario realistico per la produzione di biocarburanti, che tenga conto della strategia dell'UE in materia di proteine, dal momento che la cessazione della produzione di biocarburanti comporterebbe anche l'abbandono dei sottoprodotti a elevato tenore proteico, aggravando così notevolmente la crisi alimentare anziché contribuire ad alleviarla; invita l'UE ad attribuire priorità alla produzione alimentare rispetto alla produzione di biocarburanti da colture alimentari;
70. sottolinea il ruolo importante svolto dagli agricoltori nella produzione delle energie rinnovabili nell'UE, nonché la necessità di eliminare gli attuali limiti dell'autoconsumo, al fine di permettere un contributo concreto allo sviluppo delle migliori pratiche in termini di economia circolare e produzione di energia rinnovabile;
Allevamento
71. invita la Commissione, gli Stati membri e gli attori economici a riflettere in modo strategico sulla collocazione dell'allevamento sostenibile in tutti i territori europei, tenendo conto, in particolare, del suo ruolo nel ciclo dell'azoto e nella fornitura di ammendanti organici alle colture, dell'uso ottimale di tutti i tipi di suoli agricoli e della promozione di un regime alimentare diversificato ed equilibrato; invita la Commissione e gli Stati membri a destinare finanziamenti pubblici sufficienti a tutti i settori agricoli al fine di evitare effetti negativi, compreso un calo della produzione alimentare dell'UE che potrebbe compromettere la sicurezza alimentare;
72. ricorda l'importanza di un sistema di benessere degli animali di alta qualità, compresi il trasporto e la macellazione; apprezza la revisione prevista della legislazione dell'UE in materia di benessere degli animali, compreso l'aggiornamento di quella vigente, e sottolinea la necessità di elaborare, attuare e applicare una legislazione rafforzata e nuova, specifica per specie, in quanto, in generale, la legislazione vigente non è attuata e applicata in maniera efficace; pone l'accento sull'importanza di tenere conto degli ultimi progressi nella scienza in materia di benessere degli animali e di rispondere alle richieste pubbliche, politiche e di mercato di norme più rigorose sul benessere degli animali e di un aggiornamento dei sistemi di stabulazione del bestiame e delle pratiche di produzione;
Risorse naturali
73. sottolinea il contributo alla sicurezza alimentare apportato da un'agricoltura maggiormente orientata alla sostenibilità ed efficiente, che preservi le risorse naturali come il suolo, l'acqua e le foreste e sfrutti le opportunità offerte dalla bioenergia sostenibile e dalla bioeconomia sostenibile; invita la Commissione e gli Stati membri a garantire una sostenibilità ambientale, economica e sociale che permetta un equilibrio e generi sinergie nell'attuazione della legislazione che riguarda il settore agricolo;
74. invita la Commissione a istituire un programma specifico per sostenere gli Stati membri nel miglioramento della gestione delle risorse idriche nell'agricoltura, del risparmio idrico e della capacità di stoccaggio dell'acqua, completando, modernizzando e ottimizzando gli impianti di irrigazione esistenti e promuovendo nuove infrastrutture, nel rispetto delle norme ambientali applicabili e migliorando la capacità di stoccaggio delle acque del suolo, aumentando la resilienza del sistema di produzione agricola e garantendo l'approvvigionamento idrico; invita la Commissione a sostenere lo sviluppo, lo stoccaggio e l'utilizzo delle acque reflue trattate per l'agricoltura; chiede un'attuazione accelerata della politica di coesione e misure specifiche in materia di sviluppo infrastrutturale al fine di contrastare la siccità estrema in Europa;
75. sottolinea come la guerra, la crisi climatica e della biodiversità e la pandemia siano stati momenti critici per la fame nel mondo che precedentemente era in calo ma ora interessa circa il 10 % della popolazione mondiale; sottolinea la necessità di proseguire gli sforzi per riprendere e mantenere le esportazioni ucraine di cereali, che dovrebbero alleviare le pressioni nel Sud globale; invita la Commissione, in tale contesto, a intensificare gli sforzi nell'ambito della "diplomazia alimentare", tenendo anche presente che oggi l'Unione è uno dei principali produttori di frumento al mondo e che le carenze nell'approvvigionamento alimentare nel Sud del mondo possono rendere tali paesi più vulnerabili all'influenza di regimi autoritari;
76. sottolinea che le tecnologie digitali innovative non dovrebbero creare nuove dipendenze di percorso e consolidare la concentrazione delle aziende agricole, ma dovrebbero essere disponibili e accessibili ai piccoli agricoltori;
77. ritiene che gli impianti di produzione dell'energia su piccola scala all'interno delle aziende agricole abbiano un enorme potenziale per la produzione di energia nelle zone rurali e per aumentare la circolarità delle aziende agricole trasformando i rifiuti e i flussi residui delle aziende, tra cui il letame, in calore ed energia elettrica; sottolinea che è opportuno eliminare tutti gli ostacoli per incoraggiare gli agricoltori a investire in tali tecnologie per la circolarità delle aziende agricole, quali, ad esempio, gli impianti di biogas su piccola scala; esorta la Commissione a sostenere la diffusione di tali impianti innovativi; pone l'accento sulla necessità di utilizzare i residui di tale processo, ad esempio i RENURE, che dovrebbero essere classificati e utilizzati come fertilizzanti chimici;
78. ritiene che anche i progetti finanziati nel quadro del nuovo capitolo dedicato al piano REPower potrebbero apportare un contributo alla sicurezza alimentare e incoraggia la diffusione di progetti che siano reciprocamente vantaggiosi per il settore dell'energia e per quello dell'agricoltura;
79. sottolinea la necessità di continuare a sostenere la gestione dell'offerta attraverso un sostegno destinato alle organizzazioni dei produttori e alle organizzazioni interprofessionali;
80. sottolinea il fatto che gli agricoltori europei si attengono alle norme di produzione più rigorose al mondo e pone in evidenza che le politiche non devono comportare la delocalizzazione della produzione o una disparità di condizioni;
La PAC e il futuro degli agricoltori
81. ribadisce che la PAC deve continuare a garantire la sicurezza alimentare, migliorando nel contempo la risposta alle nuove esigenze della società in materia di alimenti sostenibili e di un'alimentazione più sana; sottolinea l'importanza di garantire che gli agricoltori abbiano una fonte di reddito prevedibile e possano vivere della loro attività; esorta, a tale proposito, la Commissione a sostenere il bilancio della PAC nel quadro finanziario pluriennale in modo da garantire la sicurezza alimentare e le transizioni verdi, fornendo nel contempo la leva necessaria per gli investimenti;
82. invita la Commissione e gli Stati membri a contrastare il calo del numero di aziende agricole nelle zone rurali e sottolinea la necessità di concentrarsi sul sostegno al proseguimento dell'agricoltura e all'innovazione; sottolinea il contributo delle piccole aziende agricole all'autonomia e alla sicurezza alimentare sostenibili dell'UE, in particolare nei sistemi alimentari locali, e sottolinea l'importanza di garantire che i piccoli produttori siano adeguatamente coinvolti nei processi decisionali quando questi li riguardano;
83. esorta la Commissione, in sede di redazione della sua comunicazione sulla futura CAP, a prendere in considerazione la possibilità di adottarla come una politica che integrerà in maniera coerente la produzione e la sicurezza alimentare, garantendo al tempo stesso la sua coerenza con la politica commerciale, la politica ambientale e le politiche in materia di aiuti umanitari e di sviluppo;
84. accoglie con favore e ribadisce le affermazioni formulate dal commissario per l'Agricoltura, il quale ha dichiarato che, l'attuale bilancio della PAC inferiore allo 0,4 % del PIL dell'UE, è insufficiente a garantire la sicurezza alimentare e che dovrebbe essere notevolmente aumentato al più tardi nel prossimo QFP; chiede che la riserva per le crisi agricole sia dotata di risorse aggiuntive al di fuori degli attuali fondi della PAC e che la ricostituzione della riserva di crisi, se spesa, avvenga attraverso altri strumenti rispetto alla disciplina di bilancio, poiché ciò significherebbe, da un lato, versare finanziamenti UE agli agricoltori per contrastare gli effetti della crisi e, dall'altro, riprenderli (pagamenti diretti);
85. sottolinea l'importanza di individuare un modo più flessibile per applicare i requisiti della PAC, includendo gli anticipi ai produttori e aumentando il livello di tali pagamenti;
86. sottolinea la necessità che gli aiuti europei raggiungano quanto prima le popolazioni più vulnerabili e si adattino al contesto di crisi multidimensionali nonché l'importanza di un approccio umanitario rafforzato; sottolinea che, nel 2022, la Commissione ha stanziato più di 900 milioni di EUR per l'assistenza umanitaria legata all'alimentazione, vale a dire il 60 % in più rispetto al 2021 e quasi l'80 % in più rispetto al 2020;
87. invita l'UE a garantire la continuità tra gli aiuti umanitari, la cooperazione allo sviluppo e le azioni di pace, al fine di affrontare le cause profonde dell'insicurezza alimentare e le carenze dei sistemi alimentari nei paesi in via di sviluppo, in linea con l'approccio del triplice nesso;
Ecosistemi resilienti e diversificati come motore della sicurezza alimentare
88. rileva che l'impatto dei cambiamenti climatici sulla produzione agricola sta diventando più palese, in un contesto in cui i raccolti e le rese delle colture vengono influenzati negativamente dalla maggiore della frequenza della siccità, di inondazioni e altre condizioni meteorologiche estreme;
89. ricorda che il degrado della biodiversità, in particolare alle specie mellifere, contribuisce a compromettere i rendimenti delle colture e, quindi, la nostra sicurezza alimentare; sottolinea che l'agricoltura si basa su ecosistemi sani, in particolare su ecosistemi funzionali dei suoli, e su un'adeguata popolazione di impollinatori e predatori dei parassiti; pone in evidenza che l'aumento della resilienza ai cambiamenti climatici dell'agricoltura europea consentirà al settore di rimanere competitivo nei mercati globali, rendendo possibile occupazione e crescita economica;
90. accoglie con favore l'analisi esaustiva della Commissione sui fattori determinanti per la sicurezza alimentare; sottolinea le sue conclusioni, ribadendo l'urgenza della transizione verso un sistema alimentare sostenibile in grado di assicurare la sicurezza alimentare a breve e a lungo termine;
Dimensione internazionale della sicurezza alimentare
91. sottolinea che la politica commerciale dell'UE deve essere allineata urgentemente alle norme europee in materia di prodotti alimentari sostenibili in modo da non ostacolare la competitività; osserva che l'UE svolge un ruolo importante nel commercio mondiale di prodotti agroalimentari e rileva che è fondamentale che la politica commerciale dell'UE sia altresì conforme agli obiettivi europei in materia di sostenibilità;
92. chiede che ai prodotti agricoli e alimentari sia dedicato un apposito capitolo nei negoziati e negli accordi commerciali bilaterali e multilaterali e che non siano considerati una semplice moneta di scambio in tali negoziati; esprime preoccupazione per l'impatto che la moltiplicazione degli accordi di libero scambio privi di forti disposizioni in materia di sostenibilità ha avuto sul settore agricolo europeo, che spesso deve fronteggiare la concorrenza sleale di produttori di paesi terzi soggetti a normative assai meno rigorose; chiede inoltre una maggiore reciprocità tra i produttori europei e quelli dei paesi terzi in materia di norme di produzione;
93. sottolinea che la sicurezza alimentare è un tema complesso e sfaccettato, che impone un approccio coerente e integrato, tenendo conto delle attuali sfide provenienti da diverse prospettive: sviluppo economico, commerciale, ambientale, regionale e internazionale;
94. pone in evidenza la responsabilità dell'UE non solo di garantire il proprio approvvigionamento alimentare, ma anche di contribuire a contrastare la fame in altre zone sfavorite del mondo; sottolinea che l'UE dovrebbe fornire sostegno ai paesi partner nel definire obiettivi ambientali di alto livello, e dovrebbe assisterli e guidarli in tale transizione, ove necessario; evidenzia che è opportuno tenere debitamente conto dei partner appartenenti ai paesi in via di sviluppo e ai paesi che versano in una situazione fragile riguardo alla sicurezza alimentare, per i quali potrebbe essere richiesto un trattamento speciale e differenziato;
95. ritiene che, nel medio e nel lungo termine, l'UE, in qualità di principale attore globale nel settore agroalimentare, dovrebbe raccomandare criteri di sostenibilità globale più elevati e impegnarsi con i partner internazionali al fine di elaborare congiuntamente parametri di riferimento e norme internazionali per sistemi alimentari resilienti e sostenibili, conformemente alle norme dell'OMC;
96. sottolinea che i finanziamenti umanitari e per lo sviluppo, nonché altre misure, per affrontare la fame e la malnutrizione in Europa e nel resto del mondo devono essere incrementati drasticamente per affrontare adeguatamente la crisi globale della sicurezza alimentare, aggravata dalla guerra in Ucraina;
97. sottolinea che la Commissione dovrebbe sviluppare un'autentica strategia integrata con i suoi paesi partner al fine di incoraggiare lo sviluppo, il rafforzamento e l'espansione delle capacità di produzione alimentare locale e ridurre le vulnerabilità dovute alle dipendenze internazionali, in particolare nei fertilizzanti e nei cereali, rafforzando nel contempo i mercati locali e regionali attraverso programmi infrastrutturali, quali le infrastrutture di mercato, i sistemi di raffreddamento e le strade e anche i mercati online degli agricoltori, al fine di migliorare, in particolare, la resilienza dei piccoli agricoltori, specie attraverso l'iniziativa Global Gateway;
98. deplora la speculazione finanziaria sui prodotti agricoli e alimentari, che contribuisce alla volatilità dei prezzi e gonfia i prezzi all'ingrosso; osserva con preoccupazione che la speculazione finanziaria sui prodotti alimentari colpisce in particolare i paesi in via di sviluppo e le popolazioni più vulnerabili, in particolare nel contesto della guerra; invita la Commissione e l'Autorità europea degli strumenti finanziari e dei mercati a valutare il ruolo e la portata della speculazione nella fissazione dei prezzi delle materie prime;
99. sottolinea che sono essenziali statistiche trasparenti sulle scorte di cereali provenienti da portatori di interessi sia pubblici che privati; invita la Commissione, gli Stati membri e gli attori del settore agroalimentare a intensificare gli sforzi per rafforzare le regole di trasparenza dei prezzi e delle scorte agricole mondiali, in particolare rafforzando ed estendendo il sistema di informazione sui mercati agricoli;
100. ricorda che i paesi in via di sviluppo sono i più vulnerabili all'impennata globale dei prezzi agricoli e alimentari che minaccia l'accessibilità alimentare; invita la Commissione e gli Stati membri a lavorare sulla proposta della FAO di istituire uno strumento per il finanziamento delle importazioni di prodotti alimentari per aiutare i paesi a basso reddito maggiormente dipendenti dalle importazioni di prodotti alimentari ad accedere ai mercati alimentari globali; sottolinea inoltre la necessità di sviluppare norme commerciali, anche nell'ambito di competenza dell'OMC, con l'obiettivo di aiutare i paesi a basso reddito a mettere a punto sistemi alimentari locali più solidi;
101. sottolinea l'esigenza di porre maggiore enfasi sulle azioni nel settore dell'agricoltura tese a salvaguardare in modo prioritario il diritto dei paesi in via di sviluppo alla sicurezza alimentare e a migliorare la loro capacità di soddisfare le esigenze nutrizionali della loro popolazione; invita la Commissione ad adottare un approccio più sistematico nella definizione e valutazione dell'impatto delle politiche dell'UE rispetto agli obiettivi della coerenza delle politiche per lo sviluppo;
102. accoglie con favore l'impegno dell'UE e dei suoi Stati membri a destinare quasi 8 miliardi di EUR degli aiuti umanitari e allo sviluppo alla sicurezza alimentare globale nel periodo 2021-2024, di cui 600 milioni di EUR aggiuntivi per sostenere i paesi dell'Organizzazione degli Stati dell'Africa, dei Caraibi e del Pacifico ad affrontare le conseguenze dell'invasione russa dell'Ucraina; invita la Commissione a riferire ogni anno al Parlamento entro il 2024 in merito agli obiettivi, alle misure e ai risultati ottenuti nell'ambito di tale impegno;
103. invita l'Unione europea e i suoi Stati membri a intensificare la cooperazione allo sviluppo, l'aiuto umanitario e l'assistenza alimentare e a potenziare i servizi nutrizionali essenziali e ad adottare misure sufficienti nel breve e lungo periodo nei paesi e nelle regioni più vulnerabili, in particolare le 19 zone colpite dalla carestia individuate dalla FAO e dal PAM, che continuano a risentire della mancanza di finanziamenti umanitari per combattere la fame e la malnutrizione;
104. invita la Commissione, gli Stati membri e le istituzioni europee per il finanziamento dello sviluppo a creare sinergie tra lo strumento NDICI-Europa globale e la nuova strategia Global Gateway, attraverso l'approccio Team Europe, al fine di coordinare gli investimenti a favore della sicurezza alimentare nei paesi partner; esorta la Commissione, nell'ambito del processo di valutazione intermedia dello strumento NDICI-Europa globale a effettuare una valutazione puntuale degli importi e dei progetti destinati alla sicurezza alimentare nei paesi partner e a produrre una valutazione completa dell'efficacia delle azioni sostenute;
105. accoglie con favore l'avvio di diverse iniziative multilaterali in materia di sicurezza alimentare; invita la Commissione e gli Stati membri a svolgere un ruolo di primo piano nel coordinamento di queste diverse iniziative al fine di garantire un effettivo impegno internazionale a favore della sicurezza alimentare globale; invita l'Unione europea e gli Stati membri a sostenere l'istituzione di un meccanismo internazionale per la preparazione e la risposta alle crisi alimentari, sotto l'egida della FAO e del PAM, volto a identificare i rischi e le vulnerabilità, in particolare sulle catene di approvvigionamento e sulle infrastrutture alimentari critiche e a migliorare il coordinamento delle risposte in caso di crisi; sostiene inoltre lo sviluppo di riserve alimentari strategiche, visto il ruolo che le scorte possono svolgere nell'attenuare gli impatti delle crisi alimentari; chiede di rafforzare il ruolo della rete globale contro le crisi alimentari (Global Network against Food Crises);
106. invita la Commissione a garantire che una quota significativa del 30 % dei fondi NDICI-Europa globale assegnata alla lotta ai cambiamenti climatici sia destinata a progetti che migliorano la resilienza e l'adattamento dell'agricoltura ai cambiamenti climatici, anche attraverso la stabilizzazione dei versanti, la bonifica dei terreni, il rimboschimento, l'irrigazione, la gestione dei bacini idrografici e il sostegno agli sforzi educativi in materia; insiste sul fatto che tali investimenti dovrebbero essere in linea con l'Agenda 2030, l'accordo di Parigi sul clima e la Convenzione sulla diversità biologica e tenere conto dei VGGT della FAO e del CFS nonché dei principi della FAO e del CFS per investimenti responsabili nel settore agricolo e nei sistemi alimentari;
107. rileva che, secondo la FAO, le donne costituiscono il 43 % della forza lavoro agricola globale, svolgono un ruolo cruciale nelle zone rurali e tuttavia subiscono discriminazioni significative per quanto riguarda la proprietà della terra e del bestiame, la parità retributiva, la partecipazione agli organi decisionali e l'accesso al credito e ai servizi finanziari; sottolinea che i bambini e le donne sono i più vulnerabili dinanzi all'insicurezza alimentare;
108. sottolinea che il divario di genere nell'insicurezza alimentare a livello mondiale si è ampliato negli ultimi anni, in particolare a causa della prevalente disuguaglianza e discriminazione di genere nei paesi interessati; chiede pertanto azioni e misure a sostegno della parità di genere nel settore agricolo e sottolinea che garantire la sicurezza alimentare è un modo per ridurre le disuguaglianze tra donne e uomini; invita la Commissione e le autorità locali e regionali dei paesi partner a garantire il coinvolgimento delle donne, incluse le organizzazioni femminili, nella definizione dei programmi e nell'attuazione dei progetti nonché nei processi decisionali per combattere l'insicurezza alimentare;
109. sottolinea che la creazione di posti di lavoro sostenibili nel settore agricolo è fondamentale per garantire la redditività a lungo termine di tale settore a livello globale; ricorda che gli investimenti nel settore dei piccoli agricoltori producono i migliori rendimenti in termini di riduzione della povertà e di crescita, aumentando i redditi dei piccoli agricoltori, in particolare le donne;
110. esorta la Commissione a definire una politica che integrerà in maniera coerente la produzione e la sicurezza alimentare, garantendo al tempo stesso la sua coerenza con la politica commerciale, la politica ambientale e le politiche in materia di aiuti umanitari e di sviluppo;
o o o
111. incarica la sua Presidente di trasmettere la presente risoluzione al Consiglio e alla Commissione.
Risoluzione del Parlamento europeo del 14 giugno 2023 recante raccomandazioni alla Commissione concernenti tirocini di qualità nell'Unione (2020/2005(INL))
– visto l'articolo 225 del trattato sul funzionamento dell'Unione europea (TFUE),
– visto l'articolo 292 TFUE, in combinato disposto con gli articoli 153 e 166 TFUE,
– visto l'articolo 153, paragrafo 2, lettera b), TFUE, in combinato disposto con l'articolo 153, paragrafo 1, lettera b), TFUE,
– vista la raccomandazione del Consiglio, del 10 marzo 2014, relativa a un quadro di qualità per i tirocini(1) ("raccomandazione del Consiglio del 2014"),
– vista la relazione di sintesi fattuale della Commissione, del 3 agosto 2022, sulla consultazione pubblica online a sostegno della valutazione della raccomandazione del Consiglio del 2014 relativa a un quadro di qualità per i tirocini(2),
– vista la relazione di Eurofound, del 27 luglio 2017, dal titolo "Fraudulent contracting of work: Abusing traineeship status (Austria, Finland, Spain and UK)" (Contrattazione fraudolenta di lavoro: abusi dello status di tirocinio (Austria, Finlandia, Spagna e Regno Unito))(3),
– vista la relazione della Commissione, dell'ottobre 2018, dal titolo "Traineeships under the Youth Guarantee – Experience from the ground" (Tirocini nell'ambito della garanzia per i giovani – Esperienza acquisita sul campo)(4),
– vista la comunicazione della Commissione, del 4 ottobre 2016, dal titolo "La garanzia per i giovani e l'iniziativa a favore dell'occupazione giovanile a tre anni di distanza" (COM(2016)0646),
– visto il documento di lavoro dei servizi della Commissione, del 4 ottobre 2016, dal titolo “Applying the Quality Framework for Traineeships” (Attuazione del quadro di qualità per i tirocini) (SWD(2016)0324),
– vista la raccomandazione del Consiglio, del 30 ottobre 2020, relativa a un ponte verso il lavoro, che rafforza la garanzia per i giovani e sostituisce la raccomandazione del Consiglio del 22 aprile 2013 sull'istituzione di una garanzia per i giovani(5),
– vista la sua risoluzione dell'8 ottobre 2020 sul potenziamento della garanzia per i giovani(6),
– vista la sua risoluzione del 17 dicembre 2020 su un'Europa sociale forte per transizioni giuste(7),
– vista la sua risoluzione del 17 febbraio 2022 dal titolo "Rafforzare il ruolo dei giovani europei: occupazione e ripresa sociale dopo la pandemia"(8),
– vista la sua risoluzione del Parlamento del 24 novembre 2022 sul retaggio dell'Anno europeo dei giovani 2022(9),
– visti il pilastro europeo dei diritti sociali, proclamato dal Parlamento europeo, dal Consiglio e dalla Commissione il 17 novembre 2017 in occasione del vertice di Göteborg, in particolare i suoi principi n. 1 e n. 4, il piano d'azione del pilastro europeo dei diritti sociali e la dichiarazione del vertice sociale di Porto del 2021 per l'impegno a lavorare per un'Europa sociale e il rafforzamento della coesione sociale,
– visto il documento finale, del 30 novembre 2022, della Conferenza sul futuro dell'Europa, adottato nell'ambito del quadro dell'Anno europeo dei giovani, in particolare la proposta n. 47, misura n. 5, che invita ad assicurare che tirocini e occupazione giovanili rispettino le norme in materia di qualità, ivi compresa la retribuzione, mettendo fine ai salari minimi giovanili e qualsiasi altra disposizione di legge discriminatoria in materia di diritto del lavoro, specifica per i giovani, nonché vietando attraverso uno strumento giuridico i tirocini non retribuiti nel mercato del lavoro e al di fuori dell'istruzione formale,
– vista la valutazione della Commissione, del 10 gennaio 2023, della raccomandazione del Consiglio relativa a un quadro di qualità per i tirocini,
– visto il Patto internazionale relativo ai diritti economici, sociali e culturali, a cui aderiscono tutti gli Stati membri dell'UE, in particolare l'articolo 7, lettera a), punto i), su un equo salario ed una uguale remunerazione, e l'articolo 7, lettera c), sulle pari opportunità per tutti, e l'articolo 9 sul diritto alla sicurezza sociale per tutti,
– visto il regolamento (UE) 2019/1700 del Parlamento europeo e del Consiglio, del 10 ottobre 2019, che istituisce un quadro comune per le statistiche europee sulle persone e sulle famiglie, basate su dati a livello individuale ottenuti su campioni, che modifica i regolamenti (CE) n. 808/2004, (CE) n. 452/2008 e (CE) n. 1338/2008 del Parlamento europeo e del Consiglio, e che abroga il regolamento (CE) n. 1177/2003 del Parlamento europeo e del Consiglio e il regolamento (CE) n. 577/98 del Consiglio(10),
– vista la strategia per i diritti delle persone con disabilità 2021-2030,
– vista la sua risoluzione del 13 dicembre 2022 sul tema "Verso la parità di diritti per le persone con disabilità"(11),
– vista la Convenzione delle Nazioni Unite sui diritti delle persone con disabilità del 2006,
– visti gli articoli 47 e 54 del suo regolamento,
– visto il parere della commissione per la cultura e l'istruzione,
– vista la relazione della commissione per l'occupazione e gli affari sociali (A9-0186/2023),
A. considerando che i tirocini sono essenziali affinché i giovani acquisiscano esperienza prima di trovare un'occupazione stabile; che i tirocini possono facilitare la transizione dall'istruzione o dalla formazione professionale al mercato del lavoro; che è fondamentale creare condizioni ottimali e incentivi per consentire ai giovani di accedere a tirocini di alta qualità che forniscano loro un'utile esperienza di apprendimento e di lavoro durante la quale sviluppare un insieme di competenze pertinenti; che i tirocinanti che svolgono tirocini nel libero mercato del lavoro, tirocini associati a politiche attive del mercato del lavoro (PAML) e tirocini che rientrano nella formazione professionale obbligatoria dovrebbero avere il diritto alla retribuzione, come indicato nell'allegato I; che i tirocinanti che effettuano tirocini finalizzati al conseguimento di titoli di istruzione dovrebbero avere accesso a un'adeguata compensazione, come indicato nell'allegato II;
B. considerando che la pandemia di COVID -19 ha causato la sospensione di molte occasioni di formazione e lavoro, creando pertanto ostacoli all'acquisizione di competenze; che ciò ha colpito in maniera sproporzionata soprattutto la transizione dalla scuola al lavoro di giovani provenienti da contesti svantaggiati;
C. considerando che nell'Unione esistono tipologie diverse di tirocinio; che per tirocinio si può intendere un periodo di pratica lavorativa di durata limitata, con una componente di apprendimento e formazione, che una persona svolge per acquisire un'esperienza pratica e professionale finalizzata a migliorare la sua occupabilità e facilitare la transizione verso un'occupazione stabile; che il Parlamento europeo ha condannato più volte la pratica dei tirocini non retribuiti come una forma di sfruttamento dei giovani lavoratori e una violazione dei loro diritti e ha chiesto un quadro giuridico comune per garantire ai tirocinanti una retribuzione equa al fine di evitare pratiche di sfruttamento(12).
D. considerando che la maggior parte dei tirocini nell'Unione può essere suddivisa in categorie che comprendono: i tirocini nel libero mercato, i tirocini associati a PAML, i tirocini che rientrano nella formazione professionale e i tirocini che rientrano in programmi di studio accademici o professionali; che tutti questi tipi di tirocini rappresentano un'opportunità per i giovani di formarsi e di acquisire competenze pertinenti per le esigenze del mercato del lavoro e dovrebbero consentire loro di accedere più facilmente a posti di lavoro di qualità in futuro rispettando nel contempo le loro esigenze personali; che l'Unione, gli Stati membri e le parti sociali hanno un ruolo fondamentale da svolgere nel fornire accesso a tirocini di qualità;
E. considerando che nell'Unione esistono quadri giuridici e approcci diversi che disciplinano i tirocini; che tali differenze normative esistono sia tra gli Stati membri che, in alcuni casi, all'interno degli Stati membri;
F. considerando che alcuni studi hanno stabilito legami tra la qualità dei tirocini e i risultati occupazionali(13), in cui la retribuzione è uno dei principali criteri di qualità per definire un tirocinio di alta qualità(14);
G. considerando che la raccomandazione del Consiglio del 2014 riguarda i tirocini nel libero mercato e quelli associati a PAML;
H. considerando che la raccomandazione del Consiglio del 2014 raccomanda agli Stati membri di applicare i seguenti principi in vista di un quadro di qualità per i tirocini: conclusione di un contratto scritto di tirocinio, obiettivi di apprendimento e di formazione, condizioni di lavoro applicabili ai tirocinanti, diritti e obblighi del tirocinante e del soggetto promotore del tirocinio, limitazione dei tirocini a una durata ragionevole, adeguato riconoscimento dei tirocini tramite strumenti dell'Unione (come Europass), obblighi di trasparenza, istituzione di tirocini transfrontalieri, uso dei fondi strutturali e d'investimento europei per migliorare i tirocini e applicazione del quadro di qualità per i tirocini;
I. considerando che una persone può vivere la discriminazione in modo differente sulla base di una serie di fattori, tra cui, ma non solo, il sesso, la razza, il colore della pelle, la nazionalità, l'origine etnica o sociale ed economica, le caratteristiche genetiche, la lingua, la religione o le convinzioni personali, le opinioni politiche o di qualsiasi altra natura, l'appartenenza ad una minoranza nazionale, il patrimonio, la nascita, la disabilità, l'età o l'orientamento sessuale(15); che è fondamentale concentrarsi sul superamento di tutte le discriminazioni nei tirocini e garantire la loro accessibilità alle persone e ai gruppi di persone più lontani dal mercato del lavoro; che è meno probabile che i giovani che vivono in situazioni economiche più deboli, compresi coloro che vivono in famiglie monoparentali, persone con disabilità, migranti, persone con livelli d'istruzione inferiori, giovani che non vivono con i genitori e persone che provengono da famiglie a bassa intensità di lavoro, abbiano accesso alle risorse economiche richieste per intraprendere tirocini non retribuiti o scarsamente retribuiti(16);
J. considerando che 87 milioni di cittadini europei avevano qualche forma di disabilità a luglio 2022; che le persone con disabilità incontrano ancora ostacoli nell'accesso a tirocini di alta qualità e nella ricerca di occupazione nel libero mercato del lavoro;
K. considerando che i tirocini di alta qualità sono fondamentali per educare e formare adeguatamente i giovani alle esigenze del mercato del lavoro e per affrontare gli squilibri tra domanda e offerta di competenze e le conseguenti carenze del mercato del lavoro nell'Unione, soddisfacendo nel contempo gli interessi personali del tirocinante e sottolineando il potenziale valore aggiunto sia per i datori di lavoro che per i tirocinanti; che troppi giovani non riescono a trovare un'occupazione stabile perché i posti di lavoro disponibili potrebbero non corrispondere alle loro competenze; che, allo stesso tempo, il 40 % dei datori di lavoro(17) ha difficoltà a reperire dipendenti con le giuste competenze; che il tasso di disoccupazione giovanile dell'Unione è al 15,1 % e, nel contesto dell'attuale crisi del costo della vita, secondo l'Eurostat(18), i giovani sono il gruppo che rischia maggiormente di vivere in povertà, per cui 1 giovane su 4 vive a rischio di povertà o esclusione sociale e le giovani donne sono esposte a un rischio più elevato di esclusione sociale;
L. considerando che circa la metà di tutti i giovani di età compresa tra i 15 e i 34 anni nell'Unione ha maturato un'esperienza di lavoro in almeno un tirocinio; che la maggioranza dei giovani dichiara di aver svolto due tirocini non retribuiti prima di ottenere un'occupazione stabile(19); che da tale dato consegue che circa quattro milioni di persone partecipano ad almeno un tirocinio all'anno nell'Unione(20);
M. considerando che la maggior parte dei tirocinanti intervistati durante un'indagine Eurobarometro ritiene che la loro esperienza sia stata o sarà utile per trovare un'occupazione stabile (71 %), ma che quasi un terzo è in disaccordo (28 %)(21);
N. considerando che le ricerche confermano che il valore del tirocinio ai fini di una più agevole transizione verso il mondo del lavoro dipende dalla qualità stessa del tirocinio in termini di contenuti di apprendimento e condizioni di lavoro(22);
O. considerando che, sempre secondo l’indagine Eurobarometro summenzionata, solo il 40 % dei tirocinanti ha ricevuto una compensazione finanziaria, dei quali oltre la metà (53 %) ritiene che tale compensazione fosse insufficiente a coprire le spese essenziali per vivere(23);
P. considerando che lo svolgimento di tirocini in un altro Stato membro è ancora raro e che, secondo un'indagine condotta da Eurobarometro, solo il 9 % dei tirocini nell'Unione si svolge all'estero(24);
Q. considerando che mancano dati comparativi aggiornati sui tirocini a livello dell'Unione e nazionale, in particolare per quanto riguarda i tirocini nel libero mercato del lavoro; che i dati disponibili sui tirocini nell'Unione sono supportati da diverse definizioni, il che crea problemi in termini di comparabilità;
R. considerando che gli incentivi ai datori di lavoro sono fondamentali per offrire tirocini di qualità, in particolare quando tali datori di lavoro sono microimprese e piccole e medie imprese; che è incoraggiato il rafforzamento delle competenze digitali e degli strumenti digitali necessari per sostenere i tirocinanti nello svolgimento del loro tirocinio; che, a tal proposito, il programma di tirocini "Opportunità digitale", presentato nell'ambito del programma Erasmus+, offre agli studenti e ai giovani laureati l'opportunità di acquisire competenze digitali sul lavoro e fare esperienza nel settore tecnologico; che, in generale, i tirocini di qualità dovrebbero essere svolti in presenza; che il lavoro a distanza o ibrido è sempre più la norma in una serie di settori e imprese; che, a tale riguardo, qualsiasi parte a distanza o ibrida di un tirocinio dovrebbe essere accettabile solo quando la presenza sul luogo di lavoro non è necessaria o possibile e dovrebbe rispettare criteri di qualità;
1. sottolinea che i tirocini sono principalmente un'esperienza di apprendimento e non dovrebbero sostituire posizioni di livello base; invita la Commissione e gli Stati membri, in stretta cooperazione con le parti sociali, a facilitare e migliorare l'accesso dei giovani a tirocini di alta qualità, retribuiti e inclusivi, in particolare per coloro che provengono da contesti vulnerabili, al fine di raggiungere l'obiettivo di coesione sociale e inclusione dell'Unione;
2. sottolinea la necessità di tirocini di alta qualità per migliorare le competenze e l'occupabilità dei giovani, facilitando in tal modo la loro transizione verso il mercato del lavoro; sottolinea che i tirocini possono rappresentare un'opportunità per i giovani di apprendere e sperimentare carriere diverse per comprendere quali lavori sono più adatti ai loro talenti e alle loro aspirazioni;
3. sottolinea la necessità di educare e formare adeguatamente i giovani alle esigenze del mercato del lavoro e affrontare gli squilibri tra domanda e offerta di competenze, soddisfacendo nel contempo gli interessi personali dei giovani e sottolineando il potenziale valore aggiunto sia per i datori di lavoro che per i tirocinanti; sottolinea, a tale proposito, anche la necessità di offrire tirocini in settori legati alle esigenze in termini di competenze e alle carenze di manodopera e in settori orientati al futuro in vista delle transizioni verde digitale;
4. sottolinea che l'Unione non può promuovere la precarietà e che i tirocini di scarsa qualità e i tirocini non retribuiti non possono ricevere il sostegno delle finanze pubbliche; ribadisce che i datori di lavoro dovrebbero ricevere e utilizzare il sostegno pubblico economico solo se soddisfano criteri di qualità, normative e contratti collettivi;
5. ricorda che tirocini di alta qualità possono contribuire in modo prezioso al conseguimento degli obiettivi sociali dell'Unione entro il 2030, che prevedono che almeno il 60 % di tutti gli adulti partecipi ogni anno ad attività di formazione e che almeno il 78 % della popolazione di età compresa tra i 20 e i 64 anni abbia un lavoro, riducendo la percentuale di persone senza lavoro e che non seguono corsi di istruzione o formazione (NEET) al 9 % attraverso opportunità di qualità, in linea con l'Agenda 2030 e gli obiettivi di sviluppo sostenibile delle Nazioni Unite n.1, 4, 8 e 10;
6. sottolinea la necessità di tutelare i giovani dallo svolgimento di molti tirocini consecutivi, attraverso un rigido monitoraggio dell'utilizzo di contratti che puntano alla transizione tra l'istruzione e il mercato del lavoro;
7. sottolinea che i tirocini di alta qualità promuovono l'idea di un apprendimento lungo tutto l'arco della vita e contribuiscono all'adattamento dinanzi al cambiamento dinamico del mercato del lavoro, e di conseguenza prolungano la vita lavorativa;
Revisione del quadro attuale
8. invita la Commissione ad aggiornare la raccomandazione del Consiglio del 2014 e a trasformarla in uno strumento legislativo più forte;
9. riconosce che i principi dell'attuale quadro di qualità per i tirocini continuano a essere pertinenti per guidare i datori di lavoro nell'offerta di tirocini di alta qualità; prende atto della posizione vulnerabile in cui si trovano i giovani nel mercato del lavoro; sottolinea la necessità di aggiungere nuovi principi al quadro di qualità per i tirocini al fine di migliorare la qualità dei tirocini e facilitare la transizione di tutti i giovani dall'istruzione al mercato del lavoro; invita pertanto la Commissione a includere i principi aggiuntivi seguenti nel quadro di qualità aggiornato per i tirocini:
–
accesso a un'adeguata compensazione da parte dei tirocinanti in linea con il costo della vita,
–
accesso alla protezione sociale da parte dei tirocinanti conformemente ai regimi nazionali,
–
maggiore accesso ai tirocini da parte di tirocinanti provenienti da contesti vulnerabili, tra cui tirocinanti con disabilità, utilizzando un approccio intersezionale,
–
luoghi di lavoro accessibili,
–
conformità di qualsiasi parte di un tirocinio condotta a distanza ai criteri di qualità,
–
obiettivi di apprendimento chiari e accesso a un tutoraggio adeguato e alla guida di tutor formati per garantire il trasferimento di competenze intergenerazionale,
–
in cooperazione con gli ispettorati nazionali del lavoro e le autorità competenti, segnalazione delle irregolarità e di condizioni inadeguate nel corso del tirocinio tramite canali di comunicazione definiti;
10. invita la Commissione a proporre una direttiva relativa ai tirocini nel libero mercato del lavoro, ai tirocini associati a PAML e ai tirocini che costituiscono parte obbligatoria della formazione professionale, al fine di garantire norme minime di qualità, comprese norme sulla durata dei tirocini, l'accesso alla protezione sociale conformemente al diritto e alle prassi nazionali, nonché una retribuzione che garantisca un tenore di vita dignitoso al fine di evitare pratiche di sfruttamento, conformemente al progetto di direttiva di cui all'allegato I;
Assistenza e sensibilizzazione
11. condanna l'utilizzo dello status di tirocinio per avere lavoratori altamente specializzati quando in realtà sono dipendenti e il loro rapporto di lavoro dovrebbe essere riconosciuto in quanto tale; osserva che tale pratica scorretta spesso genera insicurezza nel settore lavorativo, stipendi inferiori e una mancanza di protezione sociale, in particolare assenza di ferie retribuite, di tutela in caso di malattia o congedi parentali, oltre all'assenza di gratifiche di fine anno; sottolinea l'importanza di non consentire la formalizzazione e legittimazione di tali pratiche;
12. ribadisce il ruolo centrale che il Fondo sociale europeo Plus (FSE+), il dispositivo per la ripresa e la resilienza e il relativo quadro di valutazione che collega il finanziamento alle politiche dello strumento Next Generation EU e la garanzia per i giovani possono svolgere nel contribuire a un aumento del numero di tirocini di alta qualità, compresi quelli che sono accessibili ai gruppi svantaggiati; esorta gli Stati membri, con il sostegno della Commissione, a utilizzare tutte le risorse disponibili in questo settore; invita gli Stati membri ad aumentare l'investimento anche attraverso il Fondo FSE+ per sostenere le misure destinate a integrare i giovani svantaggiati;
13. invita gli Stati membri a utilizzare meglio il FSE+ per contribuire alla progressione nell'istruzione e nella formazione e al passaggio al mondo del lavoro, sostenendo lo sviluppo di capacità e competenze, compresi il miglioramento del livello delle competenze, la riqualificazione, l'apprendimento lungo tutto l'arco della vita e l'occupabilità al fine di facilitare la piena partecipazione di tutti alla società, in particolare di coloro che provengono da contesti vulnerabili al fine di garantire loro l'accesso a uguali opportunità e contribuendo alla competitività(25); sottolinea il ruolo particolare del programma Erasmus + nella promozione della mobilità dei lavoratori all'interno dell'Unione per i giovani tirocinanti;
14. invita la Commissione a sensibilizzare l'opinione pubblica a livello nazionale, regionale e locale in merito ai fondi dell'Unione disponibili per garantire l'accessibilità a tirocini di alta qualità per tutti, in particolare per le persone che provengono da contesti vulnerabili al fine di assicurare loro accesso a uguali opportunità;
15. invita la Commissione a sostenere lo scambio di migliori pratiche tra gli Stati membri nel settore dei tirocini di alta qualità che siano accessibili a tutti; incoraggia gli Stati membri a fornire orientamenti e assistenza ai datori di lavoro, in particolare alle microimprese e alle piccole e medie imprese, per consentire loro di offrire tirocini di alta qualità, e a prevedere incentivi per i datori di lavoro che offrono ai tirocinanti un lavoro di qualità dopo il completamento di un tirocinio;
16. invita la Commissione, peraltro, a concentrarsi in particolare sulla garanzia di tirocini accessibili, retribuiti e di qualità, in particolare nel libero mercato del lavoro, durante l'Anno europeo delle competenze, sia come seguito dell'Anno europeo della gioventù che in linea con la relazione sul risultato finale della Conferenza sul futuro dell'Europa del maggio 2022;
17. invita la Commissione a fornire assistenza agli Stati membri sulle domande giuridiche relative all'attuazione di un quadro di qualità per i tirocini;
Migliori pratiche e monitoraggio
18. invita gli Stati membri ad attuare adeguati sistemi di monitoraggio per garantire che la prima esperienza di lavoro dei tirocinanti sia di elevata qualità; invita la Commissione a trasmettere orientamenti per sistemi di monitoraggio adeguati per garantire l'uniformità della raccolta dei dati;
19. invita gli ispettorati nazionali del mercato del lavoro a garantire il rispetto delle normative esistenti in materia di tirocini di alta qualità; chiede, a tale proposito, ulteriori azioni di sensibilizzazione, formazione e sviluppo di capacità per gli ispettorati nazionali del mercato del lavoro;
20. chiede una maggiore cooperazione tra tutte le parti interessate, in particolare i servizi pubblici per l'impiego e di istruzione, i soggetti promotori di tirocini, compresi i datori di lavoro, i governi nazionali, regionali e locali nonché il coinvolgimento delle parti sociali, dei rappresentanti delle organizzazioni giovanili e dei tirocinanti; suggerisce la creazione di un'alleanza europea per i tirocini, simile all'alleanza europea per l'apprendistato, che riunisca i governi e le principali parti interessate con l'obiettivo di rafforzare la qualità e l'offerta di tirocini in tutta l'Unione, promuovendo nel contempo la mobilità dei tirocinanti, in particolare attraverso la garanzia di accesso a risorse finanziarie sufficienti, compresi i corsi di lingua;
21. chiede il sostegno dei patti locali per le competenze, in collaborazione con i servizi pubblici per l'impiego e tutti gli attori pertinenti a livello locale, per garantire che i tirocini contribuiscano a colmare lo squilibrio tra domanda e offerta di competenze sui mercati del lavoro;
Raccolta dei dati
22. chiede una migliore e più ampia raccolta di dati comparativi sui tirocini a livello nazionale e dell'Unione; chiede che nel quadro di valutazione della situazione sociale siano inclusi dati comparativi sui tirocini;
23. sottolinea che sono necessari ulteriori dati, in particolare sulle statistiche sui tirocini non retribuiti e informazioni sui settori in cui la questione è più predominante, sugli ostacoli che i tirocinanti incontrano nell'ottenere un tirocinio di alta qualità e sulle modalità per superarli, sugli effetti delle recenti crisi socioeconomiche sui tirocinanti, sulle sfide che spesso si trovano ad affrontare nello svolgimento di un tirocinio e sulle modalità per superarle, sui possibili ostacoli incontrati dai datori di lavoro quando offrono tirocini di alta qualità e sulle modalità per superarli, sui vantaggi e sugli svantaggi dei tirocini digitali, sulle esperienze dei tirocinanti con disabilità e dei tirocinanti provenienti da contesti vulnerabili; sugli ostacoli ai tirocini transfrontalieri e sulle modalità per superarli;
Accessibilità
24. ricorda che deve essere vietata qualsiasi forma di discriminazione fondata, in particolare, sul sesso, la razza, il colore della pelle, la nazionalità, l'origine etnica o sociale ed economica, le caratteristiche genetiche, la lingua, la religione o le convinzioni personali, le opinioni politiche o di qualsiasi altra natura, l'appartenenza ad una minoranza nazionale, il patrimonio, la nascita, la disabilità, l'età o l'orientamento sessuale; invita gli Stati membri a mettere in atto misure specifiche a tal fine(26);
25. sottolinea che i tirocini di alta qualità devono essere inclusivi e accessibili a tutti; sottolinea, in particolare, la necessità di sostenere le persone con disabilità nell'accesso ai tirocini di alta qualità, garantendo nel contempo un processo di assunzione inclusivo e riducendo gli ostacoli per le persone con disabilità; chiede una definizione di disabilità a livello dell'Unione e invita la Commissione ad accelerare l'introduzione della tessera di disabilità dell'UE per facilitare la mobilità delle persone con disabilità e la loro capacità di cogliere opportunità di tirocinio in altri Stati membri; sottolinea la necessità di un luogo di lavoro accessibile adattato alle esigenze dei tirocinanti con diverse tipologie di disabilità; chiede una revisione della direttiva 2000/78/CE(27) del Consiglio per migliorare l'articolo sulle soluzioni ragionevoli sul luogo di lavoro, in linea con la Convenzione delle Nazioni Unite sui diritti delle persone con disabilità; chiede di sbloccare l'adozione di una proposta di direttiva antidiscriminazione (COM(2008)0426); sottolinea la necessità di separare la retribuzione e il sostegno alla disabilità per consentire costi aggiuntivi legati alla disabilità per i tirocini; sottolinea l'importanza dell'assistenza personale per sostenere le persone con disabilità, con l'intenzione di appoggiare la vita indipendente; chiede una maggiore cooperazione tra le parti sociali e le organizzazioni che rappresentano le persone maggiormente a rischio di discriminazione;
26. sottolinea la necessità di un apprendimento lungo tutto l'arco della vita; chiede che i tirocini siano accessibili a persone di tutte le età; ricorda che i tirocini possono offrire molti vantaggi al soggetto promotore del tirocinio e al tirocinante; sottolinea, a tale riguardo, l'enorme e sottovalutato potenziale degli anziani;
27. sottolinea la necessità di offrire opportunità rivolte ai giovani provenienti da contesti svantaggiati, in particolare ai giovani NEET; sostiene, a tale proposito, l'obiettivo a livello dell'Unione di una percentuale di NEET inferiore al 9 % entro il 2030(28);
Mobilità transfrontaliera
28. invita gli Stati membri a incoraggiare maggiormente i tirocini transfrontalieri; sottolinea, a tale proposito, il potenziale di EURES quale strumento di abbinamento dei tirocini e collocamento; invita la Commissione a sviluppare ulteriormente EURES fornendo informazioni più chiare, in formati accessibili alle persone con diverse tipologie di disabilità, e migliori servizi di orientamento e collocamento ai tirocinanti interessati che desiderano beneficiare della mobilità transfrontaliera; invita gli Stati membri a promuovere EURES, tra l'altro, tra i soggetti promotori di tirocini, i giovani, i disoccupati e i neolaureati; invita la Commissione e gli Stati membri ad agevolare il riconoscimento e la convalida delle conoscenze e delle competenze acquisite durante il tirocinio, in particolare per quanto riguarda il riconoscimento transfrontaliero delle competenze; ribadisce che i tirocini sono una valida esperienza di lavoro e dovrebbero essere riconosciuti in quanto tali nei processi di assunzione;
29. chiede alla Commissione di presentare, sulla base dell'articolo 153, paragrafo 2, lettera b), TFUE, in combinato disposto con l'articolo 153, paragrafo 1, lettera b), TFUE, una proposta di direttiva del Parlamento e del Consiglio per un quadro sui tirocini di qualità che stabilisca i requisiti minimi per norme di qualità e una retribuzione adeguata per i tirocini nel libero mercato del lavoro, tirocini associati a PAML e tirocini che costituiscono parte obbligatoria della formazione professionale, conformemente al progetto di direttiva di cui all'allegato I;
30. chiede alla Commissione di presentare sulla base dell'articolo 166, paragrafo 4, TFUE, una proposta di decisione del Parlamento e del Consiglio relativa a un quadro di qualità per i tirocini per il conseguimento di titoli di istruzione, conformemente al progetto di decisione di cui all'allegato II;
31. è del parere che siano necessari finanziamenti sufficienti per le proposte contenute nella presente relazione e ritiene che le incidenze finanziarie delle proposte richieste debbano essere coperte dalla pertinente dotazione di bilancio dell'Unione;
o o o
32. incarica la sua Presidente di trasmettere la presente risoluzione e le raccomandazioni figuranti in allegato alla Commissione e al Consiglio.
ALLEGATO I ALLA RISOLUZIONE
Proposta di direttiva del Parlamento europeo e del Consiglio sui tirocini di qualità
IL PARLAMENTO EUROPEO E IL CONSIGLIO DELL'UNIONE EUROPEA,
visto il trattato sul funzionamento dell'Unione europea, in particolare l'articolo 153, paragrafo 2, lettera b), in combinato disposto con l'articolo 153, paragrafo 1, lettera b),
vista la proposta della Commissione europea,
visto il parere del Comitato economico e sociale europeo,
visto il parere del Comitato delle regioni,
deliberando secondo la procedura legislativa ordinaria,
considerando quanto segue:
1) Il principio n. 1 del pilastro europeo dei diritti sociali stabilisce che ogni persona ha diritto a un'istruzione, a una formazione e a un apprendimento permanente di qualità e inclusivi, al fine di mantenere e acquisire competenze che consentono di partecipare pienamente alla società e di gestire con successo le transizioni nel mercato del lavoro. Il principio n. 3 del pilastro europeo dei diritti sociali sottolinea che, a prescindere da sesso, razza o origine etnica, religione o convinzioni personali, disabilità, età o orientamento sessuale, ogni persona ha diritto a parità di trattamento e di opportunità, anche per quanto riguarda l'occupazione e l'istruzione.
2) L'articolo 14, paragrafo 1, della Carta dei diritti fondamentali dell'Unione europea stabilisce che ogni persona ha diritto all'istruzione e all'accesso alla formazione professionale e continua.
3) La strategia per i diritti delle persone con disabilità 2021-2030 mira a garantire la piena partecipazione delle persone con disabilità alla società, su un piano di parità con gli altri nell'Unione e nel resto del mondo. Nell'ambito di tale strategia, la Commissione si impegna a garantire che le persone con disabilità possano partecipare a corsi di formazione e a corsi per acquisire nuove competenze quale requisito fondamentale per l'occupazione e l'indipendenza.
4) I tirocini sono diventati un importante punto d'ingresso nel mercato del lavoro.
5) Se i tirocini, in particolare quelli ripetuti, vengono utilizzati al posto di regolari rapporti di lavoro, soprattutto per le posizioni di ingresso generalmente offerte ai tirocinanti, ne conseguono costi socioeconomici. Inoltre i tirocini di bassa qualità, in particolare quelli con scarsi contenuti di apprendimento, non portano all'occupabilità del tirocinante e non apportano vantaggi a nessuna delle parti. Anche i tirocini non retribuiti o poco retribuiti, che rischiano di limitare le opportunità di carriera di coloro che provengono da ambienti svantaggiati, possono comportare costi sociali.
6) La situazione economica delle persone influenza molto la loro scelta di svolgere un tirocinio non retribuito o scarsamente retribuito. I giovani provenienti da contesti vulnerabili sono esclusi in maniera iniqua dall'accesso alle opportunità occupazionali all'interno di organizzazioni e settori che offrono tirocini non retribuiti e discriminano indirettamente alcuni gruppi di giovani.
7) È dimostrato il rapporto tra la qualità del tirocinio e gli esiti occupazionali. Il valore del tirocinio ai fini di una più agevole transizione verso il mondo del lavoro dipende dalla qualità stessa del tirocinio in termini di contenuti di apprendimento e condizioni di lavoro. I tirocini di qualità motivano i giovani nell'ingresso nel mercato del lavoro, migliorano le prospettive future, la stabilità mentale e la corrispondenza tra domanda e offerta sul mercato del lavoro, apportano vantaggi diretti in termini di produttività e promuovono la mobilità, in particolare riducendo i costi relativi alla ricerca e alla compatibilità sia per le imprese sia per i tirocinanti.
8) Le prove dimostrano che c'è un numero significativo di tirocini che non presenta un nesso tra mansioni e obiettivi di apprendimento. Un tirocinio di qualità deve offrire contenuti di apprendimento validi e significativi. Ciò implica che sono necessari l'individuazione delle specifiche competenze che devono essere acquisite, la supervisione e il tutoraggio del tirocinante e il monitoraggio dei suoi progressi nel corso del tirocinio.
9) Sono state altresì individuate delle problematiche in merito alle condizioni di lavoro, ad esempio orari di lavoro lunghi, la mancanza di copertura previdenziale, la mancanza di copertura assicurativa sanitaria e per infortuni e di congedi per malattia, la protezione da rischi per la salute e la sicurezza o rischi professionali, retribuzione nulla o di scarsa entità e assenza di chiarezza sui termini e sulle condizioni stabilite nei contratti di tirocinio.
10) Gli Stati membri dovrebbero garantire che i tirocini siano contemplati nel sistema previdenziale, soprattutto in materia di salute, disoccupazione e diritti pensionistici in conformità del diritto e della prassi nazionali. I soggetti promotori di tirocini dovrebbero garantire che i tirocinanti dispongano di un'assicurazione contro gli infortuni, compresi gli infortuni sul luogo di lavoro, in linea con il diritto e la prassi nazionali.
11) In alcuni Stati membri permane una mancanza di regolamentazione dei tirocini nel libero mercato del lavoro. In assenza di un quadro o di uno strumento normativo, o a motivo della mancanza di trasparenza in merito alle condizioni di lavoro e ai contenuti di apprendimento dei tirocini, numerosi soggetti promotori dei tirocini possono utilizzare i tirocinanti come manodopera a basso costo o addirittura gratuita.
12) La mancanza di tali informazioni e di criteri di qualità vincolanti è una delle cause dei tirocini di qualità scadente ed è un problema molto più diffuso nel caso dei tirocini rispetto all'occupazione regolare. Maggiori requisiti di trasparenza e avvisi o comunicazioni inclusivi e neutri sotto il profilo del genere che pubblicizzano le posizioni di tirocinio ne migliorano l'accessibilità.
13) Le parti sociali e altri soggetti pertinenti come i sindacati studenteschi, le organizzazioni giovanili e i fornitori di servizi di orientamento professionale lungo tutto l'arco della vita svolgono un ruolo chiave nella progettazione, nell'attuazione e nel monitoraggio delle politiche e dei programmi di formazione. La cooperazione tra questi soggetti può offrire ai tirocinanti informazioni mirate sulle opportunità di carriera disponibili e sui fabbisogni di competenze sui mercati del lavoro, nonché sui diritti e sulle responsabilità dei tirocinanti.
14) Il Parlamento europeo ha condannato più volte la pratica dei tirocini non retribuiti come una forma di sfruttamento dei giovani lavoratori e una violazione dei loro diritti e ha chiesto un quadro giuridico comune per garantire ai tirocinanti una retribuzione equa al fine di evitare pratiche di sfruttamento.
15) La presente direttiva dovrebbe stabilire gli standard minimi ai fini della definizione di quello che costituisce un tirocinio di qualità.
16) La presente direttiva dovrebbe contemplare i tirocinanti che svolgono tirocini nel libero mercato del lavoro, tirocini nel contesto di politiche attive del mercato del lavoro, tra cui quelli offerti dalla garanzia per i giovani, e tirocini che rientrano nella formazione professionale obbligatoria.
17) Tenuto conto della sua natura e dei suoi obiettivi, la presente direttiva non dovrebbe essere interpretata come un ostacolo agli Stati membri che intendano mantenere o introdurre disposizioni più favorevoli per i tirocinanti,
HANNO ADOTTATO LA PRESENTE DIRETTIVA:
Articolo 1
Oggetto e ambito di applicazione
1. La presente direttiva stabilisce un quadro allo scopo di migliorare la qualità e l'accessibilità dei tirocini, nonché le condizioni di lavoro dei tirocinanti che svolgono tali tirocini. La presente direttiva si applica ai seguenti tirocini:
a) tirocini nel libero mercato;
b) tirocini associati a politiche attive del mercato del lavoro;
c) tirocini che costituiscono parte obbligatoria della formazione professionale.
Articolo 2
Definizioni
1. Ai fini della presente direttiva si applicano le definizioni seguenti:
a) "tirocinio nel libero mercato": un contratto di natura non obbligatoria, bilaterale e privato, stipulato tra un tirocinante e un soggetto promotore dei tirocini senza il coinvolgimento di una terza parte e senza un collegamento formale a un'istituzione del settore dell'istruzione o della formazione;
b) "tirocinio associato a politiche attive del mercato del lavoro": un tirocinio organizzato da un servizio pubblico per l'impiego in cooperazione con un soggetto promotore di tirocini, sulla base di un contratto tra le tre parti allo scopo di aiutare giovani disoccupati o inattivi a trovare un'occupazione;
c) "tirocinio che costituisce parte obbligatoria della formazione professionale": un tirocinio che funge da introduzione obbligatoria nella pratica professionale di uno specifico ambito lavorativo;
d) "accordo di tirocinio": un accordo, per un periodo di tempo limitato, che istituisce un tirocinio nel libero mercato, un tirocinio associato a politiche attive del mercato del lavoro o un tirocinio che costituisce parte obbligatoria della formazione professionale, che comprende una componente di apprendimento e formazione e soddisfa le condizioni di un contratto di lavoro o di un rapporto di lavoro quali definiti dal diritto nazionale, da un contratto collettivo o dalla prassi nazionale in vigore in ciascuno Stato membro, tenendo conto della giurisprudenza della Corte di giustizia dell'Unione europea;
e) "tirocinante": la persona che sulla base di un contratto di tirocinio svolge un tirocinio nel libero mercato, tirocinio associato a politiche attive del mercato del lavoro o un tirocinio che costituisce parte obbligatoria della formazione professionale per acquisire esperienza pratica e professionale al fine di migliorare la propria occupabilità e facilitare il passaggio a un'occupazione regolare;
f) "soggetto promotore di tirocini": un'impresa, un servizio pubblico per l'impiego o un'altra entità pubblica, privata o senza scopo di lucro che offre tirocini nel libero mercato aperto, tirocini associati alle politiche attive del mercato del lavoro o tirocini che costituiscono parte obbligatoria della formazione professionale.
Articolo 3
Criteri di qualità
1. Gli Stati membri si adoperano affinché i tirocinanti abbiano diritto a:
a) un contratto di tirocinio scritto che stabilisca almeno:
i) la durata del tirocinio e le disposizioni per il rinnovo dello stesso;
ii) per i contratti di tirocini rientranti nell'ambito di applicazione della presente direttiva, la retribuzione corrisposta al tirocinante conformemente alla direttiva (UE) 2022/2041 del Parlamento europeo e del Consiglio(29);
iii) i diritti e gli obblighi del tirocinante e del soggetto promotore del tirocinio, compresi i compiti che il tirocinante deve svolgere e, se del caso, le politiche del soggetto promotore del tirocinio in materia di riservatezza e titolarità dei diritti di proprietà intellettuale;
iv) gli accordi per il tutoraggio e la valutazione che deve effettuare il supervisore che guida il tirocinante nelle mansioni assegnate;
v) gli obiettivi di apprendimento che sono stati stabiliti e discussi congiuntamente dal tirocinante e dal soggetto promotore dei tirocini, e dalle altre parti interessate nei casi di cui all'articolo 2, lettere b) e c), al fine di aiutare il tirocinante ad acquisire esperienza pratica e le pertinenti competenze.
Le mansioni di cui al punto iii) sono stabilite sulla base degli obiettivi di apprendimento di cui al punto v) e agevolano il raggiungimento di quegli obiettivi di apprendimento;
b) i diritti stabiliti dalle direttive 2003/88/CE(30) e (UE) 2019/1152(31) del Parlamento europeo e del Consiglio, quali recepite dal diritto e dalla prassi nazionali;
c) l'accesso alla protezione sociale conformemente ai regimi nazionali, compresi l'assicurazione sanitaria, le prestazioni di disoccupazione e i contributi pensionistici.
2. Gli Stati membri garantiscono sostegno ai soggetti promotori di tirocini che offrono tirocini per le persone con disabilità.
Articolo 4
Durata, rinnovo e prolungamento del tirocinio
1. Gli Stati membri garantiscono che la durata del tirocinio sia limitata nel tempo e non inferiore a un mese, tenuto conto delle prassi nazionali.
2. Gli Stati membri provvedono affinché le disposizioni relative alla durata, al rinnovo o al prolungamento dei tirocini non comportino la sostituzione di posti di lavoro di primo livello, posti vacanti per lavori a tempo pieno o contratti di lavoro a tempo indeterminato con, tra l'altro, il prolungamento dello stesso tirocinio nella stessa posizione per lo stesso soggetto promotore del tirocinio.
3. Gli Stati membri chiariscono i casi e le condizioni in cui un tirocinio può essere prorogato o rinnovato dopo la scadenza del primo contratto di tirocinio.
4. Gli Stati membri si adoperano affinché nel contratto di tirocinio il tirocinante o il soggetto promotore del tirocinio possa risolvere il contratto mediante comunicazione scritta, con un preavviso appropriato in funzione della durata del tirocinio e della prassi nazionale pertinente.
Articolo 5
Riconoscimento del tirocinio
1. Gli Stati membri garantiscono il riconoscimento e la convalida delle conoscenze, abilità e competenze acquisite durante il tirocinio e si adoperano affinché i soggetti promotori dei tirocini le attestino, sulla scorta di una valutazione, mediante un certificato.
2. Gli Stati membri garantiscono che i tirocini siano riconosciuti come esperienza lavorativa nelle procedure di assunzione.
Articolo 6
Obblighi di trasparenza
1. Gli Stati membri si adoperano affinché i soggetti promotori del tirocinio includano negli avvisi di posto vacante e nelle comunicazioni, inclusivi e neutri sotto il profilo del genere, informazioni sulle condizioni del tirocinio, ivi comprese retribuzione, condizioni di lavoro, mansioni previste e assicurazione sanitaria e per infortuni.
2. I soggetti promotori di tirocini forniscono informazioni sulle politiche di assunzione, compresa la percentuale di tirocinanti assunti dal soggetto promotore del tirocinio dopo il tirocinio negli ultimi anni.
3. Nella pubblicazione o comunicazione dell'avviso di posto vacante di tirocinio, i soggetti promotori del tirocinio non richiedono precedente esperienza lavorativa.
4. Gli Stati membri si adoperano affinché gli ispettori del lavoro vietino la sostituzione di posizioni di ingresso o stabili con tirocini.
Articolo 7
Dialogo sociale e coinvolgimento delle parti interessate
1. Fatta salva l'autonomia delle parti sociali e in conformità del diritto e della prassi nazionali, gli Stati membri assicurano il coinvolgimento efficace delle parti sociali e di altre parti interessate pertinenti, nella definizione, nell'attuazione e nel monitoraggio dei diritti e degli obblighi sanciti nella presente direttiva.
2. I tirocinanti hanno accesso alle forme di rappresentanza dei lavoratori, compresi i sindacati.
Articolo 8
Sanzioni
Gli Stati membri stabiliscono le norme relative alle sanzioni applicabili in caso di violazione delle disposizioni nazionali adottate in conformità della presente direttiva o le pertinenti disposizioni già in vigore riguardanti i diritti che rientrano nell'ambito di applicazione della presente direttiva, e adottano tutte le misure necessarie per assicurarne l'attuazione. Le sanzioni previste devono essere effettive, proporzionate e dissuasive. Gli Stati membri notificano tali norme e misure alla Commissione, entro … [tre anni dalla data di entrata in vigore della presente direttiva], e provvedono poi a dare immediata notifica delle eventuali modifiche successive.
Articolo 9
Non regresso e disposizioni più favorevoli
1. La presente direttiva non può né essere utilizzata per ridurre i diritti esistenti dei tirocinanti, né costituire un motivo valido per ridurre il livello generale di protezione riconosciuto ai tirocinanti nel settore disciplinato dalla presente direttiva.
2. La presente direttiva lascia impregiudicata la prerogativa degli Stati membri di applicare o introdurre disposizioni legislative, regolamentari o amministrative più favorevoli ai tirocinanti o di promuovere o consentire l'applicazione di contratti collettivi che siano più favorevoli ai tirocinanti.
Articolo 10
Raccolta dei dati, monitoraggio e valutazione
1. La Commissione pubblica orientamenti per assicurare l'uniformità della raccolta dei dati. La Commissione monitora l'applicazione di tali orientamenti.
2. Gli Stati membri assicurano che la raccolta dei dati dei tirocini a livello nazionale sia condotta in linea con gli orientamenti della Commissione di cui al paragrafo 1. Presentano annualmente i dati raccolti alla Commissione.
Articolo 11
Relazione e riesame
Entro... [tre anni dalla data di entrata in vigore della presente direttiva], la Commissione procede alla valutazione dell'attuazione della presente direttiva e del suo impatto nella pratica e presenta una relazione al Parlamento europeo e al Consiglio.
Articolo 12
Recepimento
1. Gli Stati membri mettono in vigore le disposizioni legislative, regolamentari e amministrative necessarie per conformarsi alla presente direttiva entro ... [due anni dall'entrata in vigore della presente direttiva]. Essi ne informano immediatamente la Commissione.
2. Le disposizioni adottate dagli Stati membri contengono un riferimento alla presente direttiva o sono corredate di tale riferimento all'atto della pubblicazione ufficiale. Le modalità del riferimento sono stabilite dagli Stati membri.
Articolo 13
Entrata in vigore
La presente direttiva entra in vigore il giorno successivo alla pubblicazione nella Gazzetta ufficiale dell'Unione europea.
Articolo 14
Destinatari
Gli Stati membri sono destinatari della presente direttiva.
Fatto a …,
Per il Parlamento europeo Per il Consiglio
La presidente Il presidente
ALLEGATO II ALLA RISOLUZIONE
Proposta di decisione del Parlamento europeo e del Consiglio relativa a un quadro di qualità per i tirocini
IL PARLAMENTO EUROPEO E IL CONSIGLIO DELL'UNIONE EUROPEA,
visto il trattato sul funzionamento dell'Unione europea, in particolare l'articolo 166, paragrafo 4,
vista la proposta della Commissione europea,
visto il parere del Comitato economico e sociale europeo,
visto il parere del Comitato delle regioni,
deliberando secondo la procedura legislativa ordinaria,
considerando quanto segue:
1) Il principio n. 1del pilastro europeo dei diritti sociali stabilisce che ogni persona ha diritto a un'istruzione, a una formazione e a un apprendimento permanente di qualità e inclusivi, al fine di mantenere e acquisire competenze che consentono di partecipare pienamente alla società e di gestire con successo le transizioni nel mercato del lavoro. Il principio 3 del pilastro europeo dei diritti sociali sottolinea che, a prescindere da sesso, razza o origine etnica, religione o convinzioni personali, disabilità, età o orientamento sessuale, ogni persona ha diritto alla parità di trattamento e di opportunità, anche per quanto riguarda l'occupazione e l'istruzione.
2) L'articolo 14, paragrafo 1, della Carta dei diritti fondamentali dell'Unione europea stabilisce che ogni persona ha diritto all'istruzione e all'accesso alla formazione professionale e continua.
3) La strategia per i diritti delle persone con disabilità 2021-2030 mira a garantire la piena partecipazione delle persone con disabilità alla società, su un piano di parità con gli altri nell'Unione e nel resto del mondo. Nell'ambito ditale strategia, la Commissione si impegna a garantire che le persone con disabilità possano partecipare a corsi di formazione e a corsi per acquisire nuove competenze quale requisito fondamentale per l'occupazione e l'indipendenza.
4) I tirocini svolti allo scopo di conseguire titoli d'istruzione intendono offrire agli studenti un'esperienza di apprendimento concreta basata sul lavoro integrando la conoscenza accademica con l'esperienza pratica, offrendo loro l'opportunità di trovare gli ambiti professionali d'interesse e migliorare la loro occupabilità;
5) Se i tirocini, in particolare quelli ripetuti, vengono utilizzati al posto di regolari rapporti di lavoro, soprattutto per le posizioni di ingresso generalmente offerte ai tirocinanti, ne conseguono costi socioeconomici. Inoltre i tirocini di bassa qualità, in particolare quelli con scarsi contenuti di apprendimento, non portano all'occupabilità del tirocinante e non apportano vantaggi a nessuna delle parti. Anche i tirocini non retribuiti, che limitano le opportunità di carriera di coloro che provengono da ambienti svantaggiati, possono comportare costi sociali.
6) È dimostrato il rapporto tra la qualità del tirocinio e gli esiti occupazionali. Il valore del tirocinio ai fini di una più agevole transizione verso il mondo del lavoro dipende dalla qualità stessa del tirocinio in termini di contenuti di apprendimento e condizioni di tirocinio. I tirocini di qualità motivano i giovani nell'ingresso nel mercato del lavoro, migliorano le prospettive future, la stabilità mentale e la corrispondenza tra domanda e offerta sul mercato del lavoro, apportano vantaggi diretti in termini di produttività e promuovono la mobilità, in particolare riducendo i costi relativi alla ricerca e alla compatibilità sia per le imprese sia per i tirocinanti.
7) Le prove dimostrano che c'è un numero significativo di tirocini che non presenta un nesso tra mansioni e obiettivi di apprendimento. Un tirocinio di qualità deve offrire contenuti di apprendimento validi e significativi. Ciò implica che sono necessari l'individuazione delle specifiche competenze che devono essere acquisite, la supervisione e il tutoraggio del tirocinante e il monitoraggio dei suoi progressi nel corso del tirocinio.
8) Sono state altresì individuate delle problematiche in merito alle condizioni di tirocinio, quali orari di lavoro lunghi, la mancanza di copertura previdenziale, la mancanza di copertura assicurativa sanitaria e per infortuni e di congedi per malattia, la protezione da rischi per la salute e la sicurezza o rischi professionali, compensazione nulla o di scarsa entità e assenza di chiarezza sui termini e le condizioni stabilite nei contratti di tirocinio.
9) I tirocini volti all'ottenimento di titoli di istruzione continuano a non essere regolamentati in alcuni Stati membri. In assenza di un quadro o di uno strumento normativo, o a motivo della mancanza di trasparenza in merito alle condizioni di tirocinio e ai contenuti di apprendimento dei tirocini, numerosi soggetti promotori dei tirocini possono utilizzare i tirocinanti come manodopera a basso costo o addirittura gratuita.
10) Un quadro di qualità per i tirocini rafforzato e aggiornato favorirà il miglioramento delle condizioni di tirocinio e l'innalzamento dei contenuti di apprendimento degli stessi. Gli elementi principali del quadro di qualità per i tirocini sono un contratto scritto di tirocinio che indichi gli obiettivi di apprendimento, condizioni di tirocinio dignitose, compreso l'importo della compensazione in linea con il costo della vita, diritti e obblighi e il requisito di limitare il tirocinio a una durata ragionevole.
11) La mancanza di informazioni è una delle cause dei tirocini di qualità scadente ed è un problema molto più diffuso nel caso dei tirocini rispetto all'occupazione regolare. Maggiori requisiti di trasparenza relativamente ad avvisi o annunci inclusivi e neutri sotto il profilo del genere che pubblicizzano le posizioni di tirocinio migliorano l'accessibilità dei tirocini.
12) Le principali parti interessate come le parti sociali, i sindacati studenteschi, i rappresentanti degli studenti, le organizzazioni giovanili e i fornitori di servizi di orientamento professionale lungo tutto l'arco della vita svolgono un ruolo chiave nella progettazione, nell'attuazione e nel monitoraggio delle politiche e dei programmi di formazione. La cooperazione tra questi soggetti può offrire ai tirocinanti informazioni mirate sulle opportunità di carriera disponibili e sui fabbisogni di competenze sui mercati del lavoro, nonché sui diritti e sulle responsabilità dei tirocinanti.
13) L'aumento della mobilità transfrontaliera dei tirocinanti nell'Unione costituisce una delle opportunità. La mancanza di una compensazione dignitosa rappresenta un ostacolo allo sviluppo della mobilità transfrontaliera dei tirocinanti, soprattutto per gli studenti che provengono da gruppi svantaggiati. Inoltre, in alcuni casi sono stati constatati in diversi Stati membri di accoglienza ostacoli amministrativi e giuridici che si frappongono alla mobilità transfrontaliera dei tirocinanti. In tale contesto è importante l'informazione sul diritto alla mobilità transfrontaliera dei tirocinanti. Il quadro di qualità per i tirocini agevolerebbe inoltre l'accesso ai tirocini transfrontalieri, stabilendo principi e orientamenti che fungono da riferimento.
14) I soggetti promotori di tirocini che rispettano il quadro di qualità possono essere sostenuti a livello finanziario da fondi nazionali e dell'Unione. Ciò comprende la possibilità di un contributo ai costi del tirocinio per i soggetti promotori del tirocinio.
15) Il Parlamento europeo ha condannato più volte la pratica dei tirocini non retribuiti come una forma di sfruttamento dei giovani lavoratori e una violazione dei loro diritti e ha chiesto un quadro giuridico comune per garantire ai tirocinanti una retribuzione equa al fine di evitare pratiche di sfruttamento.
16) Il quadro di qualità per i tirocini costituisce un importante punto di riferimento per definire quello che costituisce un tirocinio di qualità.
17) La presente decisione dovrebbe riguardare i tirocinanti che svolgono tirocini volti al conseguimento di titoli di istruzione.
18) I tirocinanti oggetto della presente decisione dovrebbero avere accesso a un'adeguata compensazione determinata da ciascuno Stato membro in considerazione delle condizioni socioeconomiche nazionali e del costo della vita. Dovrebbe coprire almeno le necessità di vita più elementari, quali vitto, alloggio e trasporto. Dovrebbe essere di natura finanziaria o integrata in altro modo da prestazioni in natura.
19) Tenuto conto della sua natura e dei suoi obiettivi, la presente decisione non dovrebbe essere interpretata come un ostacolo agli Stati membri che intendano mantenere o introdurre disposizioni più favorevoli per i tirocinanti,
HANNO ADOTTATO LA PRESENTE DECISIONE:
Articolo 1
Obiettivi
Gli obiettivi del quadro di qualità per i tirocini mirano al miglioramento:
a) della qualità dei tirocini svolti allo scopo di conseguire titoli di istruzione, in particolare in merito ai contenuti di apprendimento e formazione, alle condizioni di tirocinio, al fine di facilitare la transizione verso il mondo del lavoro;
b) dell'accessibilità di tali tirocini allo scopo di aumentare, in particolare, la partecipazione dei giovani provenienti da gruppi svantaggiati e delle persone con disabilità mediante l'attuazione degli articoli da 2 a 13.
Articolo 2
Conclusione di un contratto scritto di tirocinio
1. Gli Stati membri prescrivono che i tirocini si basino su un contratto scritto concluso all'inizio del tirocinio tra il tirocinante e il soggetto promotore del tirocinio.
2. Gli Stati membri prescrivono che i contratti di tirocinio precisino gli obiettivi di apprendimento, le condizioni di tirocinio, la corresponsione di una compensazione adeguata al tirocinante da parte del soggetto promotore del tirocinio, i diritti e gli obblighi delle parti in virtù del diritto nazionale e dell'Unione applicabile e la durata del tirocinio.
Articolo 3
Obiettivi di apprendimento e di formazione
1. Gli Stati membri promuovono le migliori pratiche per quanto riguarda gli obiettivi di apprendimento e di formazione stabiliti congiuntamente dal tirocinante, dal soggetto promotore del tirocinio e dall'istituto d'istruzione al fine di aiutare i tirocinanti ad acquisire esperienza pratica e competenze pertinenti. Le mansioni assegnate al tirocinante dovrebbero consentire il conseguimento di tali obiettivi.
2. Gli Stati membri incoraggiano i soggetti promotori di tirocini a designare un tutore per i tirocinanti che li guidi attraverso i compiti assegnati, monitorandone e valutandone i progressi, garantendo nel contempo il trasferimento intergenerazionale di competenze.
Articolo 4
Condizioni di formazione applicabili ai tirocinanti
1. Gli Stati membri provvedono affinché siano rispettati i diritti, le condizioni di formazione e l'accesso alla protezione sociale dei tirocinanti, a norma del diritto nazionale e dell'Unione applicabile, compresi i limiti all'orario settimanale di lavoro, i periodi minimi di riposo giornaliero e settimanale, i diritti minimi alle ferie, i congedi per malattia, i diritti al telelavoro e l'accesso alla rappresentanza, e che le ore di formazione e la durata della formazione siano compatibili con il piano di studio interessato, nel caso in cui la formazione e l'istruzione debbano essere svolte simultaneamente.
2. Gli Stati membri garantiscono che i tirocinanti siano coperti da un'assicurazione sanitaria e per infortuni e che sia loro riconosciuto il congedo per malattia in conformità del diritto e della prassi nazionali.
3. Gli Stati membri garantiscono che i tirocinanti oggetto della presente decisione abbiano accesso a un'adeguata compensazione determinata da ciascuno Stato membro in considerazione delle condizioni socioeconomiche nazionali e del costo della vita.
4. Gli Stati membri provvedono affinché qualsiasi parte a distanza di un tirocinio soddisfi le condizioni di formazione, sia adeguatamente monitorata dal tutore e attui integralmente il quadro di qualità per i tirocini.
5. Gli Stati membri provvedono affinché gli ispettorati del lavoro e le autorità competenti nazionali dispongano di canali per segnalare le pratiche scorrette e le cattive condizioni dei tirocinanti.
Articolo 5
Diritti e obblighi
Gli Stati membri incoraggiano le parti interessate a garantire che il contratto di tirocinio stabilisca i diritti e gli obblighi del tirocinante e del soggetto promotore del tirocinio e richiami, se del caso, anche la politica seguita dal soggetto promotore del tirocinio in materia di riservatezza e la titolarità dei diritti di proprietà intellettuale.
Articolo 6
Durata del tirocinio
1. Gli Stati membri garantiscono una durata ragionevole dei tirocini che, in linea di principio, non superi i sei mesi, salvo nei casi in cui una durata maggiore sia giustificata, tenendo conto delle prassi nazionali.
2. Gli Stati membri promuovono la pratica in base alla quale il contratto di tirocinio debba precisare che il tirocinante o il soggetto promotore del tirocinio può risolvere il contratto mediante comunicazione scritta a tutte le parti, con un preavviso appropriato in funzione della durata del tirocinio e la prassi nazionale pertinente.
Articolo 7
Riconoscimento del tirocinio
Gli Stati membri garantiscono il riconoscimento, la convalida e la certificazione delle conoscenze, abilità e competenze acquisite durante il tirocinio da parte sia del soggetto promotore del tirocinio che dell'istituto d'istruzione.
Articolo 8
Accessibilità del tirocinio
1. Gli Stati membri promuovono un maggiore accesso ai tirocini per i tirocinanti provenienti da contesti vulnerabili, compresi i tirocinanti con disabilità.
2. Gli Stati membri provvedono affinché i luoghi di lavoro siano adattati per essere accessibili ai tirocinanti con disabilità.
Articolo 9
Obblighi di trasparenza
Gli Stati membri incoraggiano i soggetti promotori di tirocini a includere negli avvisi di posto vacante e negli annunci pubblicitari neutri sotto il profilo del genere e inclusivi informazioni sui termini e sulle condizioni del tirocinio, in particolare per quanto riguarda la compensazione, l'assicurazione sanitaria e per infortuni e i compiti previsti, e a fornire informazioni sulle politiche di assunzione, compresa la percentuale di tirocinanti assunti negli ultimi anni.
Articolo 10
Tirocini transfrontalieri
1. Gli Stati membri agevolano la mobilità transfrontaliera dei tirocinanti nell'Unione tra l'altro mediante un più chiaro quadro giuridico nazionale relativo ai tirocini, la definizione di norme chiare circa l'accoglienza di tirocinanti di altri Stati membri o l'invio di tirocinanti in altri Stati membri e una riduzione delle formalità amministrative.
2. In caso di cittadini di paesi terzi che svolgono tirocini all'interno dell'Unione, gli Stati membri agevolano l'applicazione del quadro di qualità per i tirocini nei loro confronti.
3. In caso di mobilità al di fuori dell'Unione, gli Stati membri promuovono il rispetto del quadro di qualità per i tirocini negli accordi tra istituti di istruzione e soggetti promotori di tirocini.
Articolo 11
Sostegno finanziario
Gli Stati membri promuovono l'utilizzo di fondi nazionali e/o dell'Unione, come il Fondo Sociale Europeo Plus, il Fondo Europeo per lo Sviluppo Regionale e il dispositivo per la ripresa e la resilienza, per i soggetti promotori di tirocini che rispettano il quadro di qualità per i tirocini.
Articolo 12
Raccolta dei dati, monitoraggio e valutazione
1. La Commissione pubblica gli orientamenti relativi a sistemi di monitoraggio appropriati al fine di garantire uniformità della raccolta dei dati per assicurare una raccolta dei dati migliore e comparativa sui tirocini a livello nazionale.
2. Sulla base degli orientamenti pubblicati a norma del paragrafo 1, la Commissione monitora, in cooperazione con gli Stati membri ed in particolare mediante l'EMCO, i progressi nell'attuazione del quadro di qualità per i tirocini in conformità della presente decisione e analizza gli effetti delle politiche in essere.
Articolo 14
Attuazione del quadro di qualità per i tirocini
1. Gli Stati membri adottano le misure appropriate per attuare il quadro di qualità per i tirocini in tempi brevi.
2. Entro ... [tre anni dopo la data di adozione della presente decisione] gli Stati membri forniscono alla Commissione informazioni sulle misure adottate a norma della presente decisione.
3. Gli Stati membri promuovono la partecipazione attiva delle parti interessate, in particolare le parti sociali, i sindacati studenteschi, i rappresentanti degli studenti, le organizzazioni giovanili e i fornitori di servizi di orientamento professionale lungo tutto l'arco della vita, nell'attuazione del quadro di qualità per i tirocini.
Articolo 14
Entrata in vigore
La presente decisione entra in vigore il giorno successivo alla pubblicazione nella Gazzetta ufficiale dell'Unione europea.
Articolo 15
Destinatari
Gli Stati membri sono destinatari della presente decisione.
Risoluzione del Parlamento europeo del 17 febbraio 2022 sul rafforzamento del ruolo dei giovani europei: occupazione e ripresa sociale dopo la pandemia (GU C 342 del 6.9.2022, pag. 265).
Articolo 21 sulla non discriminazione della Carta dei diritti fondamentali dell'Unione europea http://fra.europa.eu/it/eu-charter/article/21-non-discriminazione.
Articolo 21 sulla non discriminazione della Carta dei diritti fondamentali dell'Unione europea http://fra.europa.eu/it/eu-charter/article/21-non-discriminazione.
Direttiva 2000/78/CE del Consiglio, del 27 novembre 2000, che stabilisce un quadro generale per la parità di trattamento in materia di occupazione e di condizioni di lavoro (GU L 303 del 2.12.2000, pag. 16).
Direttiva (UE) 2022/2041 del Parlamento europeo e del Consiglio del 19 ottobre 2022 relativa a salari minimi adeguati nell’Unione europea (GU L 275 del 25.10.2022, pag. 33).
Direttiva 2003/88/CE del Parlamento europeo e del Consiglio, del 4 novembre 2003, concernente taluni aspetti dell'organizzazione dell'orario di lavoro (GU L 299 del 18.11.2003, pag. 9).
Direttiva (UE) 2019/1152 del Parlamento europeo e del Consiglio, del 20 giugno 2019, relativa a condizioni di lavoro trasparenti e prevedibili nell’Unione europea (GU L 186 dell'11.7.2019, pag. 105).