Index 
 Înapoi 
 Înainte 
 Text integral 
Procedură : 2021/0106(COD)
Stadiile documentului în şedinţă
Stadii ale documentului : A9-0188/2023

Texte depuse :

A9-0188/2023

Dezbateri :

PV 13/06/2023 - 8
CRE 13/06/2023 - 8

Voturi :

PV 14/06/2023 - 10.6
CRE 14/06/2023 - 10.6
Explicaţii privind voturile
PV 13/03/2024 - 8.2
Explicaţii privind voturile

Texte adoptate :

P9_TA(2023)0236
P9_TA(2024)0138

Texte adoptate
PDF 1027kWORD 278k
Miercuri, 14 iunie 2023 - Strasbourg
Regulamentul privind inteligența artificială
P9_TA(2023)0236A9-0188/2023

Amendamentele adoptate de Parlamentul European la 14 iunie 2023 referitoare la propunerea de regulament al Parlamentului European și al Consiliului de stabilire a unor norme armonizate privind inteligența artificială (Legea privind inteligența artificială) și de modificare a anumitor acte legislative ale Uniunii (COM(2021)0206 – C9-0146/2021 – 2021/0106(COD))(1)

(Procedura legislativă ordinară: prima lectură)

Textul propus de Comisie   Amendamentul
Amendamentul 1
Propunere de regulament
Referirea 4 a (nouă)
având în vedere avizul Băncii Centrale Europene,
Amendamentul 2
Propunere de regulament
Referirea 4 b (nouă)
având în vedere avizul comun al Comitetului european pentru protecția datelor și al Autorității Europene pentru Protecția Datelor,
Amendamentul 3
Propunere de regulament
Considerentul 1
(1)  Scopul prezentului regulament este de a îmbunătăți funcționarea pieței interne prin stabilirea unui cadru juridic uniform, în special pentru dezvoltarea, comercializarea și utilizarea inteligenței artificiale, în conformitate cu valorile Uniunii. Prezentul regulament urmărește o serie de motive imperative de interes public major, cum ar fi un nivel ridicat de protecție a sănătății, a siguranței și a drepturilor fundamentale, și asigură libera circulație transfrontalieră a bunurilor și serviciilor bazate pe IA, împiedicând astfel statele membre să impună restricții privind dezvoltarea, comercializarea și utilizarea sistemelor de IA, cu excepția cazului în care acest lucru este autorizat în mod explicit de prezentul regulament.
(1)  Scopul prezentului regulament este de a promova adoptarea inteligenței artificiale centrate pe factorul uman și fiabile și de a asigura un nivel ridicat de protecție a sănătății, siguranței, drepturilor fundamentale, democrației și statului de drept și a mediului împotriva efectelor dăunătoare ale sistemelor de inteligență artificială din Uniune, sprijinind, în același timp, inovarea și îmbunătățind funcționarea pieței interne. Prezentul regulament stabilește un cadru juridic uniform, în special pentru dezvoltarea, introducerea pe piață, punerea în funcțiune și utilizarea inteligenței artificiale, în conformitate cu valorile Uniunii și asigură libera circulație transfrontalieră a bunurilor și serviciilor bazate pe IA, împiedicând astfel statele membre să impună restricții privind dezvoltarea, comercializarea și utilizarea sistemelor de inteligență artificială (sisteme de IA), cu excepția cazului în care acest lucru este autorizat în mod explicit de prezentul regulament. Unele sisteme de IA pot avea, de asemenea, un impact asupra democrației, a statului de drept și a mediului. Aceste preocupări sunt abordate în mod specific în sectoarele critice și în cazurile de utilizare enumerate în anexele la prezentul regulament.
Amendamentul 4
Propunere de regulament
Considerentul 1 a (nou)
(1a)  Prezentul regulament ar trebui să mențină valorile Uniunii, facilitând distribuirea beneficiilor inteligenței artificiale în întreaga societate, protejând persoanele, întreprinderile, democrația, statul de drept și mediul împotriva riscurilor, stimulând totodată inovarea și ocuparea forței de muncă și făcând din Europa un lider în domeniu.
Amendamentul 5
Propunere de regulament
Considerentul 2
(2)  Sistemele de inteligență artificială (sistemele de IA) pot fi implementate cu ușurință în mai multe sectoare ale economiei și societății, inclusiv la nivel transfrontalier, și pot circula în întreaga Uniune. Anumite state membre au explorat deja adoptarea unor norme naționale pentru a se asigura că inteligența artificială este sigură și că este dezvoltată și utilizată în conformitate cu obligațiile în materie de drepturi fundamentale. Normele naționale diferite pot duce la fragmentarea pieței interne și pot reduce gradul de securitate juridică pentru operatorii care dezvoltă sau utilizează sisteme de IA. Prin urmare, ar trebui să se asigure un nivel ridicat și consecvent de protecție în întreaga Uniune, iar divergențele care împiedică libera circulație a sistemelor de IA și a produselor și serviciilor conexe în cadrul pieței interne ar trebui prevenite, prin stabilirea unor obligații uniforme pentru operatori și prin garantarea protecției uniforme a motivelor imperative de interes public major și a drepturilor persoanelor în întreaga piață internă, în temeiul articolului 114 din Tratatul privind funcționarea Uniunii Europene (TFUE). În măsura în care prezentul regulament conține norme specifice privind protecția persoanelor fizice în ceea ce privește prelucrarea datelor cu caracter personal referitoare la restricțiile de utilizare a sistemelor de IA pentru identificarea biometrică la distanță „în timp real” în spațiile accesibile publicului în scopul asigurării respectării legii, este oportun ca prezentul regulament să se întemeieze, în ceea ce privește normele specifice respective, pe articolul 16 din TFUE. Având în vedere aceste norme specifice și recurgerea la articolul 16 din TFUE, este oportun să se consulte Comitetul european pentru protecția datelor.
(2)  Sistemele de inteligență artificială pot fi implementate cu ușurință în mai multe sectoare ale economiei și societății, inclusiv la nivel transfrontalier, și pot circula în întreaga Uniune. Anumite state membre au explorat deja adoptarea unor norme naționale pentru a se asigura că inteligența artificială este fiabilă și sigură și că este dezvoltată și utilizată în conformitate cu obligațiile în materie de drepturi fundamentale. Normele naționale diferite pot duce la fragmentarea pieței interne și pot reduce gradul de securitate juridică pentru operatorii care dezvoltă sau utilizează sisteme de IA. Prin urmare, ar trebui să se asigure un nivel ridicat și consecvent de protecție în întreaga Uniune pentru se realiza o IA fiabilă, iar divergențele care împiedică libera circulație, inovația, implementarea și adoptarea sistemelor de IA și a produselor și serviciilor conexe în cadrul pieței interne ar trebui prevenite, prin stabilirea unor obligații uniforme pentru operatori și prin garantarea protecției uniforme a motivelor imperative de interes public major și a drepturilor persoanelor în întreaga piață internă, în temeiul articolului 114 din Tratatul privind funcționarea Uniunii Europene (TFUE).
Amendamentul 6
Propunere de regulament
Considerentul 2 a (nou)
(2a)  Întrucât inteligența artificială se bazează adesea pe prelucrarea unor volume mari de date și numeroase sisteme și aplicații de IA se bazează pe prelucrarea datelor cu caracter personal, este oportun ca prezentul regulament să se întemeieze pe articolul 16 din TFUE, care consacră dreptul persoanelor fizice la protecție în ceea ce privește prelucrarea datelor cu caracter personal și prevede adoptarea de norme privind protecția persoanelor fizice în ceea ce privește prelucrarea datelor cu caracter personal.
Amendamentul 7
Propunere de regulament
Considerentul 2 b (nou)
(2b)  Dreptul fundamental la protecția datelor cu caracter personal este protejat în special de Regulamentul (UE) 2016/679 și Regulamentul (UE) 2018/1725 și de Directiva 2016/680. Directiva 2002/58/CE protejează, în plus, viața privată și confidențialitatea comunicațiilor și prevede inclusiv condiții pentru stocarea oricăror date cu caracter personal și fără caracter personal și accesarea acestora de pe echipamentele terminale. Aceste acte juridice asigură temeiul prelucrării sustenabile și responsabile a datelor, inclusiv în cazul în care seturile de date conțin un amestec de date cu caracter personal și date fără caracter personal. Prezentul regulament nu urmărește să afecteze aplicarea dreptului în vigoare al Uniunii care reglementează prelucrarea datelor cu caracter personal, inclusiv a sarcinilor și competențelor autorităților de supraveghere independente care sunt competente să monitorizeze respectarea acestor instrumente. Prezentul regulament nu aduce atingere drepturilor fundamentale la viață privată și la protecția datelor cu caracter personal prevăzute de dreptul Uniunii privind protecția datelor și a vieții private și consacrate în Carta drepturilor fundamentale a Uniunii Europene („Carta”).
Amendamentul 8
Propunere de regulament
Considerentul 2 c (nou)
(2c)  Sistemele de inteligență artificială din Uniune fac obiectul legislației aplicabile privind siguranța produselor, care oferă un cadru de protecție a consumatorilor împotriva produselor periculoase în general, iar această legislație ar trebui să se aplice în continuare. De asemenea, prezentul regulament nu aduce atingere normelor prevăzute de alte acte juridice ale Uniunii privind protecția consumatorilor și siguranța produselor, inclusiv Regulamentul (UE) 2017/2394, Regulamentul (UE) 2019/1020, Directiva 2001/95/CE privind siguranța generală a produselor și Directiva 2013/11/UE.
Amendamentul 9
Propunere de regulament
Considerentul 2 d (nou)
(2d)  În conformitate cu articolul 114 alineatul (2) din TFUE, prezentul regulament completează și nu ar trebui să submineze drepturile și interesele persoanelor încadrate în muncă. Prin urmare, prezentul regulament nu ar trebui să aducă atingere dreptului Uniunii privind politica socială și dreptului și practicilor interne în domeniul muncii, și anume să nu afecteze dispozițiile legale și contractuale privind condițiile de încadrare în muncă, condițiile de muncă, inclusiv sănătatea și siguranța la locul de muncă și relația dintre angajatori și lucrători, inclusiv informarea, consultarea și participarea. Prezentul regulament nu ar trebui să afecteze exercitarea drepturilor fundamentale, astfel cum sunt recunoscute în statele membre și la nivelul Uniunii, inclusiv dreptul sau libertatea de a intra în grevă sau de a întreprinde alte acțiuni reglementate de sistemele specifice de relații de muncă din statele membre, în conformitate cu dreptul și/sau practicile interne. De asemenea, acesta nu ar trebui să afecteze practicile de concertare, dreptul de a negocia, de a încheia și de a pune în aplicare convenții colective sau de a desfășura acțiuni colective în conformitate cu dreptul și/sau practicile naționale. În nicio situație, prezentul regulament nu ar trebui să împiedice Comisia să propună o legislație specifică privind drepturile și libertățile lucrătorilor afectați de sistemele de IA.
Amendamentul 10
Propunere de regulament
Considerentul 2 e (nou)
(2e)  Prezentul regulament nu ar trebui să aducă atingere dispozițiilor care vizează îmbunătățirea condițiilor de muncă în ceea ce privește munca prin intermediul platformelor prevăzute în Directiva... [COD 2021/414/CE].
Amendamentul 11
Propunere de regulament
Considerentul 2 f (nou)
(2f)  Prezentul regulament ar trebui să contribuie la sprijinirea cercetării și inovării și nu ar trebui să submineze activitatea de cercetare și dezvoltare și să respecte libertatea cercetării științifice. Prin urmare, este necesar să se excludă din domeniul său de aplicare sistemele de IA dezvoltate în mod specific în scopul exclusiv al cercetării și dezvoltării științifice și să se asigure că regulamentul nu afectează în alt mod activitatea de cercetare și dezvoltare științifică privind sistemele de IA. În orice situație, orice activitate de cercetare și dezvoltare ar trebui să se desfășoare în conformitate cu Carta, cu dreptul Uniunii, precum și cu dreptul național.
Amendamentul 12
Propunere de regulament
Considerentul 3
(3)  Inteligența artificială este o familie de tehnologii cu evoluție rapidă, care poate genera o gamă largă de beneficii economice și societale în întregul spectru de industrii și activități sociale. Prin îmbunătățirea previziunilor, optimizarea operațiunilor și a alocării resurselor, precum și prin personalizarea soluțiilor digitale disponibile pentru persoane și organizații, utilizarea inteligenței artificiale poate oferi avantaje concurențiale esențiale întreprinderilor și poate sprijini obținerea de rezultate benefice din punct de vedere social și ecologic, de exemplu în domeniul asistenței medicale, al agriculturii, al educației și formării, al gestionării infrastructurii, al energiei, al transporturilor și logisticii, al serviciilor publice, al securității, justiției, eficienței resurselor și energiei, precum și al atenuării schimbărilor climatice și al adaptării la acestea.
(3)  Inteligența artificială este o familie de tehnologii cu evoluție rapidă, care poate să contribuie și contribuie deja la o gamă largă de beneficii economice, de mediu și societale în întregul spectru de industrii și activități sociale dacă este dezvoltată în conformitate cu principiile generale aplicabile în acord cu Carta și cu valorile pe care se întemeiază Uniunea. Prin îmbunătățirea previziunilor, optimizarea operațiunilor și a alocării resurselor, precum și prin personalizarea soluțiilor digitale disponibile pentru persoane și organizații, utilizarea inteligenței artificiale poate oferi avantaje concurențiale esențiale întreprinderilor și poate sprijini obținerea de rezultate benefice din punct de vedere social și ecologic, de exemplu în domeniul asistenței medicale, al agriculturii, al siguranței alimentare, al educației și formării, al mass-mediei, al sporturilor, al culturii, al gestionării infrastructurii, al energiei, al transporturilor și logisticii, al gestionării crizelor, al serviciilor publice, al securității, justiției, eficienței resurselor și energiei, al monitorizării mediului, al conservării și refacerii biodiversității și ecosistemelor, precum și al atenuării schimbărilor climatice și al adaptării la acestea.
Amendamentul 13
Propunere de regulament
Considerentul 3 a (nou)
(3a)  Pentru a contribui la îndeplinirea obiectivelor privind neutralitatea emisiilor de dioxid de carbon, întreprinderile europene ar trebui să încerce să utilizeze toate progresele tehnologice disponibile care le pot asista în realizarea acestui obiectiv. Inteligența artificială este o tehnologie care are potențialul de a putea fi utilizată la prelucrarea volumului tot mai mare de date create în timpul proceselor industriale, ecologice, sanitare și de altă natură. În scopul de a facilita investițiile în instrumente de analiză și optimizare bazate pe IA, prezentul regulament ar trebui să ofere un mediu previzibil și proporțional pentru soluțiile industriale cu risc scăzut.
Amendamentul 14
Propunere de regulament
Considerentul 4
(4)  În același timp, în funcție de circumstanțele legate de aplicarea și utilizarea sa specifică, inteligența artificială poate genera riscuri și poate aduce prejudicii intereselor publice și drepturilor care sunt protejate de dreptul Uniunii. Un astfel de prejudiciu ar putea fi material sau moral.
(4)  În același timp, în funcție de circumstanțele legate de aplicarea și utilizarea sa specifică, precum și de nivelul de dezvoltare tehnologică, inteligența artificială poate genera riscuri și poate aduce prejudicii intereselor publice sau private și drepturilor fundamentale ale persoanelor fizice, care sunt protejate de dreptul Uniunii. Un astfel de prejudiciu ar putea fi material sau moral, inclusiv de natură fizică, psihologică, societală sau economică.
Amendamentul 15
Propunere de regulament
Considerentul 4 a (nou)
(4a)  Având în vedere impactul major pe care inteligența artificială îl poate avea asupra societății și necesitatea de a genera încredere, este esențial ca inteligența artificială și cadrul său normativ să fie dezvoltate în concordanță cu valorile Uniunii consacrate la articolul 2 din TUE, cu drepturile și libertățile fundamentale consacrate în tratate, în Cartă și în dreptul internațional al drepturilor omului. O condiție prealabilă ar trebui să fie ca inteligența artificială să fie o tehnologie centrată pe factorul uman. Aceasta nu ar trebui să înlocuiască autonomia umană și nici să presupună pierderea libertății individuale, ci ar trebui să servească în primul rând nevoilor societății și binelui comun. Ar trebui prevăzute garanții pentru a se asigura dezvoltarea și utilizarea inteligenței artificiale integrate etic, care respectă valorile Uniunii și Carta.
Amendamentul 16
Propunere de regulament
Considerentul 5
(5)  Prin urmare, este necesar un cadru juridic al Uniunii care să stabilească norme armonizate privind inteligența artificială pentru a încuraja dezvoltarea, utilizarea și adoptarea inteligenței artificiale pe piața internă și care să asigure, în același timp, un nivel ridicat de protecție a intereselor publice, cum ar fi sănătatea, siguranța și protecția drepturilor fundamentale, astfel cum sunt recunoscute și protejate de dreptul Uniunii. Pentru atingerea acestui obiectiv, ar trebui stabilite norme care să reglementeze introducerea pe piață și punerea în funcțiune a anumitor sisteme de IA, asigurând astfel buna funcționare a pieței interne și permițând acestor sisteme să beneficieze de principiul liberei circulații a bunurilor și serviciilor. Prin stabilirea acestor norme, prezentul regulament sprijină obiectivul Uniunii de a se poziționa ca lider mondial în dezvoltarea unei inteligențe artificiale sigure, de încredere și etice, astfel cum a afirmat Consiliul European33, și asigură protecția principiilor etice, astfel cum a solicitat în mod expres Parlamentul European34.
(5)  Prin urmare, este necesar un cadru juridic al Uniunii care să stabilească norme armonizate privind inteligența artificială pentru a încuraja dezvoltarea, utilizarea și adoptarea inteligenței artificiale pe piața internă și care să asigure, în același timp, un nivel ridicat de protecție a intereselor publice, cum ar fi sănătatea și siguranța, protecția drepturilor fundamentale, democrația și statul de drept și mediul, astfel cum sunt recunoscute și protejate de dreptul Uniunii. Pentru atingerea acestui obiectiv, ar trebui stabilite norme care să reglementeze introducerea pe piață, punerea în funcțiune și utilizarea anumitor sisteme de IA, asigurând astfel buna funcționare a pieței interne și permițând acestor sisteme să beneficieze de principiul liberei circulații a bunurilor și serviciilor. Aceste norme ar trebui să fie clare și solide în ceea ce privește protejarea drepturilor fundamentale, sprijinirea noilor soluții inovatoare și facilitarea unui ecosistem european de actori publici și privați care creează sisteme de IA în conformitate cu valorile Uniunii. Prin stabilirea acestor norme, precum și a unor măsuri de susținere a inovării cu un accent special pe IMM-uri și întreprinderile nou-înființate, prezentul regulament sprijină obiectivul de promovare a IA create în Europa, de poziționare a Uniunii ca lider mondial în dezvoltarea unei inteligențe artificiale sigure, de încredere și etice, astfel cum a afirmat Consiliul European33, și asigură protecția principiilor etice, astfel cum a solicitat în mod expres Parlamentul European34.
__________________
__________________
33 Consiliul European, Reuniunea extraordinară a Consiliului European (1-2 octombrie 2020) – Concluzii, EUCO 13/20, 2020, p. 6.
33 Consiliul European, Reuniunea extraordinară a Consiliului European (1-2 octombrie 2020) – Concluzii, EUCO 13/20, 2020, p. 6.
34 Rezoluția Parlamentului European din 20 octombrie 2020 conținând recomandări adresate Comisiei privind cadrul de aspecte etice asociate cu inteligența artificială, robotica și tehnologiile conexe, 2020/2012 (INL).
34 Rezoluția Parlamentului European din 20 octombrie 2020 conținând recomandări adresate Comisiei privind cadrul de aspecte etice asociate cu inteligența artificială, robotica și tehnologiile conexe, 2020/2012 (INL).
Amendamentul 17
Propunere de regulament
Considerentul 5 a (nou)
(5a)  În plus, pentru a promova dezvoltarea sistemelor de IA în conformitate cu valorile Uniunii, Uniunea trebuie să abordeze principalele lacune și bariere care blochează potențialul transformării digitale, inclusiv deficitul de lucrători cu competențe digitale, preocupările în materie de securitate cibernetică, lipsa investițiilor și accesul la investiții, precum și decalajele existente și potențiale dintre întreprinderile mari, IMM-uri și întreprinderile nou-înființate. Ar trebui să se acorde o atenție deosebită asigurării faptului că beneficiile IA și ale inovării în domeniul noilor tehnologii sunt resimțite în toate regiunile Uniunii și că sunt puse la dispoziție suficiente investiții și resurse, în special pentru regiunile care ar putea înregistra întârzieri în ceea ce privește unii indicatori digitali.
Amendamentul 18
Propunere de regulament
Considerentul 6
(6)  Noțiunea de sistem de IA ar trebui definită în mod clar pentru a asigura securitatea juridică, oferind, în același timp, flexibilitatea necesară pentru a ține seama de evoluțiile tehnologice viitoare. Definiția ar trebui să se bazeze pe caracteristicile funcționale esențiale ale software-ului, în special pe capacitatea, pentru un anumit set de obiective definite de om, de a genera rezultate cum ar fi conținutul, previziunile, recomandările sau deciziile care influențează mediul cu care interacționează sistemul, fie că este vorba de o dimensiune fizică, fie de una digitală. Sistemele de IA pot fi proiectate pentru a funcționa cu diferite niveluri de autonomie și pot fi utilizate în mod independent sau ca o componentă a unui produs, indiferent dacă sistemul este integrat fizic în produs (încorporat) sau dacă servește funcționalității produsului fără a fi integrat în acesta (neîncorporat). Definiția sistemului de IA ar trebui să fie completată de o listă de tehnici și abordări specifice utilizate pentru dezvoltarea sa, care ar trebui să fie actualizată în lumina evoluțiilor tehnologice și ale pieței prin adoptarea de acte delegate de către Comisie pentru modificarea listei respective.
(6)  Noțiunea de sistem de IA din prezentul regulament ar trebui definită în mod clar și aliniată îndeaproape la activitatea organizațiilor internaționale care lucrează în domeniul inteligenței artificiale, pentru a asigura securitatea juridică, armonizarea și acceptarea pe scară largă, oferind, în același timp, flexibilitatea necesară pentru a ține seama de evoluțiile tehnologice rapide din acest domeniu. Mai mult, aceasta ar trebui să se bazeze pe caracteristicile esențiale ale inteligenței artificiale, cum ar fi capacitățile sale de învățare, de raționament sau de modelare, pentru a o diferenția de sistemele software sau de abordările de programare mai simple. Sistemele de IA sunt proiectate pentru a funcționa cu diferite niveluri de autonomie, ceea ce înseamnă că au cel puțin un anumit grad de independență a acțiunilor față de controlul uman și capacități de a funcționa fără intervenție umană. Termenul „bazat pe calculator” se referă la faptul că sistemele de IA rulează pe calculatoare. Trimiterea la obiective explicite sau implicite subliniază faptul că sistemele de IA pot funcționa în conformitate cu obiective explicite definite de om sau cu obiective implicite. Obiectivele sistemului de IA pot fi diferite de scopul preconizat al sistemului de IA într-un context specific. Trimiterea la previziuni include conținutul, care este considerat în prezentul regulament drept o formă de previziune, fiind unul dintre rezultatele posibile produse de un sistem de IA. În sensul prezentului regulament, mediile ar trebui înțelese ca fiind contextele în care funcționează sistemele de IA, în timp ce rezultatele generate de sistemul de IA, adică previziunile, recomandările sau deciziile, răspund obiectivelor sistemului, pe baza datelor de intrare din mediul respectiv. Aceste rezultate influențează și mai mult mediul respectiv, chiar și prin simpla introducere a unor noi informații.
Amendamentul 19
Propunere de regulament
Considerentul 6 a (nou)
(6a)  Sistemele de IA dispun adeseori de capacități de învățare automată care le permit să se adapteze și să îndeplinească noi sarcini în mod autonom. Învățarea automată se referă la procesul de calcul constând în optimizarea, pe baza unor date, a parametrilor unui model, care este o construcție matematică generând un rezultat pornind de la date de intrare. Abordările de învățare automată includ, de pildă, învățarea supervizată, învățarea nesupervizată și învățarea complementară, utilizând o gamă de metode, inclusiv învățarea aprofundată cu rețele neuronale. Prezentul regulament vizează abordarea noilor riscuri potențiale care pot apărea prin delegarea controlului către sistemele de IA, în special către acele sisteme de IA care pot evolua după implementare. Funcția și rezultatele multora dintre aceste sisteme de IA se bazează pe relații matematice abstracte, pe care oamenii au dificultății să le înțeleagă, să le monitorizeze și să le identifice datele de intrare specifice. Aceste caracteristici complexe și opace (elementul „cutie neagră”) influențează răspunderea și explicabilitatea. Tehnicile comparabil mai simple, cum ar fi abordările bazate pe cunoaștere, estimarea bayeziană sau arborii decizionali pot conduce, de asemenea, la lacune juridice care trebuie abordate în prezentul regulament, în special atunci când sunt utilizate în combinație cu abordările învățării automate în sistemele hibride.
Amendamentul 20
Propunere de regulament
Considerentul 6 b (nou)
(6b)  Sistemele de IA pot fi utilizate ca sistem software de sine stătător, pot fi integrate într-un produs fizic (încorporate), pot fi utilizate pentru a servi funcționalității unui produs fizic fără a fi integrate în acesta (neîncorporate) sau pot fi utilizate ca o componentă de IA a unui sistem mai mare. Dacă acest sistem mai mare nu ar funcționa fără componenta de IA în cauză, atunci întregul sistem mai mare ar trebui considerat ca fiind un singur sistem de IA în temeiul prezentului regulament.
Amendamentul 21
Propunere de regulament
Considerentul 7
(7)  Noțiunea de date biometrice utilizată în prezentul regulament este în concordanță cu noțiunea de date biometrice astfel cum este definită la articolul 4 alineatul (14) din Regulamentul (UE) 2016/679 al Parlamentului European și al Consiliului35, la articolul 3 alineatul (18) din Regulamentul (UE) 2018/1725 al Parlamentului European și al Consiliului36 și la articolul 3 alineatul (13) din Directiva (UE) 2016/680 a Parlamentului European și a Consiliului37 și ar trebui interpretată în concordanță cu aceasta.
(7)  Noțiunea de date biometrice utilizată în prezentul regulament este în concordanță cu noțiunea de date biometrice astfel cum este definită la articolul 4 alineatul (14) din Regulamentul (UE) 2016/679 al Parlamentului European și al Consiliului35. Datele bazate pe date biometrice sunt date suplimentare care rezultă în urma unei prelucrări tehnice specifice referitoare la semnalele fizice, fiziologice sau comportamentale ale unei persoane fizice, cum ar fi expresiile faciale, mișcările, frecvența pulsului, vocea, modul de apăsare a tastelor sau mersul, care pot permite sau nu sau care pot confirma identificarea unică a unei persoane fizice.
__________________
__________________
35 Regulamentul (UE) 2016/679 al Parlamentului European și al Consiliului din 27 aprilie 2016 privind protecția persoanelor fizice în ceea ce privește prelucrarea datelor cu caracter personal și privind libera circulație a acestor date și de abrogare a Directivei 95/46/CE (Regulamentul general privind protecția datelor) (JO L 119, 4.5.2016, p. 1).
35 Regulamentul (UE) 2016/679 al Parlamentului European și al Consiliului din 27 aprilie 2016 privind protecția persoanelor fizice în ceea ce privește prelucrarea datelor cu caracter personal și privind libera circulație a acestor date și de abrogare a Directivei 95/46/CE (Regulamentul general privind protecția datelor) (JO L 119, 4.5.2016, p. 1).
36 Regulamentul (UE) 2018/1725 al Parlamentului European și al Consiliului din 23 octombrie 2018 privind protecția persoanelor fizice în ceea ce privește prelucrarea datelor cu caracter personal de către instituțiile, organele, oficiile și agențiile Uniunii și privind libera circulație a acestor date și de abrogare a Regulamentului (CE) nr. 45/2001 și a Deciziei nr. 1247/2002/CE (JO L 295, 21.11.2018, p. 39).
37 Directiva (UE) 2016/680 a Parlamentului European și a Consiliului din 27 aprilie 2016 privind protecția persoanelor fizice referitor la prelucrarea datelor cu caracter personal de către autoritățile competente în scopul prevenirii, depistării, investigării sau urmăririi penale a infracțiunilor sau al executării pedepselor și privind libera circulație a acestor date și de abrogare a Deciziei-cadru 2008/977/JAI a Consiliului (Directiva privind protecția datelor în materie de asigurare a respectării legii) (JO L 119, 4.5.2016, p. 89).
Amendamentul 22
Propunere de regulament
Considerentul 7 a (nou)
(7a)  Noțiunea de identificare biometrică astfel cum este utilizată în prezentul regulament ar trebui definită drept recunoașterea automată a unor trăsături umane fizice, fiziologice, comportamentale și psihologice, precum fața, mișcările ochilor, expresiile faciale, forma corpului, vocea, vorbirea, mersul, postura, frecvența cardiacă, tensiunea arterială, mirosul, particularitățile de tastare, reacțiile psihologice (furie, nemulțumire, tristețe etc.), în scopul de a stabili identitatea unei persoane comparând datele biometrice ale persoanei respective cu date biometrice ale persoanelor stocate într-o bază de date (identificarea de tip „unul la mai mulți”), indiferent dacă persoana în cauză și-a dat sau nu consimțământul.
Amendamentul 23
Propunere de regulament
Considerentul 7 b (nou)
(7b)  Noțiunea de clasificare biometrică utilizată în prezentul regulament ar trebui definită drept încadrarea persoanelor fizice în categorii specifice sau deducerea caracteristicilor și atributelor acestora, cum ar fi genul, sexul, vârsta, culoarea părului, culoarea ochilor, tatuajele, originea etnică sau socială, starea de sănătate, capacitățile mintale sau fizice, trăsăturile comportamentale sau de personalitate, limba, religia sau apartenența la o minoritate națională sau orientarea sexuală sau politică, pe baza datelor lor biometrice sau a datelor bazate pe date biometrice, sau care pot fi deduse în mod rezonabil pe baza acestor date.
Amendamentul 24
Propunere de regulament
Considerentul 8
(8)  Noțiunea de sistem de identificare biometrică la distanță, astfel cum este utilizată în prezentul regulament, ar trebui definită din punct de vedere funcțional ca fiind un sistem de IA destinat identificării persoanelor fizice la distanță prin compararea datelor biometrice ale unei persoane cu datele biometrice conținute într-o bază de date de referință și fără a se cunoaște în prealabil dacă persoana vizată va fi prezentă și dacă poate fi identificată, indiferent de tehnologia, procesele sau tipurile specifice de date biometrice utilizate. Având în vedere diferitele caracteristici și moduri în care sunt utilizate, precum și diferitele riscuri implicate, ar trebui să se facă o distincție între sistemele de identificare biometrică la distanță „în timp real” și „ulterior”. În cazul sistemelor „în timp real”, captarea datelor biometrice, compararea și identificarea se efectuează instantaneu, aproape instantaneu sau, în orice caz, fără întârzieri semnificative. În acest sens, nu ar trebui să existe posibilități de eludare a normelor prezentului regulament privind utilizarea „în timp real” a sistemelor de IA în cauză prin prevederea unor întârzieri minore. Sistemele „în timp real” implică utilizarea de materiale „în direct” sau „aproape în direct”, cum ar fi înregistrări video, generate de o cameră video sau de un alt dispozitiv cu funcționalitate similară. În schimb, în cazul sistemelor de identificare „ulterioară”, datele biometrice au fost deja captate, iar compararea și identificarea au loc numai după o întârziere semnificativă. Este vorba despre materiale, cum ar fi imagini sau înregistrări video generate de camere de televiziune cu circuit închis sau de dispozitive private, care au fost generate înainte de utilizarea sistemului în legătură cu persoanele fizice în cauză.
(8)  Noțiunea de sistem de identificare biometrică la distanță, astfel cum este utilizată în prezentul regulament, ar trebui definită din punct de vedere funcțional ca fiind un sistem de IA destinat identificării persoanelor fizice la distanță prin compararea datelor biometrice ale unei persoane cu datele biometrice conținute într-o bază de date de referință și fără a se cunoaște în prealabil dacă persoana vizată va fi prezentă și dacă poate fi identificată, indiferent de tehnologia, procesele sau tipurile specifice de date biometrice utilizate, cu excepția sistemelor de verificare care doar compară datele biometrice ale unei persoane cu datele biometrice ale acesteia furnizate anterior (comparație între două seturi de date), Având în vedere diferitele caracteristici și moduri în care sunt utilizate, precum și diferitele riscuri implicate, ar trebui să se facă o distincție între sistemele de identificare biometrică la distanță „în timp real” și „ulterior”. În cazul sistemelor „în timp real”, captarea datelor biometrice, compararea și identificarea se efectuează instantaneu, aproape instantaneu sau, în orice caz, fără întârzieri semnificative. În acest sens, nu ar trebui să existe posibilități de eludare a normelor prezentului regulament privind utilizarea „în timp real” a sistemelor de IA în cauză prin prevederea unor întârzieri minore. Sistemele „în timp real” implică utilizarea de materiale „în direct” sau „aproape în direct”, cum ar fi înregistrări video, generate de o cameră video sau de un alt dispozitiv cu funcționalitate similară. În schimb, în cazul sistemelor de identificare „ulterioară”, datele biometrice au fost deja captate, iar compararea și identificarea au loc numai după o întârziere semnificativă. Este vorba despre materiale, cum ar fi imagini sau înregistrări video generate de camere de televiziune cu circuit închis sau de dispozitive private, care au fost generate înainte de utilizarea sistemului în legătură cu persoanele fizice în cauză. Dat fiind că noțiunea de identificare biometrică este independentă de consimțământul persoanei, această definiție se aplică chiar și atunci când sunt amplasate avertismente în locul care se află sub supravegherea sistemului de identificare biometrică la distanță și nu este anulată de facto prin preînregistrare.
Amendamentul 25
Propunere de regulament
Considerentul 8 a (nou)
(8a)  Identificarea persoanelor fizice la distanță are ca obiectiv să facă distincția între sistemele de identificare biometrică la distanță și sistemele de verificare individuală din imediata apropiere care utilizează mijloace de identificare biometrică, al căror unic scop este de a confirma dacă o anumită persoană fizică care se prezintă pentru identificare este sau nu autorizată, de exemplu pentru a avea acces la un serviciu, la un dispozitiv sau la un sediu.
Amendamentul 26
Propunere de regulament
Considerentul 9
(9)  În sensul prezentului regulament, noțiunea de spațiu accesibil publicului ar trebui înțeleasă ca referindu-se la orice loc fizic accesibil publicului, indiferent dacă locul în cauză este proprietate privată sau publică. Prin urmare, noțiunea nu acoperă locurile care sunt private în esență și care, în mod normal, nu sunt accesibile în mod liber terților, inclusiv autorităților de aplicare a legii, cu excepția cazului în care părțile respective au fost invitate sau autorizate în mod specific, cum ar fi locuințele, cluburile private, birourile, depozitele și fabricile. Spațiile online nu sunt nici ele acoperite, deoarece nu sunt spații fizice. Cu toate acestea, simplul fapt că se pot aplica anumite condiții pentru accesarea unui anumit spațiu, cum ar fi biletele de intrare sau restricțiile de vârstă, nu înseamnă că spațiul nu este accesibil publicului în sensul prezentului regulament. Prin urmare, pe lângă spațiile publice, cum ar fi străzile, părțile relevante ale clădirilor guvernamentale și cea mai mare parte a infrastructurii de transport, spațiile precum cinematografele, teatrele, magazinele și centrele comerciale sunt, de asemenea, accesibile publicului în mod normal. Cu toate acestea, ar trebui să se stabilească de la caz la caz dacă un anumit spațiu este accesibil publicului, având în vedere particularitățile situației individuale în cauză.
(9)  În sensul prezentului regulament, noțiunea de spațiu accesibil publicului ar trebui înțeleasă ca referindu-se la orice loc fizic accesibil publicului, indiferent dacă locul în cauză este proprietate privată sau publică și indiferent de potențialele restricții de capacitate. Prin urmare, noțiunea nu acoperă locurile care sunt private în esență și care, în mod normal, nu sunt accesibile în mod liber terților, inclusiv autorităților de aplicare a legii, cu excepția cazului în care părțile respective au fost invitate sau autorizate în mod specific, cum ar fi locuințele, cluburile private, birourile, depozitele și fabricile. Spațiile online nu sunt nici ele acoperite, deoarece nu sunt spații fizice. Cu toate acestea, simplul fapt că se pot aplica anumite condiții pentru accesarea unui anumit spațiu, cum ar fi biletele de intrare sau restricțiile de vârstă, nu înseamnă că spațiul nu este accesibil publicului în sensul prezentului regulament. Prin urmare, pe lângă spațiile publice, cum ar fi străzile, părțile relevante ale clădirilor guvernamentale și cea mai mare parte a infrastructurii de transport, spațiile precum cinematografele, teatrele, terenurile de sport, școlile, universitățile, părțile relevante ale spitalelor și băncilor, parcurile de distracție, festivalurile, magazinele și centrele comerciale sunt, de asemenea, accesibile publicului în mod normal. Cu toate acestea, ar trebui să se stabilească de la caz la caz dacă un anumit spațiu este accesibil publicului, având în vedere particularitățile situației individuale în cauză.
Amendamentul 27
Propunere de regulament
Considerentul 9 a (nou)
(9a)  Este important să se remarce faptul că sistemele de IA ar trebui să depună toate eforturile pentru a respecta principiile generale care instituie un cadru la nivel înalt ce promovează o abordare coerentă, centrată pe factorul uman pentru o IA etică și fiabilă, în conformitate cu Carta drepturilor fundamentale a Uniunii Europene și cu valorile pe care se întemeiază Uniunea, inclusiv protecția drepturilor fundamentale, implicarea și supravegherea umană, robustețea tehnică și siguranța, protecția vieții private și guvernanța datelor, transparența, nediscriminarea și echitatea și bunăstarea societății și a mediului.
Amendamentul 28
Propunere de regulament
Considerentul 9 b (nou)
(9b)  „Alfabetizarea în domeniul IA” se referă la competențele, cunoștințele și înțelegerea care le permite furnizorilor, utilizatorilor și persoanelor afectate, ținând cont de drepturile și obligațiile fiecărei categorii în contextul prezentului regulament, să implementeze sistemele de IA în cunoștință de cauză și să conștientizeze posibilitățile și riscurile pe care le implică IA, precum și posibilele prejudicii pe care le poate aduce și, prin urmare, să promoveze controlul său democratic. Alfabetizarea în domeniul IA nu ar trebui să se limiteze la învățarea despre instrumente și tehnologii, ci ar trebui să vizeze și înzestrarea furnizorilor și utilizatorilor cu noțiunile și competențele necesare pentru a asigura conformitatea cu prezentul regulament și asigurarea respectării acestuia. Prin urmare, este necesar ca Comisia, statele membre, precum și furnizorii și utilizatorii de sisteme de IA, în cooperare cu toate părțile interesate relevante, să promoveze dezvoltarea unui nivel suficient de alfabetizare în domeniul IA, în toate sectoarele societății, pentru persoanele de toate vârstele, inclusiv pentru femei și fete, și ca progresele în acest sens să fie urmărite îndeaproape.
Amendamentul 29
Propunere de regulament
Considerentul 10
(10)  Pentru a asigura condiții de concurență echitabile și o protecție eficace a drepturilor și libertăților persoanelor fizice în întreaga Uniune, normele stabilite prin prezentul regulament ar trebui să se aplice în mod nediscriminatoriu furnizorilor de sisteme de IA, indiferent dacă sunt stabiliți în Uniune sau într-o țară terță, precum și utilizatorilor de sisteme de IA stabiliți în Uniune.
(10)  Pentru a asigura condiții de concurență echitabile și o protecție eficace a drepturilor și libertăților persoanelor fizice în întreaga Uniune și la nivel internațional, normele stabilite prin prezentul regulament ar trebui să se aplice în mod nediscriminatoriu furnizorilor de sisteme de IA, indiferent dacă sunt stabiliți în Uniune sau într-o țară terță, precum și utilizatorilor de sisteme de IA stabiliți în Uniune. Pentru ca Uniunea să fie fidelă valorilor sale fundamentale, sistemele de IA destinate a fi utilizate pentru practici care sunt considerate inacceptabile de prezentul regulament ar trebui, de asemenea, să fie considerate inacceptabile în afara Uniunii din cauza efectului lor deosebit de dăunător asupra drepturilor fundamentale, astfel cum sunt consacrate în Cartă. Prin urmare, este oportun să se interzică exportul unor astfel de sisteme de IA către țări terțe de către furnizorii care își au reședința în Uniune.
Amendamentul 30
Propunere de regulament
Considerentul 11
(11)  Având în vedere natura lor digitală, anumite sisteme de IA ar trebui să intre în domeniul de aplicare al prezentului regulament chiar și atunci când nu sunt introduse pe piață, nu sunt puse în funcțiune și nu sunt utilizate în Uniune. Acesta este cazul, de exemplu, al unui operator stabilit în Uniune care contractează anumite servicii unui operator stabilit în afara Uniunii în legătură cu o activitate care urmează să fie desfășurată de un sistem de IA care s-ar califica drept sistem cu risc ridicat și ale cărei efecte ar avea un impact asupra persoanelor fizice situate în Uniune. În aceste circumstanțe, sistemul de IA utilizat de operatorul din afara Uniunii ar putea prelucra datele colectate în mod legal în Uniune și transferate din Uniune și ar putea furniza operatorului contractant din Uniune rezultatele produse de sistemul de IA respectiv ca urmare a prelucrării respective, fără ca respectivul sistem de IA să fie introdus pe piață, pus în funcțiune sau utilizat în Uniune. Pentru a preveni eludarea prezentului regulament și pentru a asigura o protecție eficace a persoanelor fizice situate în Uniune, prezentul regulament ar trebui să se aplice, de asemenea, furnizorilor și utilizatorilor de sisteme de IA care sunt stabiliți într-o țară terță, în măsura în care producția realizată de sistemele respective este utilizată în Uniune. Cu toate acestea, pentru a ține seama de acordurile existente și de nevoile speciale de cooperare cu partenerii străini cu care se fac schimburi de informații și probe, prezentul regulament nu ar trebui să se aplice autorităților publice ale unei țări terțe și organizațiilor internaționale atunci când acționează în cadrul acordurilor internaționale încheiate la nivel național sau european pentru asigurarea respectării legii și în contextul cooperării judiciare cu Uniunea sau cu statele sale membre. Astfel de acorduri au fost încheiate bilateral între statele membre și țările terțe sau între Uniunea Europeană, Europol și alte agenții ale UE și țări terțe și organizații internaționale.
(11)  Având în vedere natura lor digitală, anumite sisteme de IA ar trebui să intre în domeniul de aplicare al prezentului regulament chiar și atunci când nu sunt introduse pe piață, nu sunt puse în funcțiune și nu sunt utilizate în Uniune. Acesta este cazul, de exemplu, al unui operator stabilit în Uniune care contractează anumite servicii unui operator stabilit în afara Uniunii în legătură cu o activitate care urmează să fie desfășurată de un sistem de IA care s-ar califica drept sistem cu risc ridicat și ale cărei efecte ar avea un impact asupra persoanelor fizice situate în Uniune. În aceste circumstanțe, sistemul de IA utilizat de operatorul din afara Uniunii ar putea prelucra datele colectate în mod legal în Uniune și transferate din Uniune și ar putea furniza operatorului contractant din Uniune rezultatele produse de sistemul de IA respectiv ca urmare a prelucrării respective, fără ca respectivul sistem de IA să fie introdus pe piață, pus în funcțiune sau utilizat în Uniune. Pentru a preveni eludarea prezentului regulament și pentru a asigura o protecție eficace a persoanelor fizice situate în Uniune, prezentul regulament ar trebui să se aplice, de asemenea, furnizorilor și utilizatorilor operatori de sisteme de IA care sunt stabiliți într-o țară terță, în măsura în care producția realizată de sistemele respective este preconizată a fi utilizată în Uniune. Cu toate acestea, pentru a ține seama de acordurile existente și de nevoile speciale de cooperare cu partenerii străini cu care se fac schimburi de informații și probe, prezentul regulament nu ar trebui să se aplice autorităților publice ale unei țări terțe și organizațiilor internaționale atunci când acționează în cadrul acordurilor internaționale încheiate la nivel național sau european pentru asigurarea respectării legii și în contextul cooperării judiciare cu Uniunea sau cu statele sale membre. Astfel de acorduri au fost încheiate bilateral între statele membre și țările terțe sau între Uniunea Europeană, Europol și alte agenții ale UE și țări terțe și organizații internaționale. Această excepție ar trebui totuși limitată la țările de încredere și la organizațiile internaționale care împărtășesc valorile Uniunii.
Amendamentul 31
Propunere de regulament
Considerentul 12
(12)  Prezentul regulament ar trebui să se aplice, de asemenea, instituțiilor, oficiilor, organelor și agențiilor Uniunii atunci când acționează în calitate de furnizor sau utilizator al unui sistem de IA. Sistemele de IA dezvoltate sau utilizate exclusiv în scopuri militare ar trebui excluse din domeniul de aplicare al prezentului regulament în cazul în care utilizarea respectivă intră în sfera de competență exclusivă a politicii externe și de securitate comune, reglementată în temeiul titlului V din Tratatul privind Uniunea Europeană (TUE). Prezentul regulament nu ar trebui să aducă atingere dispozițiilor privind răspunderea furnizorilor de servicii intermediari prevăzute în Directiva 2000/31/CE a Parlamentului European și a Consiliului [astfel cum a fost modificată prin Actul legislativ privind serviciile digitale].
(12)  Prezentul regulament ar trebui să se aplice, de asemenea, instituțiilor, oficiilor, organelor și agențiilor Uniunii atunci când acționează în calitate de furnizor sau operator al unui sistem de IA. Sistemele de IA dezvoltate sau utilizate exclusiv în scopuri militare ar trebui excluse din domeniul de aplicare al prezentului regulament în cazul în care utilizarea respectivă intră în sfera de competență exclusivă a politicii externe și de securitate comune, reglementată în temeiul titlului V din Tratatul privind Uniunea Europeană (TUE). Prezentul regulament nu ar trebui să aducă atingere dispozițiilor privind răspunderea furnizorilor de servicii intermediari prevăzute în Directiva 2000/31/CE a Parlamentului European și a Consiliului [astfel cum a fost modificată prin Actul legislativ privind serviciile digitale].
Amendamentul 32
Propunere de regulament
Considerentul 12 a (nou)
(12a)  Software-ul și datele care sunt partajate în mod deschis și pe care utilizatorii le pot accesa, utiliza, modifica și redistribui în mod liber sau versiunile modificate ale acestora pot contribui la cercetarea și inovarea pe piață. De asemenea, studii ale Comisiei arată că software-ul liber cu sursă deschisă poate avea o contribuție cuprinsă între 65 și 95 de miliarde EUR la PIB-ul Uniunii și poate oferi posibilități de creștere semnificative pentru economia europeană. Utilizatorilor li se permite să ruleze, să copieze, să distribuie, să studieze, să modifice și să îmbunătățească software-ul și datele, inclusiv modelele, prin licențe libere și cu sursă deschisă. Pentru a încuraja dezvoltarea și implementarea IA, în special de către IMM-uri, întreprinderi nou-înființate, cercetători academici, dar și de către persoane fizice, prezentul regulament nu ar trebui să se aplice unor astfel de componente de IA gratuite și cu sursă deschisă, cu excepția cazului în care acestea sunt introduse pe piață sau puse în funcțiune de un furnizor ca parte a unui sistem de IA cu grad ridicat de risc sau a unui sistem de IA care intră sub incidența titlului II sau IV din prezentul regulament.
Amendamentul 33
Propunere de regulament
Considerentul 12 b (nou)
(12b)  Nici dezvoltarea colaborativă a unor componente de IA gratuite și cu sursă deschisă, nici punerea lor la dispoziție în registre deschise nu ar trebui să constituie o introducere pe piață sau o punere în funcțiune. O activitate comercială, în sensul punerii la dispoziție pe piață, ar putea fi însă caracterizată prin perceperea unui preț, cu excepția tranzacțiilor între microîntreprinderi, pentru o componentă de IA gratuită și cu sursă deschisă, dar și prin perceperea unui preț pentru serviciile de suport tehnic, prin furnizarea unei platforme software prin intermediul căreia furnizorul monetizează alte servicii sau prin utilizarea datelor cu caracter personal în alte scopuri decât îmbunătățirea exclusivă a securității, a compatibilității sau a interoperabilității software-ului.
Amendamentul 34
Propunere de regulament
Considerentul 12 c (nou)
(12c)  Dezvoltatorii de componente de IA gratuite și cu sursă deschisă nu ar trebui să fie obligați în temeiul prezentului regulament să respecte cerințele care vizează lanțul valoric al IA și, în special, aceste cerințe nu ar trebui să vizeze furnizorul care a utilizat respectiva componentă de IA gratuită și cu sursă deschisă. Dezvoltatorii de componente de IA gratuite și cu sursă deschisă ar trebui, cu toate acestea, să fie încurajați să pună în aplicare practici de documentare adoptate pe scară largă, cum ar fi modelele și cardurile de date, ca modalitate de a accelera schimbul de informații de-a lungul lanțului valoric al IA, permițând promovarea unor sisteme de IA fiabile în Uniune.
Amendamentul 35
Propunere de regulament
Considerentul 13
(13)  Pentru a asigura un nivel consecvent și ridicat de protecție a intereselor publice în ceea ce privește sănătatea, siguranța și drepturile fundamentale, ar trebui stabilite standarde normative comune pentru toate sistemele de IA cu grad ridicat de risc. Aceste standarde ar trebui să fie în concordanță cu Carta drepturilor fundamentale a Uniunii Europene („Carta”) și ar trebui să fie nediscriminatorii și în conformitate cu angajamentele comerciale internaționale ale Uniunii.
(13)  Pentru a asigura un nivel consecvent și ridicat de protecție a intereselor publice în ceea ce privește sănătatea, siguranța și drepturile fundamentale, precum și democrația, statul de drept și mediul, ar trebui stabilite standarde normative comune pentru toate sistemele de IA cu grad ridicat de risc. Aceste standarde ar trebui să fie în concordanță cu Carta, cu Pactul verde european, cu Declarația comună a Uniunii privind drepturile digitale și cu Orientările în materie de etică pentru o inteligență artificială (IA) de încredere ale Grupului de experți la nivel înalt privind inteligența artificială și ar trebui să fie nediscriminatorii și în conformitate cu angajamentele internaționale ale Uniunii.
Amendamentul 36
Propunere de regulament
Considerentul 14
(14)  Pentru a introduce un set proporțional și eficace de norme obligatorii pentru sistemele de IA, ar trebui urmată o abordare bazată pe riscuri clar definită. Această abordare ar trebui să adapteze tipul și conținutul unor astfel de norme la intensitatea și amploarea riscurilor pe care le pot genera sistemele de IA. Prin urmare, este necesar să se interzică anumite practici în domeniul inteligenței artificiale, să se stabilească cerințe pentru sistemele de IA cu grad ridicat de risc și obligații pentru operatorii relevanți și să se stabilească obligații în materie de transparență pentru anumite sisteme de IA.
(14)  Pentru a introduce un set proporțional și eficace de norme obligatorii pentru sistemele de IA, ar trebui urmată o abordare bazată pe riscuri clar definită. Această abordare ar trebui să adapteze tipul și conținutul unor astfel de norme la intensitatea și amploarea riscurilor pe care le pot genera sistemele de IA. Prin urmare, este necesar să se interzică anumite practici inacceptabile în domeniul inteligenței artificiale, să se stabilească cerințe pentru sistemele de IA cu grad ridicat de risc și obligații pentru operatorii relevanți și să se stabilească obligații în materie de transparență pentru anumite sisteme de IA.
Amendamentul 37
Propunere de regulament
Considerentul 15
(15)  Pe lângă numeroasele utilizări benefice ale inteligenței artificiale, această tehnologie poate fi utilizată în mod abuziv și poate oferi instrumente noi și puternice pentru practici de manipulare, exploatare și control social. Astfel de practici sunt deosebit de nocive și ar trebui interzise deoarece contravin valorilor Uniunii privind respectarea demnității umane, a libertății, a egalității, a democrației și a statului de drept, precum și a drepturilor fundamentale ale Uniunii, inclusiv a dreptului la nediscriminare, a protecției datelor și a vieții private, precum și a drepturilor copilului.
(15)  Pe lângă numeroasele utilizări benefice ale inteligenței artificiale, această tehnologie poate fi utilizată în mod abuziv și poate oferi instrumente noi și puternice pentru practici de manipulare, exploatare și control social. Astfel de practici sunt deosebit de nocive și abuzive și ar trebui interzise deoarece contravin valorilor Uniunii privind respectarea demnității umane, a libertății, a egalității, a democrației și a statului de drept, precum și a drepturilor fundamentale ale Uniunii, inclusiv a dreptului la nediscriminare, a protecției datelor și a vieții private, precum și a drepturilor copilului.
Amendamentul 38
Propunere de regulament
Considerentul 16
(16)  Ar trebui interzisă introducerea pe piață, punerea în funcțiune sau utilizarea anumitor sisteme de IA destinate să denatureze comportamentul uman, în cazul cărora este probabil să se aducă prejudicii fizice sau psihice. Astfel de sisteme de IA implementează componente subliminale pe care persoanele nu le pot percepe sau exploatează vulnerabilitățile copiilor și ale oamenilor ca urmare a vârstei și incapacității fizice sau mentale a acestora. Ele fac acest lucru cu intenția de a denatura în mod semnificativ comportamentul unei persoane și într-un mod care cauzează sau ar putea cauza prejudicii persoanei respective sau unei alte persoane. Intenția nu poate fi prezumată în cazul în care denaturarea comportamentului uman rezultă din factori externi sistemului de IA, care se află în afara controlului furnizorului sau al utilizatorului. Cercetarea în scopuri legitime în legătură cu astfel de sisteme de IA nu ar trebui să fie împiedicată de interdicție, în cazul în care o astfel de cercetare nu echivalează cu utilizarea sistemului de IA în relațiile om-mașină, provocând prejudicii persoanelor fizice, iar o astfel de cercetare se desfășoară în conformitate cu standardele etice recunoscute pentru cercetarea științifică.
(16)  Ar trebui interzisă introducerea pe piață, punerea în funcțiune sau utilizarea anumitor sisteme de IA care au drept obiectiv sau al căror efect este să denatureze în mod semnificativ comportamentul uman, în cazul cărora este probabil să se aducă prejudicii fizice sau psihice. Această limitare ar trebui înțeleasă ca incluzând neurotehnologiile asistate de sisteme de IA care sunt folosite pentru a monitoriza, a utiliza sau a influența datele neurale colectate prin interfețele dintre creier și calculator, în măsura în care acestea denaturează în mod semnificativ comportamentul unei persoane fizice într-un mod care cauzează sau este probabil să cauzeze prejudicii semnificative persoanei respective sau altei persoane. Astfel de sisteme de IA implementează componente subliminale pe care persoanele nu le pot percepe sau exploatează vulnerabilitățile persoanelor și al unor grupuri specifice de persoane ca urmare a trăsăturilor de personalitate cunoscute sau preconizate, vârstei incapacității fizice sau mentale, situației sociale sau economice a acestora. Ele fac acest lucru cu intenția sau efectul de a denatura în mod semnificativ comportamentul unei persoane și într-un mod care cauzează sau ar putea cauza prejudicii semnificative persoanei respective sau unei alte persoane sau unor grupuri de persoane, inclusiv prejudicii care se pot acumula în timp. Intenția de a denatura comportamentul nu poate fi prezumată în cazul în care denaturarea rezultă din factori care se află în afara controlului furnizorului sau al utilizatorului, cum ar fi factori care nu pot fi prevăzuți și atenuați în mod rezonabil și atenuați de către furnizorul sau operatorul sistemului de IA. În orice caz, nu este necesar ca furnizorul sau operatorul să aibă intenția de a cauza prejudiciul semnificativ, atât timp cât un astfel de prejudiciu rezultă din practicile de manipulare sau exploatare bazate pe IA. Interdicțiile pentru astfel de practici de IA sunt complementare dispozițiilor cuprinse în Directiva 2005/29/CE, potrivit cărora practicile comerciale neloiale sunt interzise, indiferent dacă au recurs sau nu la sisteme de IA. În acest context, practicile comerciale legale, de exemplu în domeniul publicității, care sunt în conformitate cu dreptul Uniunii nu ar trebui considerate, în sine, ca încălcând interdicția. Cercetarea în scopuri legitime în legătură cu astfel de sisteme de IA nu ar trebui să fie împiedicată de interdicție, în cazul în care o astfel de cercetare nu echivalează cu utilizarea sistemului de IA în relațiile om-mașină, provocând prejudicii persoanelor fizice, iar o astfel de cercetare se desfășoară în conformitate cu standardele etice recunoscute pentru cercetarea științifică și pe baza consimțământului specific în cunoștință de cauză al persoanelor care sunt expuse la aceasta sau, după caz, al tutorelui lor legal.
Amendamentul 39
Propunere de regulament
Considerentul 16 a (nou)
(16a)  Sistemele de IA care clasifică persoanele fizice prin încadrarea acestora în categorii specifice, în funcție de caracteristici sensibile sau protejate cunoscute sau deduse, sunt deosebit de intruzive, încalcă demnitatea umană și prezintă un risc ridicat de discriminare. Aceste caracteristici includ genul, identitatea de gen, rasa, originea etnică, statutul de migrație sau cetățenie, orientarea politică, orientarea sexuală, religia, dizabilitatea sau orice alt motiv pentru care discriminarea este interzisă în temeiul articolului 21 din Carta drepturilor fundamentale a Uniunii Europene, precum și în temeiul articolului 9 din Regulamentul (UE) 2016/769. Prin urmare, astfel de sisteme ar trebui interzise.
Amendamentul 40
Propunere de regulament
Considerentul 17
(17)  Sistemele de IA care oferă o evaluare a comportamentului social al persoanelor fizice în scopuri generale de către autoritățile publice sau în numele acestora pot genera rezultate discriminatorii și excluderea anumitor grupuri. Acestea pot încălca dreptul la demnitate și nediscriminare, precum și valorile egalității și justiției. Astfel de sisteme de IA evaluează sau clasifică credibilitatea persoanelor fizice pe baza comportamentului lor social în contexte multiple sau a unor caracteristici personale sau de personalitate cunoscute sau preconizate. Punctajul privind comportamentul social obținut din astfel de sisteme de IA poate duce la un tratament negativ sau nefavorabil al persoanelor fizice sau al unor grupuri întregi de astfel de persoane în contexte sociale care nu au legătură cu contextul în care datele au fost inițial generate sau colectate sau la un tratament defavorabil care este disproporționat sau nejustificat în raport cu gravitatea comportamentului lor social. Prin urmare, astfel de sisteme de IA ar trebui interzise.
(17)  Sistemele de IA care oferă o evaluare a comportamentului social al persoanelor fizice în scopuri generale pot genera rezultate discriminatorii și excluderea anumitor grupuri. Acestea încalcă dreptul la demnitate și nediscriminare, precum și valorile egalității și justiției. Astfel de sisteme de IA evaluează sau clasifică persoanele fizice sau grupurile pe baza mai multor puncte de informații și ocurențe aferente comportamentului lor social în contexte multiple sau a unor caracteristici personale sau de personalitate cunoscute, deduse sau preconizate. Punctajul privind comportamentul social obținut din astfel de sisteme de IA poate duce la un tratament negativ sau nefavorabil al persoanelor fizice sau al unor grupuri întregi de astfel de persoane în contexte sociale care nu au legătură cu contextul în care datele au fost inițial generate sau colectate sau la un tratament defavorabil care este disproporționat sau nejustificat în raport cu gravitatea comportamentului lor social. Prin urmare, astfel de sisteme de IA ar trebui interzise.
Amendamentul 41
Propunere de regulament
Considerentul 18
(18)  Utilizarea sistemelor de IA pentru identificarea biometrică „în timp real” a persoanelor fizice în spațiile accesibile publicului în scopul asigurării respectării legii este considerată deosebit de intruzivă pentru drepturile și libertățile persoanelor în cauză, în măsura în care poate afecta viața privată a unei părți mari a populației, evocă un sentiment de supraveghere constantă și descurajează indirect exercitarea libertății de întrunire și a altor drepturi fundamentale. În plus, caracterul imediat al impactului și posibilitățile limitate de a efectua verificări sau corecții suplimentare în ceea ce privește utilizarea unor astfel de sisteme care funcționează în timp real implică riscuri sporite pentru drepturile și libertățile persoanelor vizate de activitățile de asigurare a respectării legii.
(18)  Utilizarea sistemelor de IA pentru identificarea biometrică „în timp real” a persoanelor fizice în spațiile accesibile publicului este deosebit de intruzivă pentru drepturile și libertățile persoanelor în cauză și poate afecta în cele din urmă viața privată a unei părți mari a populației, evocă un sentiment de supraveghere constantă, le conferă părților care recurg la identificarea biometrică în spațiile accesibile publicului o poziție de putere necontrolabilă și descurajează indirect exercitarea libertății de întrunire și a altor drepturi fundamentale aflate în centrul statului de drept. Inexactitățile tehnice ale sistemelor de IA destinate identificării biometrice la distanță a persoanelor fizice pot conduce la rezultate subiective și pot avea efecte discriminatorii. Acest lucru este deosebit de relevant în ceea ce privește vârsta, etnia, sexul sau dizabilitatea. În plus, caracterul imediat al impactului și posibilitățile limitate de a efectua verificări sau corecții suplimentare în ceea ce privește utilizarea unor astfel de sisteme care funcționează în timp real implică riscuri sporite pentru drepturile și libertățile persoanelor vizate de activitățile de asigurare a respectării legii. Prin urmare, utilizarea acestor sisteme în locuri accesibile publicului ar trebui interzisă. În mod similar, sistemele de IA utilizate pentru analiza înregistrărilor video ale spațiilor accesibile publicului prin intermediul sistemelor de identificare biometrică la distanță „ulterioară” ar trebui, de asemenea, interzise, cu excepția cazului în care există o autorizație preliminară pentru utilizarea în contextul aplicării legii, atunci când acest lucru este strict necesar pentru căutarea specifică legată de o infracțiune gravă specifică care a avut loc deja și numai sub rezerva unei autorizații preliminare.
Amendamentul 42
Propunere de regulament
Considerentul 19
(19)  Prin urmare, utilizarea acestor sisteme în scopul asigurării respectării legii ar trebui interzisă, cu excepția a trei situații enumerate în mod exhaustiv și definite în mod strict, în care utilizarea este strict necesară pentru un interes public substanțial, importanța acestei utilizări fiind mai mare decât riscurile. Aceste situații implică căutarea potențialelor victime ale criminalității, inclusiv a copiilor dispăruți, anumite amenințări la adresa vieții sau a siguranței fizice a persoanelor fizice sau privind un atac terorist și detectarea, localizarea, identificarea sau urmărirea penală a autorilor unor infracțiuni sau a persoanelor suspectate menționate în Decizia-cadru 2002/584/JAI a Consiliului38, în cazul în care infracțiunile respective se pedepsesc în statul membru în cauză cu o pedeapsă sau o măsură de siguranță privativă de libertate pentru o perioadă maximă de cel puțin trei ani și conform definiției din dreptul statului membru respectiv. Un astfel de prag pentru pedeapsa sau măsura de siguranță privativă de libertate în conformitate cu dreptul intern contribuie la asigurarea faptului că infracțiunea ar trebui să fie suficient de gravă pentru a justifica eventual utilizarea sistemelor de identificare biometrică la distanță „în timp real”. În plus, dintre cele 32 de infracțiuni enumerate în Decizia-cadru 2002/584/JAI a Consiliului, unele sunt, în practică, susceptibile să fie mai relevante decât altele, în sensul că recurgerea la identificarea biometrică la distanță „în timp real” va fi, în mod previzibil, necesară și proporțională în grade foarte diferite pentru urmărirea practică a detectării, localizării, identificării sau urmăririi penale a unui autor al unei infracțiuni sau a unei persoane suspectate că ar fi comis diferitele infracțiuni enumerate și având în vedere diferențele probabile în ceea ce privește gravitatea, probabilitatea și amploarea prejudiciului sau posibilele consecințe negative.
eliminat
__________________
38 Decizia-cadru 2002/584/JAI a Consiliului din 13 iunie 2002 privind mandatul european de arestare și procedurile de predare între statele membre (JO L 190, 18.7.2002, p. 1).
Amendamentul 43
Propunere de regulament
Considerentul 20
(20)  Pentru a se asigura că aceste sisteme sunt utilizate în mod responsabil și proporțional, este de asemenea important să se stabilească faptul că, în fiecare dintre aceste trei situații enumerate în mod exhaustiv și strict definite, ar trebui luate în considerare anumite elemente, în special în ceea ce privește natura situației care a stat la baza cererii și consecințele utilizării asupra drepturilor și libertăților tuturor persoanelor vizate, precum și garanțiile și condițiile prevăzute pentru utilizare. În plus, utilizarea sistemelor de identificare biometrică la distanță „în timp real” în spațiile accesibile publicului în scopul asigurării respectării legii ar trebui să facă obiectul unor limite de timp și spațiu adecvate, având în vedere, în special, dovezile sau indicațiile privind amenințările, victimele sau autorul infracțiunii. Baza de date de referință a persoanelor ar trebui să fie adecvată pentru fiecare caz de utilizare în fiecare dintre cele trei situații menționate mai sus.
eliminat
Amendamentul 44
Propunere de regulament
Considerentul 21
(21)  Fiecare utilizare a unui sistem de identificare biometrică la distanță „în timp real” în spațiile accesibile publicului în scopul asigurării respectării legii ar trebui să facă obiectul unei autorizări exprese și specifice de către o autoritate judiciară sau o autoritate administrativă independentă a unui stat membru. O astfel de autorizație ar trebui, în principiu, să fie obținută înainte de utilizare, cu excepția situațiilor de urgență justificate în mod corespunzător, și anume situațiile în care necesitatea de a utiliza sistemele în cauză este de așa natură încât obținerea unei autorizații înainte de începerea utilizării este imposibilă din punctul de vedere al eficacității și în mod obiectiv. În astfel de situații de urgență, utilizarea ar trebui să fie limitată la ceea ce este minim și absolut necesar și să facă obiectul unor garanții și condiții adecvate, astfel cum sunt stabilite în dreptul intern și specificate în contextul fiecărui caz individual de utilizare urgentă de către însăși autoritatea de aplicare a legii. În plus, în astfel de situații, autoritatea de aplicare a legii ar trebui să încerce să obțină o autorizație cât mai curând posibil, indicând motivele pentru care nu a fost în măsură să o solicite mai devreme.
eliminat
Amendamentul 45
Propunere de regulament
Considerentul 22
(22)  În plus, este oportun să se prevadă, în cadrul exhaustiv stabilit de prezentul regulament, că o astfel de utilizare pe teritoriul unui stat membru în conformitate cu prezentul regulament ar trebui să fie posibilă numai în cazul și în măsura în care statul membru în cauză a decis să prevadă în mod expres posibilitatea de a autoriza o astfel de utilizare în normele sale detaliate de drept intern. În consecință, în temeiul prezentului regulament, statele membre au în continuare libertatea de a nu prevedea o astfel de posibilitate sau de a prevedea o astfel de posibilitate numai în ceea ce privește unele dintre obiectivele care pot justifica utilizarea autorizată identificate în prezentul regulament.
eliminat
Amendamentul 46
Propunere de regulament
Considerentul 23
(23)  Utilizarea sistemelor de IA pentru identificarea biometrică „în timp real” a persoanelor fizice în spațiile accesibile publicului în scopul asigurării respectării legii implică în mod necesar prelucrarea datelor biometrice. Normele din prezentul regulament care interzic, sub rezerva anumitor excepții, o astfel de utilizare, care se bazează pe articolul 16 din TFUE, ar trebui să se aplice ca lex specialis în ceea ce privește normele privind prelucrarea datelor biometrice prevăzute la articolul 10 din Directiva (UE) 2016/680, reglementând astfel în mod exhaustiv această utilizare și prelucrarea datelor biometrice implicate. Prin urmare, o astfel de utilizare și prelucrare ar trebui să fie posibilă numai în măsura în care este compatibilă cu cadrul stabilit de prezentul regulament, fără a exista, în afara cadrului respectiv, posibilitatea ca autoritățile competente, atunci când acționează în scopul asigurării respectării legii, să utilizeze astfel de sisteme și să prelucreze astfel de date în legătură cu acestea din motivele enumerate la articolul 10 din Directiva (UE) 2016/680. În acest context, prezentul regulament nu este menit să ofere temeiul juridic pentru prelucrarea datelor cu caracter personal în baza articolului 8 din Directiva 2016/680. Cu toate acestea, utilizarea sistemelor de identificare biometrică la distanță „în timp real” în spații accesibile publicului în alte scopuri decât cele de asigurare a respectării legii, inclusiv de către autoritățile competente, nu ar trebui să facă obiectul cadrului specific privind o astfel de utilizare în scopul asigurării respectării legii stabilit de prezentul regulament. Prin urmare, o astfel de utilizare în alte scopuri decât asigurarea respectării legii nu ar trebui să facă obiectul cerinței unei autorizații în temeiul prezentului regulament și al normelor detaliate aplicabile din dreptul intern care o pot pune în aplicare.
eliminat
Amendamentul 47
Propunere de regulament
Considerentul 24
(24)  Orice prelucrare a datelor biometrice și a altor date cu caracter personal implicate în utilizarea sistemelor de IA pentru identificarea biometrică, alta decât în legătură cu utilizarea sistemelor de identificare biometrică la distanță „în timp real” în spații accesibile publicului în scopul asigurării respectării legii, astfel cum este reglementat de prezentul regulament, inclusiv în cazul în care aceste sisteme sunt utilizate de autoritățile competente în spații accesibile publicului în alte scopuri decât asigurarea respectării legii, ar trebui să respecte în continuare toate cerințele care decurg din articolul 9 alineatul (1) din Regulamentul (UE) 2016/679, articolul 10 alineatul (1) din Regulamentul (UE) 2018/1725 și articolul 10 din Directiva (UE) 2016/680, după caz.
(24)  Orice prelucrare a datelor biometrice și a altor date cu caracter personal implicate în utilizarea sistemelor de IA pentru identificarea biometrică, alta decât în legătură cu utilizarea sistemelor de identificare biometrică la distanță „în timp real” în spații accesibile publicului, astfel cum este reglementat de prezentul regulament, ar trebui să respecte în continuare toate cerințele care decurg din articolul 9 alineatul (1) din Regulamentul (UE) 2016/679, articolul 10 alineatul (1) din Regulamentul (UE) 2018/1725 și articolul 10 din Directiva (UE) 2016/680, după caz.
Amendamentul 48
Propunere de regulament
Considerentul 25
(25)  În conformitate cu articolul 6a din Protocolul nr. 21 privind poziția Regatului Unit și a Irlandei în ceea ce privește spațiul de libertate, securitate și justiție, anexat la TUE și la TFUE, Irlandei nu îi revin obligații în temeiul normelor prevăzute la articolul 5 alineatul (1) litera (d) și la articolul 5 alineatele (2) și (3) din prezentul regulament, adoptate în temeiul articolului 16 din TFUE referitoare la prelucrarea datelor cu caracter personal de către statele membre în exercitarea activităților care intră în domeniul de aplicare al părții a treia titlul V capitolul 4 sau 5 din TFUE, atât timp cât Irlandei nu îi revin obligații în temeiul normelor privind formele de cooperare judiciară în materie penală sau de cooperare polițienească care necesită respectarea dispozițiilor stabilite în temeiul articolului 16 din TFUE.
(25)  În conformitate cu articolul 6a din Protocolul nr. 21 privind poziția Regatului Unit și a Irlandei în ceea ce privește spațiul de libertate, securitate și justiție, anexat la TUE și la TFUE, Irlandei nu îi revin obligații în temeiul normelor prevăzute la articolul 5 alineatul (1) litera (d) din prezentul regulament, adoptate în temeiul articolului 16 din TFUE referitoare la prelucrarea datelor cu caracter personal de către statele membre în exercitarea activităților care intră în domeniul de aplicare al părții a treia titlul V capitolul 4 sau 5 din TFUE, atât timp cât Irlandei nu îi revin obligații în temeiul normelor privind formele de cooperare judiciară în materie penală sau de cooperare polițienească care necesită respectarea dispozițiilor stabilite în temeiul articolului 16 din TFUE.
Amendamentul 49
Propunere de regulament
Considerentul 26
(26)  În conformitate cu articolele 2 și 2a din Protocolul nr. 22 privind poziția Danemarcei, anexat la TUE și la TFUE, Danemarcei nu îi revin obligații în temeiul normelor prevăzute la articolul 5 alineatul (1) litera (d) și la articolul 5 alineatele (2) și (3) din prezentul regulament, adoptate în temeiul articolului 16 din TFUE, și nici nu face obiectul aplicării acestora în ceea ce privește prelucrarea datelor cu caracter personal de către statele membre în exercitarea activităților care intră sub incidența părții a treia titlul V capitolul 4 sau 5 din TFUE.
(26)  În conformitate cu articolele 2 și 2a din Protocolul nr. 22 privind poziția Danemarcei, anexat la TUE și la TFUE, Danemarcei nu îi revin obligații în temeiul normelor prevăzute la articolul 5 alineatul (1) litera (d) din prezentul regulament, adoptate în temeiul articolului 16 din TFUE, și nici nu face obiectul aplicării acestora în ceea ce privește prelucrarea datelor cu caracter personal de către statele membre în exercitarea activităților care intră sub incidența părții a treia titlul V capitolul 4 sau 5 din TFUE.
Amendamentul 50
Propunere de regulament
Considerentul 26 a (nou)
(26a)  Sistemele de IA utilizate de autoritățile de aplicare a legii sau în numele acestora pentru a face previziuni, a genera profiluri sau evaluări ale riscurilor bazate pe crearea de profiluri ale persoanelor fizice sau pe analiza datelor pe baza trăsăturilor și caracteristicilor de personalitate, inclusiv localizarea persoanei, sau pe baza comportamentului infracțional anterior al persoanelor fizice sau al grupurilor de persoane, în scopul de a anticipa apariția sau reapariția unei (unor) infracțiuni reale sau potențiale sau a altor comportamente sociale sau administrative incriminate, inclusiv sistemele de predicție a fraudei, prezintă un risc deosebit de discriminare împotriva anumitor persoane sau grupuri de persoane, deoarece încalcă demnitatea umană, precum și principiul juridic esențial al prezumției de nevinovăție. Prin urmare, astfel de sisteme de IA ar trebui interzise.
Amendamentul 51
Propunere de regulament
Considerentul 26 b (nou)
(26b)  Extragerea nediferențiată și nedirecționată a datelor biometrice din înregistrările de pe platformele de comunicare socială sau CCTV pentru a crea sau a extinde bazele de date de recunoaștere facială sporește sentimentul de supraveghere în masă și poate duce la încălcări grave ale drepturilor fundamentale, inclusiv ale dreptului la viață privată. Prin urmare, ar trebui interzisă utilizarea sistemelor de IA în acest scop preconizat.
Amendamentul 52
Propunere de regulament
Considerentul 26 c (nou)
(26c)  Există preocupări serioase cu privire la baza științifică a sistemelor de IA care vizează detectarea emoțiilor, a caracteristicilor fizice sau fiziologice, cum ar fi expresiile faciale, mișcările, frecvența pulsului sau vocea. Emoțiile sau exprimarea emoțiilor și percepțiile acestora variază considerabil de la o cultură la alta și de la o situație la alta și chiar la nivelul unei singure persoane. Printre principalele deficiențe ale unor astfel de tehnologii se numără fiabilitatea limitată (categoriile de emoții nu sunt nici exprimate în mod fiabil printr-un set comun de mișcări fizice sau fiziologice și nici asociate fără echivoc cu un astfel de set), lipsa specificității (expresiile fizice sau fiziologice nu corespund perfect categoriilor de emoții) și generalizibilitatea limitată (efectele contextului și ale culturii nu sunt suficient luate în considerare). Probleme de fiabilitate și, prin urmare, riscuri majore de abuz pot apărea, în special, atunci când se implementează sistemul în situații reale legate de aplicarea legii, gestionarea frontierelor, locul de muncă și instituțiile de învățământ. Prin urmare, introducerea pe piață, punerea în funcțiune sau utilizarea sistemelor de IA destinate utilizării în aceste contexte pentru detectarea stării emoționale a persoanelor fizice ar trebui interzise.
Amendamentul 53
Propunere de regulament
Considerentul 26 d (nou)
(26d)  Practicile interzise de legislația Uniunii, inclusiv în temeiul dreptului privind protecția datelor, al dreptului privind nediscriminarea, al dreptului privind protecția consumatorilor și al dreptului concurenței, nu ar trebui să fie afectate de prezentul regulament.
Amendamentul 54
Propunere de regulament
Considerentul 27
(27)  Sistemele de IA cu grad ridicat de risc ar trebui introduse pe piața Uniunii sau puse în funcțiune numai dacă respectă anumite cerințe obligatorii. Aceste cerințe ar trebui să asigure faptul că sistemele de IA cu grad ridicat de risc disponibile în Uniune sau ale căror rezultate sunt utilizate în alt mod în Uniune nu prezintă riscuri inacceptabile pentru interesele publice importante ale Uniunii, astfel cum sunt recunoscute și protejate de dreptul Uniunii. Sistemele de IA identificate ca prezentând un grad ridicat de risc ar trebui să se limiteze la cele care au un impact negativ semnificativ asupra sănătății, siguranței și drepturilor fundamentale ale persoanelor din Uniune, iar o astfel de limitare reduce la minimum orice eventuală restricționare a comerțului internațional, dacă este cazul.
(27)  Sistemele de IA cu grad ridicat de risc ar trebui introduse pe piața Uniunii, puse în funcțiune sau utilizate numai dacă respectă anumite cerințe obligatorii. Aceste cerințe ar trebui să asigure faptul că sistemele de IA cu grad ridicat de risc disponibile în Uniune sau ale căror rezultate sunt utilizate în alt mod în Uniune nu prezintă riscuri inacceptabile pentru interesele publice importante ale Uniunii, astfel cum sunt recunoscute și protejate de dreptul Uniunii, inclusiv drepturile fundamentale, democrația, statul de drept sau mediul. Pentru a asigura alinierea la legislația sectorială și pentru a evita suprapunerile, cerințele pentru sistemele de IA cu grad ridicat de risc ar trebui să țină cont de legislația sectorială care stabilește cerințe pentru sistemele de IA cu grad ridicat de risc incluse în domeniul de aplicare al prezentului regulament, cum ar fi Regulamentul (UE) 2017/745 privind dispozitivele medicale și Regulamentul (UE) 2017/746 privind dispozitivele de diagnostic in vitro sau Directiva 2006/42/CE privind echipamentele tehnice. Sistemele de IA identificate ca prezentând un grad ridicat de risc ar trebui să se limiteze la cele care au un impact negativ semnificativ asupra sănătății, siguranței și drepturilor fundamentale ale persoanelor din Uniune, iar o astfel de limitare reduce la minimum orice eventuală restricționare a comerțului internațional, dacă este cazul. Având în vedere ritmul rapid al dezvoltării tehnologice, precum și posibilele modificări ale utilizării sistemelor de IA, lista zonelor cu risc ridicat și a cazurilor de utilizare din anexa III ar trebui totuși să facă obiectul unei reexaminări permanente prin intermediul unei evaluări periodice.
Amendamentul 55
Propunere de regulament
Considerentul 28
(28)  Sistemele de IA ar putea avea efecte adverse asupra sănătății și siguranței persoanelor, în special atunci când ele funcționează drept componente ale produselor. În concordanță cu obiectivele legislației de armonizare a Uniunii de a facilita libera circulație a produselor pe piața internă și de a asigura că numai produsele sigure și conforme în toate privințele își găsesc drumul pe piață, este important ca riscurile în materie de siguranță care pot fi generate de un produs în ansamblu din cauza componentelor sale digitale, inclusiv a sistemelor de IA, să fie prevenite și atenuate în mod corespunzător. De exemplu, roboții din ce în ce mai autonomi, fie în contextul producției, fie în contextul asistenței și îngrijirii personale, ar trebui să fie în măsură să își desfășoare activitatea în condiții de siguranță și să își îndeplinească funcțiile în medii complexe. În mod similar, în sectorul sănătății, unde mizele privind viața și sănătatea sunt deosebit de ridicate, sistemele de diagnosticare din ce în ce mai sofisticate și sistemele care sprijină deciziile umane ar trebui să fie fiabile și exacte. Amploarea impactului negativ al sistemului de IA asupra drepturilor fundamentale protejate de Cartă este deosebit de relevantă atunci când un sistem de IA este clasificat ca prezentând un risc ridicat. Printre aceste drepturi se numără dreptul la demnitate umană, respectarea vieții private și de familie, protecția datelor cu caracter personal, libertatea de exprimare și de informare, libertatea de întrunire și de asociere, precum și nediscriminarea, protecția consumatorilor, drepturile lucrătorilor, drepturile persoanelor cu handicap, dreptul la o cale de atac eficientă și la un proces echitabil, dreptul la apărare și prezumția de nevinovăție, dreptul la o bună administrare. Pe lângă aceste drepturi, este important să se sublinieze că, în ceea ce privește copiii, aceștia au drepturi specifice, astfel cum sunt consacrate la articolul 24 din Carta UE și în Convenția Organizației Națiunilor Unite cu privire la drepturile copilului (dezvoltată în continuare în Comentariul general nr. 25 al CDC privind mediul digital), ambele necesitând luarea în considerare a vulnerabilităților copiilor și asigurarea protecției și îngrijirii necesare pentru bunăstarea lor. Dreptul fundamental la un nivel ridicat de protecție a mediului consacrat în Cartă și pus în aplicare în politicile Uniunii ar trebui, de asemenea, luat în considerare atunci când se evaluează gravitatea prejudiciului pe care un sistem de IA îl poate cauza, inclusiv în ceea ce privește sănătatea și siguranța persoanelor.
(28)  Sistemele de IA ar putea avea un impact negativ asupra sănătății și siguranței persoanelor, în special atunci când ele funcționează drept componente de siguranță ale produselor. În concordanță cu obiectivele legislației de armonizare a Uniunii de a facilita libera circulație a produselor pe piața internă și de a asigura că numai produsele sigure și conforme în toate privințele își găsesc drumul pe piață, este important ca riscurile în materie de siguranță care pot fi generate de un produs în ansamblu din cauza componentelor sale digitale, inclusiv a sistemelor de IA, să fie prevenite și atenuate în mod corespunzător. De exemplu, roboții din ce în ce mai autonomi, fie în contextul producției, fie în contextul asistenței și îngrijirii personale, ar trebui să fie în măsură să își desfășoare activitatea în condiții de siguranță și să își îndeplinească funcțiile în medii complexe. În mod similar, în sectorul sănătății, unde mizele privind viața și sănătatea sunt deosebit de ridicate, sistemele de diagnosticare din ce în ce mai sofisticate și sistemele care sprijină deciziile umane ar trebui să fie fiabile și exacte.
Amendamentul 56
Propunere de regulament
Considerentul 28 a (nou)
(28a)  Amploarea impactului negativ al sistemului de IA asupra drepturilor fundamentale protejate de Cartă este deosebit de relevantă atunci când un sistem de IA este clasificat ca prezentând un risc ridicat. Printre aceste drepturi se numără dreptul la demnitate umană, respectarea vieții private și de familie, protecția datelor cu caracter personal, libertatea de exprimare și de informare, libertatea de întrunire și de asociere, precum și nediscriminarea, dreptul la educație, protecția consumatorilor, drepturile lucrătorilor, drepturile persoanelor cu dizabilități, egalitatea de gen, drepturile de proprietate intelectuală, dreptul la o cale de atac eficientă și la un proces echitabil, dreptul la apărare și prezumția de nevinovăție, dreptul la o bună administrare. Pe lângă aceste drepturi, este important să se sublinieze că, în ceea ce privește copiii, aceștia au drepturi specifice, astfel cum sunt consacrate la articolul 24 din Carta UE și în Convenția Organizației Națiunilor Unite cu privire la drepturile copilului (dezvoltată în continuare în Comentariul general nr. 25 al CDC privind mediul digital), ambele necesitând luarea în considerare a vulnerabilităților copiilor și asigurarea protecției și îngrijirii necesare pentru bunăstarea lor. Dreptul fundamental la un nivel ridicat de protecție a mediului consacrat în Cartă și pus în aplicare în politicile Uniunii ar trebui, de asemenea, luat în considerare atunci când se evaluează gravitatea prejudiciului pe care un sistem de IA îl poate cauza, inclusiv în ceea ce privește sănătatea și siguranța persoanelor sau mediul.
Amendamentul 57
Propunere de regulament
Considerentul 29
(29)  În ceea ce privește sistemele de IA cu grad ridicat de risc care sunt componente de siguranță ale produselor sau sistemelor sau care sunt ele însele produse sau sisteme care intră în domeniul de aplicare al Regulamentului (CE) nr. 300/2008 al Parlamentului European și al Consiliului39, al Regulamentului (UE) nr. 167/2013 al Parlamentului European și al Consiliului40, al Regulamentului (UE) nr. 168/2013 al Parlamentului European și al Consiliului41, al Directivei (UE) 2014/90/UE a Parlamentului European și a Consiliului42, al Directivei (UE) 2016/797 a Parlamentului European și a Consiliului43, al Regulamentului (UE) 2018/858 al Parlamentului European și al Consiliului44, al Regulamentului (UE) 2018/1139 al Parlamentului European și al Consiliului45 și al Regulamentului (UE) 2019/2144 al Parlamentului European și al Consiliului46, este oportun să se modifice aceste acte legislative pentru a se asigura că Comisia ia în considerare, pe baza specificităților tehnice și de reglementare ale fiecărui sector, și fără a afecta mecanismele existente de guvernanță, de evaluare a conformității și de aplicare și autoritățile stabilite în acestea, cerințele obligatorii pentru sistemele de IA cu risc ridicat stabilite în prezentul regulament atunci când adoptă orice act relevant viitor delegat sau de punere în aplicare pe baza acestor acte legislative.
(29)  În ceea ce privește sistemele de IA cu grad ridicat de risc care sunt componente de siguranță ale produselor sau sistemelor sau care sunt ele însele produse sau sisteme care intră în domeniul de aplicare al Regulamentului (CE) nr. 300/2008 al Parlamentului European și al Consiliului39, al Regulamentului (UE) nr. 167/2013 al Parlamentului European și al Consiliului40, al Regulamentului (UE) nr. 168/2013 al Parlamentului European și al Consiliului41, al Directivei (UE) 2014/90/UE a Parlamentului European și a Consiliului42, al Directivei (UE) 2016/797 a Parlamentului European și a Consiliului43, al Regulamentului (UE) 2018/858 al Parlamentului European și al Consiliului44, al Regulamentului (UE) 2018/1139 al Parlamentului European și al Consiliului45 și al Regulamentului (UE) 2019/2144 al Parlamentului European și al Consiliului46, este oportun să se modifice aceste acte legislative pentru a se asigura că Comisia ia în considerare, pe baza specificităților tehnice și de reglementare ale fiecărui sector, și fără a afecta mecanismele existente de guvernanță, de evaluare a conformității, de supraveghere a pieței și de aplicare și autoritățile stabilite în acestea, cerințele obligatorii pentru sistemele de IA cu risc ridicat stabilite în prezentul regulament atunci când adoptă orice act relevant viitor delegat sau de punere în aplicare pe baza acestor acte legislative.
__________________
__________________
39 Regulamentul (CE) nr. 300/2008 al Parlamentului European și al Consiliului din 11 martie 2008 privind norme comune în domeniul securității aviației civile și de abrogare a Regulamentului (CE) nr. 2320/2002 (JO L 97, 9.4.2008, p. 72).
39 Regulamentul (CE) nr. 300/2008 al Parlamentului European și al Consiliului din 11 martie 2008 privind norme comune în domeniul securității aviației civile și de abrogare a Regulamentului (CE) nr. 2320/2002 (JO L 97, 9.4.2008, p. 72).
40 Regulamentul (UE) nr. 167/2013 al Parlamentului European și al Consiliului din 5 februarie 2013 privind omologarea și supravegherea pieței pentru vehiculele agricole și forestiere (JO L 60, 2.3.2013, p. 1).
40 Regulamentul (UE) nr. 167/2013 al Parlamentului European și al Consiliului din 5 februarie 2013 privind omologarea și supravegherea pieței pentru vehiculele agricole și forestiere (JO L 60, 2.3.2013, p. 1).
41 Regulamentul (UE) nr. 168/2013 al Parlamentului European și al Consiliului din 15 ianuarie 2013 privind omologarea și supravegherea pieței pentru vehiculele cu două sau trei roți și pentru cvadricicluri (JO L 60, 2.3.2013, p. 52).
41 Regulamentul (UE) nr. 168/2013 al Parlamentului European și al Consiliului din 15 ianuarie 2013 privind omologarea și supravegherea pieței pentru vehiculele cu două sau trei roți și pentru cvadricicluri (JO L 60, 2.3.2013, p. 52).
42 Directiva 2014/90/UE a Parlamentului European și a Consiliului din 23 iulie 2014 privind echipamentele maritime și de abrogare a Directivei 96/98/CE a Consiliului (JO L 257, 28.8.2014, p. 146).
42 Directiva 2014/90/UE a Parlamentului European și a Consiliului din 23 iulie 2014 privind echipamentele maritime și de abrogare a Directivei 96/98/CE a Consiliului (JO L 257, 28.8.2014, p. 146).
43 Directiva (UE) 2016/797 a Parlamentului European și a Consiliului din 11 mai 2016 privind interoperabilitatea sistemului feroviar în Uniunea Europeană (JO L 138, 26.5.2016, p. 44).
43 Directiva (UE) 2016/797 a Parlamentului European și a Consiliului din 11 mai 2016 privind interoperabilitatea sistemului feroviar în Uniunea Europeană (JO L 138, 26.5.2016, p. 44).
44 Regulamentul (UE) 2018/858 al Parlamentului European și al Consiliului din 30 mai 2018 privind omologarea și supravegherea pieței autovehiculelor și remorcilor acestora, precum și ale sistemelor, componentelor și unităților tehnice separate destinate vehiculelor respective, de modificare a Regulamentelor (CE) nr. 715/2007 și (CE) nr. 595/2009 și de abrogare a Directivei 2007/46/CE (JO L 151, 14.6.2018, p. 1).
44 Regulamentul (UE) 2018/858 al Parlamentului European și al Consiliului din 30 mai 2018 privind omologarea și supravegherea pieței autovehiculelor și remorcilor acestora, precum și ale sistemelor, componentelor și unităților tehnice separate destinate vehiculelor respective, de modificare a Regulamentelor (CE) nr. 715/2007 și (CE) nr. 595/2009 și de abrogare a Directivei 2007/46/CE (JO L 151, 14.6.2018, p. 1).
45 Regulamentul (UE) 2018/1139 al Parlamentului European și al Consiliului din 4 iulie 2018 privind normele comune în domeniul aviației civile și de înființare a Agenției Uniunii Europene pentru Siguranța Aviației, de modificare a Regulamentelor (CE) nr. 2111/2005, (CE) nr. 1008/2008, (UE) nr. 996/2010, (UE) nr. 376/2014 și a Directivelor 2014/30/UE și 2014/53/UE ale Parlamentului European și ale Consiliului, precum și de abrogare a Regulamentelor (CE) nr. 552/2004 și (CE) nr. 216/2008 ale Parlamentului European și ale Consiliului și a Regulamentului (CEE) nr. 3922/91 al Consiliului (JO L 212, 22.8.2018, p. 1).
45 Regulamentul (UE) 2018/1139 al Parlamentului European și al Consiliului din 4 iulie 2018 privind normele comune în domeniul aviației civile și de înființare a Agenției Uniunii Europene pentru Siguranța Aviației, de modificare a Regulamentelor (CE) nr. 2111/2005, (CE) nr. 1008/2008, (UE) nr. 996/2010, (UE) nr. 376/2014 și a Directivelor 2014/30/UE și 2014/53/UE ale Parlamentului European și ale Consiliului, precum și de abrogare a Regulamentelor (CE) nr. 552/2004 și (CE) nr. 216/2008 ale Parlamentului European și ale Consiliului și a Regulamentului (CEE) nr. 3922/91 al Consiliului (JO L 212, 22.8.2018, p. 1).
46 Regulamentul (UE) 2019/2144 al Parlamentului European și al Consiliului din 27 noiembrie 2019 privind cerințele pentru omologarea de tip a autovehiculelor și remorcilor acestora, precum și a sistemelor, componentelor și unităților tehnice separate destinate unor astfel de vehicule, în ceea ce privește siguranța generală a acestora și protecția ocupanților vehiculului și a utilizatorilor vulnerabili ai drumurilor, de modificare a Regulamentului (UE) 2018/858 al Parlamentului European și al Consiliului și de abrogare a Regulamentelor (CE) nr. 78/2009, (CE) nr. 79/2009 și (CE) nr. 661/2009 ale Parlamentului European și ale Consiliului și a Regulamentelor (CE) nr. 631/2009, (UE) nr. 406/2010, (UE) nr. 672/2010, (UE) nr. 1003/2010, (UE) nr. 1005/2010, (UE) nr. 1008/2010, (UE) nr. 1009/2010, (UE) nr. 19/2011, (UE) nr. 109/2011, (UE) nr. 458/2011, (UE) nr. 65/2012, (UE) nr. 130/2012, (UE) nr. 347/2012, (UE) nr. 351/2012, (UE) nr. 1230/2012 și (UE) 2015/166 ale Comisie (JO L 325, 16.12.2019, p. 1).
46 Regulamentul (UE) 2019/2144 al Parlamentului European și al Consiliului din 27 noiembrie 2019 privind cerințele pentru omologarea de tip a autovehiculelor și remorcilor acestora, precum și a sistemelor, componentelor și unităților tehnice separate destinate unor astfel de vehicule, în ceea ce privește siguranța generală a acestora și protecția ocupanților vehiculului și a utilizatorilor vulnerabili ai drumurilor, de modificare a Regulamentului (UE) 2018/858 al Parlamentului European și al Consiliului și de abrogare a Regulamentelor (CE) nr. 78/2009, (CE) nr. 79/2009 și (CE) nr. 661/2009 ale Parlamentului European și ale Consiliului și a Regulamentelor (CE) nr. 631/2009, (UE) nr. 406/2010, (UE) nr. 672/2010, (UE) nr. 1003/2010, (UE) nr. 1005/2010, (UE) nr. 1008/2010, (UE) nr. 1009/2010, (UE) nr. 19/2011, (UE) nr. 109/2011, (UE) nr. 458/2011, (UE) nr. 65/2012, (UE) nr. 130/2012, (UE) nr. 347/2012, (UE) nr. 351/2012, (UE) nr. 1230/2012 și (UE) 2015/166 ale Comisie (JO L 325, 16.12.2019, p. 1).
Amendamentul 58
Propunere de regulament
Considerentul 30
(30)  În ceea ce privește sistemele de IA care sunt componente de siguranță ale produselor care intră în domeniul de aplicare al anumitor acte legislative de armonizare ale Uniunii, sau care sunt ele însele astfel de produse, este oportun ca acestea să fie clasificate ca având un grad ridicat de risc în temeiul prezentului regulament, în cazul în care produsul în cauză este supus procedurii de evaluare a conformității efectuate de un organism terț de evaluare a conformității în temeiul legislației de armonizare relevante a Uniunii. În special, astfel de produse sunt echipamentele tehnice, jucăriile, ascensoarele, echipamentele și sistemele de protecție destinate utilizării în atmosfere potențial explozive, echipamentele radio, echipamentele sub presiune, echipamentele pentru ambarcațiuni de agrement, instalațiile pe cablu, aparatele consumatoare de combustibili gazoși, dispozitivele medicale și dispozitivele medicale pentru diagnostic in vitro.
(30)  În ceea ce privește sistemele de IA care sunt componente de siguranță ale produselor care intră în domeniul de aplicare al anumitor acte legislative de armonizare ale Uniunii enumerate în anexa II, sau care sunt ele însele astfel de produse, este oportun ca acestea să fie clasificate ca având un grad ridicat de risc în temeiul prezentului regulament, în cazul în care produsul în cauză este supus procedurii de evaluare a conformității, menită să asigure respectarea cerințelor de siguranță esențiale, efectuate de un organism terț de evaluare a conformității în temeiul dreptului de armonizare relevant al Uniunii. În special, astfel de produse sunt echipamentele tehnice, jucăriile, ascensoarele, echipamentele și sistemele de protecție destinate utilizării în atmosfere potențial explozive, echipamentele radio, echipamentele sub presiune, echipamentele pentru ambarcațiuni de agrement, instalațiile pe cablu, aparatele consumatoare de combustibili gazoși, dispozitivele medicale și dispozitivele medicale pentru diagnostic in vitro.
Amendamentul 59
Propunere de regulament
Considerentul 31
(31)  Clasificarea unui sistem de IA ca prezentând un risc ridicat în temeiul prezentului regulament nu ar trebui să însemne neapărat că produsul a cărui componentă de siguranță este sistemul de IA sau că sistemul de IA în sine ca produs este considerat „cu risc ridicat” în conformitate cu criteriile stabilite în legislația relevantă de armonizare a Uniunii care se aplică produsului. Acest lucru este valabil în special în cazul Regulamentului (UE) 2017/745 al Parlamentului European și al Consiliului47 și al Regulamentului (UE) 2017/746 al Parlamentului European și al Consiliului48, care prevăd o evaluare a conformității de către o parte terță pentru produsele cu risc mediu și cu risc ridicat.
(31)  Clasificarea unui sistem de IA ca prezentând un risc ridicat în temeiul prezentului regulament nu ar trebui să însemne că produsul a cărui componentă de siguranță este sistemul de IA sau că sistemul de IA în sine ca produs este considerat „cu risc ridicat” în conformitate cu criteriile stabilite în dreptul relevant de armonizare al Uniunii care se aplică produsului. Acest lucru este valabil în special în cazul Regulamentului (UE) 2017/745 al Parlamentului European și al Consiliului47 și al Regulamentului (UE) 2017/746 al Parlamentului European și al Consiliului48, care prevăd o evaluare a conformității de către o parte terță pentru produsele cu risc mediu și cu risc ridicat.
__________________
__________________
47 Regulamentul (UE) 2017/745 al Parlamentului European și al Consiliului din 5 aprilie 2017 privind dispozitivele medicale, de modificare a Directivei 2001/83/CE, a Regulamentului (CE) nr. 178/2002 și a Regulamentului (CE) nr. 1223/2009 și de abrogare a Directivelor 90/385/CEE și 93/42/CEE ale Consiliului (JO L 117, 5.5.2017, p. 1).
47 Regulamentul (UE) 2017/745 al Parlamentului European și al Consiliului din 5 aprilie 2017 privind dispozitivele medicale, de modificare a Directivei 2001/83/CE, a Regulamentului (CE) nr. 178/2002 și a Regulamentului (CE) nr. 1223/2009 și de abrogare a Directivelor 90/385/CEE și 93/42/CEE ale Consiliului (JO L 117, 5.5.2017, p. 1).
48 Regulamentul (UE) 2017/746 al Parlamentului European și al Consiliului din 5 aprilie 2017 privind dispozitivele medicale pentru diagnostic in vitro și de abrogare a Directivei 98/79/CE și a Deciziei 2010/227/UE a Comisiei (JO L 117, 5.5.2017, p. 176).
48 Regulamentul (UE) 2017/746 al Parlamentului European și al Consiliului din 5 aprilie 2017 privind dispozitivele medicale pentru diagnostic in vitro și de abrogare a Directivei 98/79/CE și a Deciziei 2010/227/UE a Comisiei (JO L 117, 5.5.2017, p. 176).
Amendamentul 60
Propunere de regulament
Considerentul 32
(32)  În ceea ce privește sistemele de IA autonome, adică alte sisteme de IA cu grad ridicat de risc decât cele care sunt componente de siguranță ale produselor sau care sunt ele însele produse, este oportun ca acestea să fie clasificate ca fiind cu risc ridicat dacă, având în vedere scopul preconizat, prezintă un risc ridicat de a aduce prejudicii sănătății și siguranței sau drepturilor fundamentale ale persoanelor, ținând seama atât de gravitatea posibilelor prejudicii, cât și de probabilitatea producerii acestora, și dacă sunt utilizate într-o serie de domenii predefinite în mod specific în regulament. Identificarea acestor sisteme se bazează pe aceeași metodologie și pe aceleași criterii avute în vedere și pentru orice modificare viitoare a listei de sisteme de IA cu grad ridicat de risc.
(32)  În ceea ce privește sistemele de IA autonome, adică alte sisteme de IA cu grad ridicat de risc decât cele care sunt componente de siguranță ale produselor sau care sunt ele însele produse și care sunt enumerate într-unul dintre domeniile și cazurile de utilizare din anexa IIII, este oportun ca acestea să fie clasificate ca fiind cu risc ridicat dacă, având în vedere scopul preconizat, prezintă un risc semnificativ de a aduce prejudicii sănătății și siguranței sau drepturilor fundamentale ale persoanelor și dacă, în cazul în care sistemul de IA este utilizat drept componentă de siguranță a unei infrastructuri critice, mediului. Un astfel de risc semnificativ de a aduce prejudicii ar trebui identificat prin evaluarea, pe de o parte, a efectului unui astfel de risc în ceea ce privește nivelul său de gravitate, intensitate, probabilitatea apariției și durata combinată și, pe de altă parte, dacă riscul poate afecta o persoană, mai multe persoane sau un anumit grup de persoane. O astfel de combinație ar putea duce, de exemplu, la o gravitate ridicată, dar cu o probabilitate scăzută de a afecta o persoană fizică, sau la o probabilitate ridicată de a afecta un grup de persoane cu o intensitate scăzută pe o perioadă lungă de timp, în funcție de context. Identificarea acestor sisteme se bazează pe aceeași metodologie și pe aceleași criterii avute în vedere și pentru orice modificare viitoare a listei de sisteme de IA cu grad ridicat de risc.
Amendamentul 61
Propunere de regulament
Considerentul 32 a (nou)
(32a)  Furnizorii ale căror sisteme de IA se încadrează într-unul dintre domeniile și cazurile de utilizare enumerate în anexa III care consideră că sistemul lor nu prezintă un risc semnificativ de afectare a sănătății, a siguranței, a drepturilor fundamentale sau a mediului ar trebui să informeze autoritățile naționale de supraveghere prin transmiterea unei notificări motivate. Această notificare ar putea lua forma unui rezumat de o pagină al informațiilor relevante privind sistemul de IA în cauză, inclusiv scopul preconizat al acestuia și motivul pentru care nu ar prezenta un risc semnificativ de afectare a sănătății, a siguranței, a drepturilor fundamentale sau a mediului. Comisia ar trebui să specifice criterii care să permită întreprinderilor să evalueze dacă sistemul lor ar prezenta astfel de riscuri, precum și să elaboreze un model de notificare ușor de utilizat și standardizat. Furnizorii ar trebui să transmită notificarea cât mai curând posibil și, în orice caz, înainte de introducerea pe piață sau de punerea în funcțiune a sistemului de IA, în mod ideal în etapa de dezvoltare, și ar trebui să fie liberi să îl introducă pe piață în orice moment după notificare. Cu toate acestea, în cazul în care estimează că sistemul de IA în cauză a fost clasificat greșit, autoritatea de supraveghere ar trebui să formuleze o obiecție în privința notificării în termen de trei luni. Obiecția ar trebui să fie motivată și să explice în mod corespunzător de ce sistemul de IA a fost clasificat greșit. Furnizorul ar trebui să își păstreze dreptul de a exercita o cale de atac prin furnizarea de argumente suplimentare. În cazul în care, după cele trei luni, nu s-a înregistrat nicio obiecție cu privire la notificare, autoritățile naționale de supraveghere ar putea interveni în continuare dacă sistemul de IA prezintă un risc la nivel național, la fel ca în cazul oricărui alt sistem de IA de pe piață. Autoritățile naționale de supraveghere ar trebui să transmită Oficiului pentru IA rapoarte anuale în care să detalieze notificările primite și deciziile adoptate.
Amendamentul 62
Propunere de regulament
Considerentul 33
(33)  Inexactitățile tehnice ale sistemelor de IA destinate identificării biometrice la distanță a persoanelor fizice pot conduce la rezultate subiective și pot avea efecte discriminatorii. Acest lucru este deosebit de relevant în ceea ce privește vârsta, etnia, sexul sau handicapul. Prin urmare, sistemele de identificare biometrică la distanță „în timp real” și „ulterior” ar trebui clasificate ca având un grad ridicat de risc. Având în vedere riscurile pe care le prezintă, ambele tipuri de sisteme de identificare biometrică la distanță ar trebui să facă obiectul unor cerințe specifice privind capacitățile de jurnalizare și supravegherea umană.
eliminat
Amendamentul 63
Propunere de regulament
Considerentul 33 a (nou)
(33a)  Întrucât datele biometrice constituie o categorie specială de date sensibile cu caracter personal în conformitate cu Regulamentul 2016/679, este oportun să se clasifice ca prezentând un grad ridicat de risc mai multe cazuri de utilizare critică a sistemelor biometrice și a sistemelor bazate pe biometrie. Sistemele de IA destinate să fie utilizate pentru identificarea biometrică a persoanelor fizice și sistemele de IA destinate a fi utilizate pentru a face deducții în legătură cu caracteristicile personale ale persoanelor fizice pe baza datelor biometrice sau bazate pe biometrie, inclusiv sistemele de recunoaștere a emoțiilor, cu excepția celor interzise în temeiul prezentului regulament, ar trebui, prin urmare, să fie clasificate drept prezentând un risc ridicat. Această clasificare nu ar trebui să includă sistemele de IA destinate a fi utilizate pentru verificarea biometrică, care include autentificarea, al căror unic scop este de a confirma că o anumită persoană fizică este persoana care susține că este și de a confirma identitatea unei persoane fizice cu unicul scop de a-i permite accesul la un serviciu, la un dispozitiv sau la un sediu (verificare comparativă între două seturi de date). Sistemele biometrice și sistemele bazate pe biometrie care sunt prevăzute în dreptul Uniunii pentru a permite măsuri de securitate cibernetică și de protecție a datelor cu caracter personal nu ar trebui să fie considerate drept prezentând un risc semnificativ de prejudiciere a sănătății, a siguranței și a drepturilor fundamentale.
Amendamentul 64
Propunere de regulament
Considerentul 34
(34)  În ceea ce privește gestionarea și exploatarea infrastructurii critice, este oportun să se clasifice ca fiind cu risc ridicat sistemele de IA destinate utilizării ca elemente de siguranță în gestionarea și exploatarea traficului rutier și în aprovizionarea cu apă, gaz, încălzire și energie electrică, deoarece defectarea sau funcționarea defectuoasă a acestora poate pune în pericol viața și sănătatea persoanelor la scară largă și poate conduce la perturbări semnificative ale desfășurării obișnuite a activităților sociale și economice.
(34)  În ceea ce privește gestionarea și exploatarea infrastructurii critice, este oportun să se clasifice ca fiind cu risc ridicat sistemele de IA destinate utilizării ca elemente de siguranță în gestionarea și exploatarea aprovizionării cu apă, gaz, încălzire și energie electrică și a infrastructurii digitale critice, deoarece defectarea sau funcționarea defectuoasă a acestora poate afecta securitatea și integritatea acestor infrastructuri critice sau poate pune în pericol viața și sănătatea persoanelor la scară largă și poate conduce la perturbări semnificative ale desfășurării obișnuite a activităților sociale și economice. Componentele de siguranță ale infrastructurii critice, inclusiv ale infrastructurii digitale critice, sunt sisteme utilizate pentru a proteja în mod direct integritatea fizică a infrastructurii critice sau sănătatea și siguranța persoanelor și a bunurilor. Defectarea sau funcționarea defectuoasă a unor astfel de componente ar putea duce în mod direct la riscuri pentru integritatea fizică a infrastructurii critice și, prin urmare, la riscuri pentru sănătatea și siguranța persoanelor și a bunurilor. Componentele destinate a fi utilizate exclusiv în scopuri de securitate cibernetică nu ar trebui să se califice drept componente de siguranță. Exemple de astfel de componente de siguranță pot include sisteme de monitorizare a presiunii apei sau sisteme de control al alarmei de incendiu în centrele de cloud computing.
Amendamentul 65
Propunere de regulament
Considerentul 35
(35)  Sistemele de IA utilizate în educație sau în formarea profesională, în special pentru determinarea accesului sau desemnarea persoanelor în instituțiile de învățământ și formare profesională sau pentru evaluarea persoanelor care participă la teste ca parte a educației lor sau ca o condiție prealabilă pentru aceasta, ar trebui considerate ca având un grad ridicat de risc, deoarece pot determina parcursul educațional și profesional al vieții unei persoane și, prin urmare, pot afecta capacitatea acesteia de a-și asigura mijloacele de subzistență. Atunci când sunt concepute și utilizate în mod necorespunzător, astfel de sisteme pot încălca dreptul la educație și formare, precum și dreptul de a nu fi discriminat, și pot perpetua tiparele istorice de discriminare.
(35)  Implementarea sistemelor de IA în educație este importantă pentru a contribui la modernizarea unor întregi sisteme de învățământ, la creșterea calității educației, atât offline, cât și online, și la accelerarea educației digitale, punând-o astfel la dispoziția unui public mai larg. Sistemele de IA utilizate în educație sau în formarea profesională, în special pentru determinarea accesului sau influențarea în mod semnificativ a deciziilor privind admiterea sau desemnarea persoanelor în instituțiile de învățământ și formare profesională sau pentru evaluarea persoanelor care participă la teste ca parte a educației lor sau ca o condiție prealabilă pentru aceasta sau pentru a evalua nivelul adecvat de educație pentru o persoană și a influența în mod semnificativ nivelul de educație și de formare de care vor beneficia persoanele fizice sau pe care vor fi în măsură să îl acceseze sau pentru a monitoriza și depista comportamentul interzis al elevilor sau studenților în timpul testelor ar trebui clasificate drept sisteme de IA cu un grad ridicat de risc, deoarece pot determina parcursul educațional și profesional al vieții unei persoane și, prin urmare, pot afecta capacitatea acesteia de a-și asigura mijloacele de subzistență. Atunci când sunt concepute și utilizate în mod necorespunzător, astfel de sisteme pot fi deosebit de intruzive și pot încălca dreptul la educație și formare, precum și dreptul de a nu fi discriminat, și pot perpetua tiparele istorice de discriminare, de exemplu împotriva femeilor, a anumitor grupe de vârstă, a persoanelor cu dizabilități sau a persoanelor cu anumite origini rasiale sau etnice sau orientări sexuale.
Amendamentul 66
Propunere de regulament
Considerentul 36
(36)  Sistemele de IA utilizate în domeniul ocupării forței de muncă, al gestionării lucrătorilor și al accesului la activități independente, în special pentru recrutarea și selectarea persoanelor, pentru luarea deciziilor privind promovarea și încetarea activității, precum și pentru alocarea sarcinilor, monitorizarea sau evaluarea persoanelor aflate în raporturi contractuale legate de muncă, ar trebui, de asemenea, clasificate ca având un grad ridicat de risc, deoarece aceste sisteme pot avea un impact semnificativ asupra viitoarelor perspective de carieră și asupra mijloacelor de subzistență ale acestor persoane. Relațiile contractuale relevante legate de muncă ar trebui să implice angajații și persoanele care prestează servicii prin intermediul platformelor, astfel cum se menționează în Programul de lucru al Comisiei pentru 2021. Aceste persoane nu ar trebui, în principiu, să fie considerate utilizatori în sensul prezentului regulament. Pe tot parcursul procesului de recrutare, precum și în evaluarea, promovarea sau menținerea persoanelor în relații contractuale legate de muncă, astfel de sisteme pot perpetua tiparele istorice de discriminare, de exemplu împotriva femeilor, a anumitor grupe de vârstă, a persoanelor cu handicap sau a persoanelor de anumite origini rasiale sau etnice sau cu o anumită orientare sexuală. Sistemele de IA utilizate pentru a monitoriza performanța și comportamentul acestor persoane pot avea, de asemenea, un impact asupra drepturilor lor la protecția datelor și la viața privată.
(36)  Sistemele de IA utilizate în domeniul ocupării forței de muncă, al gestionării lucrătorilor și al accesului la activități independente, în special pentru recrutarea și selectarea persoanelor, pentru luarea deciziilor sau influențarea în mod semnificativ a deciziilor privind începerea, promovarea și încetarea activității, precum și pentru alocarea personalizată a sarcinilor pe baza comportamentului personal, a trăsăturilor individuale sau a datelor biometrice, monitorizarea sau evaluarea persoanelor aflate în raporturi contractuale legate de muncă, ar trebui, de asemenea, clasificate ca având un grad ridicat de risc, deoarece aceste sisteme pot avea un impact semnificativ asupra viitoarelor perspective de carieră, asupra mijloacelor de subzistență ale acestor persoane și asupra drepturilor lucrătorilor. Relațiile contractuale relevante legate de muncă ar trebui să implice în mod semnificativ angajații și persoanele care prestează servicii prin intermediul platformelor, astfel cum se menționează în Programul de lucru al Comisiei pentru 2021. Pe tot parcursul procesului de recrutare, precum și în evaluarea, promovarea sau menținerea persoanelor în relații contractuale legate de muncă, astfel de sisteme pot perpetua tiparele istorice de discriminare, de exemplu împotriva femeilor, a anumitor grupe de vârstă, a persoanelor cu handicap sau a persoanelor de anumite origini rasiale sau etnice sau cu o anumită orientare sexuală. Sistemele de IA utilizate pentru a monitoriza performanța și comportamentul acestor persoane pot submina, de asemenea, esența drepturilor fundamentale ale acestora la protecția datelor și la viața privată. Prezentul regulament se aplică fără a aduce atingere competențelor Uniunii și ale statelor membre de a prevedea norme mai specifice pentru utilizarea sistemelor de IA în contextul ocupării forței de muncă.
Amendamentul 67
Propunere de regulament
Considerentul 37
(37)  Un alt domeniu în care utilizarea sistemelor de IA merită o atenție deosebită este accesul și posibilitatea de a beneficia de anumite servicii și beneficii publice și private esențiale, necesare pentru ca oamenii să participe pe deplin în societate sau să își îmbunătățească nivelul de trai. În special, sistemele de IA utilizate pentru a evalua punctajul de credit sau bonitatea persoanelor fizice ar trebui clasificate ca sisteme de IA cu grad ridicat de risc, întrucât acestea determină accesul persoanelor respective la resurse financiare sau la servicii esențiale, cum ar fi locuințe, electricitate și servicii de telecomunicații. Sistemele de IA utilizate în acest scop pot duce la discriminarea persoanelor sau a grupurilor și perpetuează modelele istorice de discriminare, de exemplu pe criterii de origine rasială sau etnică, handicap, vârstă, orientare sexuală, sau pot crea noi forme de impact discriminatoriu. Având în vedere amploarea foarte limitată a impactului și alternativele disponibile pe piață, este oportun să se excepteze sistemele de IA în scopul evaluării bonității și al evaluării creditelor atunci când sunt puse în funcțiune de către micii furnizori pentru uzul propriu. Persoanele fizice care solicită sau primesc prestații și servicii de asistență publică din partea autorităților publice depind, în general, de aceste prestații și servicii și se află într-o poziție vulnerabilă în raport cu autoritățile responsabile. În cazul în care sistemele de IA sunt utilizate pentru a stabili dacă astfel de prestații și servicii ar trebui refuzate, reduse, revocate sau recuperate de autorități, acestea pot avea un impact semnificativ asupra mijloacelor de subzistență ale persoanelor și le pot încălca drepturile fundamentale, cum ar fi dreptul la protecție socială, la nediscriminare, la demnitatea umană sau la o cale de atac eficientă. Prin urmare, aceste sisteme ar trebui clasificate ca prezentând un grad ridicat de risc. Cu toate acestea, prezentul regulament nu ar trebui să împiedice dezvoltarea și utilizarea unor abordări inovatoare în administrația publică, care ar putea beneficia de o utilizare mai largă a sistemelor de IA conforme și sigure, cu condiția ca aceste sisteme să nu implice un risc ridicat pentru persoanele fizice și juridice. În cele din urmă, sistemele de IA utilizate pentru dispecerizarea sau stabilirea priorității în dispecerizarea serviciilor de primă intervenție de urgență ar trebui, de asemenea, clasificate ca având un grad ridicat de risc, deoarece iau decizii în situații foarte critice pentru viața și sănătatea persoanelor și a bunurilor acestora.
(37)  Un alt domeniu în care utilizarea sistemelor de IA merită o atenție deosebită este accesul și posibilitatea de a beneficia de anumite servicii publice și private esențiale, inclusiv servicii de asistență medicală, și servicii esențiale, inclusiv locuințe, energie electrică, încălzire/răcire și internet, dar fără a se limita la acestea, și beneficii necesare pentru ca oamenii să participe pe deplin în societate sau să își îmbunătățească nivelul de trai. În special, sistemele de IA utilizate pentru a evalua punctajul de credit sau bonitatea persoanelor fizice ar trebui clasificate ca sisteme de IA cu grad ridicat de risc, întrucât acestea determină accesul persoanelor respective la resurse financiare sau la servicii esențiale, cum ar fi locuințe, electricitate și servicii de telecomunicații. Sistemele de IA utilizate în acest scop pot duce la discriminarea persoanelor sau a grupurilor și perpetuează modelele istorice de discriminare, de exemplu pe criterii de origine rasială sau etnică, gen, dizabilități, vârstă, orientare sexuală, sau pot crea noi forme de impact discriminatoriu. Cu toate acestea, sistemele de IA prevăzute de dreptul Uniunii în scopul detectării fraudei în furnizarea de servicii financiare nu ar trebui să fie considerate ca prezentând un grad ridicat de risc în temeiul prezentului regulament. Persoanele fizice care solicită sau primesc prestații și servicii de asistență publică din partea autorităților publice, inclusiv servicii de asistență medicală și servicii esențiale, inclusiv locuințe, energie electrică, încălzire/răcire și internet, dar fără a se limita la acestea, depind, în general, de aceste prestații și servicii și se află într-o poziție vulnerabilă în raport cu autoritățile responsabile. În cazul în care sistemele de IA sunt utilizate pentru a stabili dacă astfel de prestații și servicii ar trebui refuzate, reduse, revocate sau recuperate de autorități, acestea pot avea un impact semnificativ asupra mijloacelor de subzistență ale persoanelor și le pot încălca drepturile fundamentale, cum ar fi dreptul la protecție socială, la nediscriminare, la demnitatea umană sau la o cale de atac eficientă. În mod similar, sistemele de IA destinate a fi utilizate pentru a lua decizii sau pentru a influența în mod semnificativ deciziile privind eligibilitatea persoanelor fizice pentru asigurarea de sănătate și de viață pot avea, de asemenea, un impact semnificativ asupra mijloacelor de subzistență ale persoanelor și pot încălca drepturile lor fundamentale, de exemplu prin limitarea accesului la asistență medicală sau prin perpetuarea discriminării bazate pe caracteristici personale. Prin urmare, aceste sisteme ar trebui clasificate ca prezentând un grad ridicat de risc. Cu toate acestea, prezentul regulament nu ar trebui să împiedice dezvoltarea și utilizarea unor abordări inovatoare în administrația publică, care ar putea beneficia de o utilizare mai largă a sistemelor de IA conforme și sigure, cu condiția ca aceste sisteme să nu implice un risc ridicat pentru persoanele fizice și juridice. În cele din urmă, sistemele de IA utilizate pentru evaluarea și clasificarea apelurilor de urgență ale persoanelor fizice sau pentru dispecerizarea sau stabilirea priorității în dispecerizarea serviciilor de primă intervenție de urgență ar trebui, de asemenea, clasificate ca având un grad ridicat de risc, deoarece iau decizii în situații foarte critice pentru viața și sănătatea persoanelor și a bunurilor acestora.
Amendamentul 68
Propunere de regulament
Considerentul 37 a (nou)
(37a)  Având în vedere rolul și responsabilitatea poliției și a autorităților judiciare, precum și impactul deciziilor pe care le iau acestea în scopul prevenirii, investigării, depistării sau urmăririi penale a infracțiunilor sau al executării pedepselor, unele cazuri specifice de utilizare a aplicațiilor de IA în asigurarea respectării legii trebuie clasificate ca având un grad ridicat de risc, în special în cazurile în care există potențialul de a afecta în mod semnificativ viața sau drepturile fundamentale ale persoanelor.
Amendamentul 69
Propunere de regulament
Considerentul 38
(38)  Acțiunile întreprinse de autoritățile de aplicare a legii care implică anumite utilizări ale sistemelor de IA sunt caracterizate de un grad semnificativ de dezechilibru de putere și pot duce la supravegherea, arestarea sau privarea de libertate a unei persoane fizice, precum și la alte efecte negative asupra drepturilor fundamentale garantate în Cartă. În special, în cazul în care în sistemul de IA nu se introduc date de înaltă calitate, în cazul în care acesta nu îndeplinește cerințele adecvate în ceea ce privește precizia sau robustețea sau nu este proiectat și testat în mod corespunzător înainte de a fi introdus pe piață sau pus în funcțiune în alt mod, acesta poate selecta persoanele într-un mod discriminatoriu sau incorect sau injust. În plus, exercitarea unor drepturi procedurale fundamentale importante, cum ar fi dreptul la o cale de atac eficientă și la un proces echitabil, precum și dreptul la apărare și prezumția de nevinovăție, ar putea fi împiedicată, în special, în cazul în care astfel de sisteme de IA nu sunt suficient de transparente, explicabile și documentate. Prin urmare, este oportun să se clasifice ca având un grad ridicat de risc o serie de sisteme de IA destinate a fi utilizate în contextul asigurării respectării legii, în care acuratețea, fiabilitatea și transparența sunt deosebit de importante pentru a evita efectele negative, pentru a păstra încrederea publicului și pentru a asigura asumarea răspunderii și căi de atac eficace. Având în vedere natura activităților în cauză și riscurile aferente, aceste sisteme de IA cu grad ridicat de risc ar trebui să includă, în special, sistemele de IA destinate a fi utilizate de autoritățile de aplicare a legii pentru evaluări individuale ale riscurilor, pentru poligrafe și instrumente similare, sau pentru detectarea stării emoționale a persoanelor fizice, pentru a detecta „deepfake-urile”, pentru a evalua fiabilitatea probelor în cadrul procedurilor penale, pentru a anticipa apariția sau repetarea unei infracțiuni reale sau potențiale pe baza stabilirii profilului criminalistic al persoanelor fizice sau pentru a evalua trăsăturile și caracteristicile de personalitate sau comportamentul infracțional anterior al unor persoane fizice sau al unor grupuri, pentru stabilirea de profiluri criminalistice în cursul depistării, al investigării sau al urmăririi penale a infracțiunilor, precum și pentru analiza infracționalității în ceea ce privește persoanele fizice. Sistemele de IA destinate în mod special utilizării în proceduri administrative de către autoritățile fiscale și vamale nu ar trebui să fie considerate sisteme de IA cu grad ridicat de risc utilizate de autoritățile de aplicare a legii în scopul prevenirii, depistării, investigării și urmăririi penale a infracțiunilor.
(38)  Acțiunile întreprinse de autoritățile de aplicare a legii care implică anumite utilizări ale sistemelor de IA sunt caracterizate de un grad semnificativ de dezechilibru de putere și pot duce la supravegherea, arestarea sau privarea de libertate a unei persoane fizice, precum și la alte efecte negative asupra drepturilor fundamentale garantate în Cartă. În special, în cazul în care în sistemul de IA nu se introduc date de înaltă calitate, în cazul în care acesta nu îndeplinește cerințele adecvate în ceea ce privește performanța, precizia sau robustețea sau nu este proiectat și testat în mod corespunzător înainte de a fi introdus pe piață sau pus în funcțiune în alt mod, acesta poate selecta persoanele într-un mod discriminatoriu sau incorect sau injust. În plus, exercitarea unor drepturi procedurale fundamentale importante, cum ar fi dreptul la o cale de atac eficientă și la un proces echitabil, precum și dreptul la apărare și prezumția de nevinovăție, ar putea fi împiedicată, în special, în cazul în care astfel de sisteme de IA nu sunt suficient de transparente, explicabile și documentate. Prin urmare, este oportun să se clasifice ca având un grad ridicat de risc o serie de sisteme de IA destinate a fi utilizate în contextul asigurării respectării legii, în care acuratețea, fiabilitatea și transparența sunt deosebit de importante pentru a evita efectele negative, pentru a păstra încrederea publicului și pentru a asigura asumarea răspunderii și căi de atac eficace. Având în vedere natura activităților în cauză și riscurile aferente, aceste sisteme de IA cu grad ridicat de risc ar trebui să includă, în special, sistemele de IA destinate a fi utilizate de autoritățile de aplicare a legii sau în numele acestora sau de agențiile, oficiile sau organismele Uniunii în sprijinul autorităților de aplicare a legii, în calitate de poligrafe și instrumente similare, în măsura în care utilizarea lor este permisă în temeiul dreptului aplicabil al Uniunii sau al dreptului intern, pentru a evalua fiabilitatea probelor în cadrul procedurilor penale, pentru stabilirea de profiluri criminalistice în cursul depistării, al investigării sau al urmăririi penale a infracțiunilor, precum și pentru analiza infracționalității în ceea ce privește persoanele fizice. Sistemele de IA destinate în mod special utilizării în proceduri administrative de către autoritățile fiscale și vamale nu ar trebui să fie clasificate drept sisteme de IA cu grad ridicat de risc utilizate de autoritățile de aplicare a legii în scopul prevenirii, depistării, investigării și urmăririi penale a infracțiunilor. Utilizarea de instrumente de IA de către autoritățile de aplicare a legii și autoritățile judiciare nu ar trebui să devină un factor de inegalitate, fragmentare socială sau excluziune. Impactul utilizării instrumentelor de IA asupra drepturilor la apărare ale suspecților nu ar trebui ignorat, în special dificultatea de a obține informații relevante despre funcționarea acestora și, în consecință, dificultatea de a contesta rezultatele lor în instanță, în special de către persoanele anchetate.
Amendamentul 70
Propunere de regulament
Considerentul 39
(39)  Sistemele de IA utilizate în gestionarea migrației, a azilului și a controlului la frontieră afectează persoane care se află adesea într-o poziție deosebit de vulnerabilă și care depind de rezultatul acțiunilor autorităților publice competente. Acuratețea, caracterul nediscriminatoriu și transparența sistemelor de IA utilizate în aceste contexte sunt, prin urmare, deosebit de importante pentru a garanta respectarea drepturilor fundamentale ale persoanelor afectate, în special a drepturilor acestora la liberă circulație, nediscriminare, protecția vieții private și a datelor cu caracter personal, protecția internațională și buna administrare. Prin urmare, este oportun să fie clasificate cu grad ridicat de risc sistemele de IA destinate a fi utilizate de autoritățile publice competente care au atribuții în domeniile migrației, azilului și gestionării controlului la frontiere ca poligrafe și instrumente similare sau pentru a detecta starea emoțională a unei persoane fizice, pentru a evalua anumite riscuri prezentate de persoanele fizice care intră pe teritoriul unui stat membru sau care solicită viză sau azil, pentru a verifica autenticitatea documentelor relevante ale persoanelor fizice și pentru a acorda asistență autorităților publice competente în ceea ce privește examinarea cererilor de azil, de vize și de permise de ședere și a plângerilor aferente cu privire la obiectivul de stabilire a eligibilității persoanelor fizice care solicită un statut. Sistemele de IA din domeniul migrației, azilului și gestionării controlului la frontiere reglementate de prezentul regulament ar trebui să respecte cerințele procedurale relevante stabilite de Directiva 2013/32/UE a Parlamentului European și a Consiliului49, de Regulamentul (CE) nr. 810/2009 al Parlamentului European și al Consiliului50 și de alte acte legislative relevante.
(39)  Sistemele de IA utilizate în gestionarea migrației, a azilului și a controlului la frontieră afectează persoane care se află adesea într-o poziție deosebit de vulnerabilă și care depind de rezultatul acțiunilor autorităților publice competente. Acuratețea, caracterul nediscriminatoriu și transparența sistemelor de IA utilizate în aceste contexte sunt, prin urmare, deosebit de importante pentru a garanta respectarea drepturilor fundamentale ale persoanelor afectate, în special a drepturilor acestora la liberă circulație, nediscriminare, protecția vieții private și a datelor cu caracter personal, protecția internațională și buna administrare. Prin urmare, este oportun să se clasifice drept sisteme de IA cu grad ridicat de risc destinate a fi utilizate de către autoritățile publice competente sau în numele acestora sau de către agențiile, oficiile sau organismele Uniunii însărcinate cu sarcini în domeniul migrației, azilului și gestionării controlului la frontiere ca poligrafe și instrumente similare, în măsura în care utilizarea acestora este permisă în temeiul dreptului relevant al Uniunii și al dreptului intern, pentru evaluarea anumitor riscuri prezentate de persoanele fizice care intră pe teritoriul unui stat membru sau care solicită viză sau azil; pentru a verifica autenticitatea documentelor relevante ale persoanelor fizice și pentru a acorda asistență autorităților publice competente în ceea ce privește examinarea și analiza veridicității probelor în privința cererilor de azil, de vize și de permise de ședere și a plângerilor aferente cu privire la obiectivul de stabilire a eligibilității persoanelor fizice care solicită un statut; pentru monitorizarea, supravegherea sau prelucrarea datelor cu caracter personal în contextul activităților de gestionare a frontierelor, în scopul detectării, recunoașterii sau identificării persoanelor fizice; pentru previzionarea sau prezicerea tendințelor legate de mișcările migratorii și de trecerea frontierei. Sistemele de IA din domeniul migrației, azilului și gestionării controlului la frontiere reglementate de prezentul regulament ar trebui să respecte cerințele procedurale relevante stabilite de Directiva 2013/32/UE a Parlamentului European și a Consiliului49, de Regulamentul (CE) nr. 810/2009 al Parlamentului European și al Consiliului50 și de alte acte legislative relevante. Sistemele de IA utilizate în gestionarea migrației, a azilului și a controlului la frontieră nu ar trebui în niciun caz să fie folosite de statele membre sau de instituțiile, agențiile sau organismele Uniunii Europene ca mijloc de eludare a obligațiilor lor internaționale în temeiul Convenției din 28 iulie 1951 privind statutul refugiaților, astfel cum a fost modificată prin Protocolul din 31 ianuarie 1967, și nici nu ar trebui să fie folosite pentru a încălca în niciun mod principiul nereturnării sau pentru a refuza căile legale de migrație, sigure și efective, pentru intrarea pe teritoriul Uniunii și nici dreptul la protecție internațională.
__________________
__________________
49 Directiva 2013/32/UE a Parlamentului European și a Consiliului din 26 iunie 2013 privind procedurile comune de acordare și retragere a protecției internaționale (JO L 180, 29.6.2013, p. 60).
49 Directiva 2013/32/UE a Parlamentului European și a Consiliului din 26 iunie 2013 privind procedurile comune de acordare și retragere a protecției internaționale (JO L 180, 29.6.2013, p. 60).
50 Regulamentul (CE) nr. 810/2009 al Parlamentului European și al Consiliului din 13 iulie 2009 privind instituirea unui Cod comunitar de vize (Codul de vize) (JO L 243, 15.9.2009, p. 1).
50 Regulamentul (CE) nr. 810/2009 al Parlamentului European și al Consiliului din 13 iulie 2009 privind instituirea unui Cod comunitar de vize (Codul de vize) (JO L 243, 15.9.2009, p. 1).
Amendamentul 71
Propunere de regulament
Considerentul 40
(40)  Anumite sisteme de IA destinate administrării justiției și proceselor democratice ar trebui clasificate ca având un grad ridicat de risc, având în vedere impactul potențial semnificativ al acestora asupra democrației, statului de drept și libertăților individuale, precum și asupra dreptului la o cale de atac eficientă și la un proces echitabil. În special, pentru a aborda potențialele riscuri de părtinire, erori și opacitate, este oportun să fie calificate drept sisteme cu grad ridicat de risc sistemele de IA menite să ajute autoritățile judiciare să cerceteze și să interpreteze faptele și legea și să aplice legea unui set concret de fapte. Cu toate acestea, o astfel de calificare nu ar trebui să se extindă la sistemele de IA destinate unor activități administrative pur auxiliare care nu afectează administrarea efectivă a justiției în cazuri individuale, cum ar fi anonimizarea sau pseudonimizarea hotărârilor judecătorești, a documentelor sau a datelor, comunicarea între membrii personalului, sarcinile administrative sau alocarea resurselor.
(40)  Anumite sisteme de IA destinate administrării justiției și proceselor democratice ar trebui clasificate ca având un grad ridicat de risc, având în vedere impactul potențial semnificativ al acestora asupra democrației, statului de drept și libertăților individuale, precum și asupra dreptului la o cale de atac eficientă și la un proces echitabil. În special, pentru a aborda potențialele riscuri de părtinire, erori și opacitate, este oportun să fie calificate drept sisteme cu grad ridicat de risc sistemele de IA menite să fie utilizate de o autoritate judiciară sau de un organ administrativ sau în numele acestora pentru a ajuta autoritățile judiciare sau organele administrative să cerceteze și să interpreteze faptele și legea și să aplice legea unui set concret de fapte, sau utilizate într-un mod similar în soluționarea alternativă a litigiilor. Utilizarea instrumentelor de inteligență artificială poate sprijini, dar nu ar trebui să înlocuiască puterea decizională a judecătorilor sau independența sistemului judiciar, întrucât procesul decizional final trebuie să rămână o activitate și o decizie umană. Cu toate acestea, o astfel de calificare nu ar trebui să se extindă la sistemele de IA destinate unor activități administrative pur auxiliare care nu afectează administrarea efectivă a justiției în cazuri individuale, cum ar fi anonimizarea sau pseudonimizarea hotărârilor judecătorești, a documentelor sau a datelor, comunicarea între membrii personalului, sarcinile administrative sau alocarea resurselor.
Amendamentul 72
Propunere de regulament
Considerentul 40 a (nou)
(40a)  Pentru a aborda riscurile de ingerințe externe nejustificate în dreptul de vot consacrat la articolul 39 din cartă și de efecte disproporționate asupra proceselor democratice, a democrației și a statului de drept, sistemele de IA destinate a fi utilizate pentru a influența rezultatul unor alegeri sau al unui referendum sau comportamentul de vot al persoanelor fizice în exercitarea votului lor în cadrul alegerilor sau al referendumurilor ar trebui clasificate drept sisteme de IA cu grad ridicat de risc, cu excepția sistemelor de IA la ale căror rezultate persoanele fizice nu sunt expuse în mod direct, cum ar fi instrumentele utilizate pentru organizarea, optimizarea și structurarea campaniilor politice din punct de vedere administrativ și logistic.
Amendamentul 73
Propunere de regulament
Considerentul 40 b (nou)
(40b)  Având în vedere proporția persoanelor fizice care utilizează serviciile furnizate de platformele de comunicare socială desemnate drept platforme online foarte mari, astfel de platforme online pot fi utilizate într-un mod care influențează puternic siguranța online, formarea opiniei și a discursului public, procesele electorale și democratice și preocupările societale. Prin urmare, este oportun ca sistemele de IA utilizate de platformele online respective în sistemele lor de recomandare să facă obiectul prezentului regulament, astfel încât să se asigure că sistemele de IA respectă cerințele prevăzute în prezentul regulament, inclusiv cerințele tehnice privind guvernanța datelor, documentația tehnică și trasabilitatea, transparența, supravegherea umană, acuratețea și robustețea. Respectarea prezentului regulament ar trebui să permită acestor platforme online foarte mari să își respecte obligațiile mai extinse de evaluare a riscurilor și de atenuare a riscurilor prevăzute la articolul 34 și 35 din Regulamentul (UE) 2022/2065. Obligațiile prevăzute în prezentul regulament nu aduc atingere Regulamentului (UE) 2022/2065 și ar trebui să completeze obligațiile impuse în temeiul Regulamentului (UE) 2022/2065 atunci când platforma de comunicare socială a fost desemnată drept platformă online foarte mare. Având în vedere impactul la nivel european al platformelor de comunicare socială desemnate drept platforme online foarte mari, autoritățile desemnate în temeiul Regulamentului (UE) 2022/2065 ar trebui să acționeze ca autorități de aplicare a legii cu scopul de a asigura respectarea acestei dispoziții.
Amendamentul 74
Propunere de regulament
Considerentul 41
(41)  Faptul că un sistem de IA este clasificat ca prezentând un risc ridicat în temeiul prezentului regulament nu ar trebui interpretat ca indicând faptul că utilizarea sistemului este neapărat legală în temeiul altor acte ale dreptului Uniunii sau al dreptului intern compatibil cu dreptul Uniunii, cum ar fi în ceea ce privește protecția datelor cu caracter personal, utilizarea poligrafelor și a instrumentelor similare sau a altor sisteme pentru a detecta starea emoțională a persoanelor fizice. Orice astfel de utilizare ar trebui să continue să aibă loc numai în conformitate cu cerințele aplicabile care decurg din Cartă, precum și din legislația secundară a Uniunii și din dreptul intern aplicabil. Prezentul regulament nu ar trebui înțeles ca oferind temeiul juridic pentru prelucrarea datelor cu caracter personal, inclusiv a categoriilor speciale de date cu caracter personal, după caz.
(41)  Faptul că un sistem de IA este clasificat ca sistem de IA care prezintă un risc ridicat în temeiul prezentului regulament nu ar trebui interpretat ca indicând faptul că utilizarea sistemului este neapărat legală sau ilegală în temeiul altor acte ale dreptului Uniunii sau al dreptului intern compatibil cu dreptul Uniunii. Orice astfel de utilizare ar trebui să continue să aibă loc numai în conformitate cu cerințele aplicabile care decurg din Cartă, precum și din legislația secundară a Uniunii și din dreptul intern aplicabil.
Amendamentul 75
Propunere de regulament
Considerentul 41 a (nou)
(41a)  O serie de norme obligatorii din punct de vedere juridic la nivel european, național și internațional se aplică deja sau sunt relevante pentru sistemele de IA în prezent, inclusiv dreptul primar al Uniunii (Tratatele Uniunii Europene și Carta drepturilor fundamentale a UE), dreptul secundar al UE (cum ar fi Regulamentul general privind protecția datelor, Directiva privind răspunderea pentru produse, Regulamentul privind libera circulație a datelor fără caracter personal, directivele privind combaterea discriminării, directivele privind protecția consumatorilor și securitatea și sănătatea în muncă), tratatele ONU privind drepturile omului și convențiile Consiliului Europei (cum ar fi Convenția europeană a drepturilor omului) și dreptul național, dar fără a se limita la acestea. Pe lângă normele aplicabile orizontal, există diverse norme specifice domeniului care se aplică anumitor aplicații de IA (cum ar fi, de exemplu, Regulamentul privind dispozitivele medicale în sectorul asistenței medicale).
Amendamentul 76
Propunere de regulament
Considerentul 42
(42)  Pentru atenuarea riscurilor generate de sistemele de IA cu grad ridicat de risc introduse sau puse în funcțiune în alt mod pe piața Uniunii pentru utilizatori și persoanele afectate, ar trebui să se aplice anumite cerințe obligatorii, ținând seama de scopul preconizat al utilizării sistemului și în conformitate cu sistemul de gestionare a riscurilor care urmează să fie instituit de furnizor.
(42)  Pentru atenuarea riscurilor generate de sistemele de IA cu grad ridicat de risc introduse sau puse în funcțiune în alt mod pe piața Uniunii pentru operatori și persoanele afectate, ar trebui să se aplice anumite cerințe obligatorii, ținând seama de scopul preconizat, de utilizarea abuzivă previzibilă în mod rezonabil a sistemului și în conformitate cu sistemul de gestionare a riscurilor care urmează să fie instituit de furnizor. Aceste cerințe ar trebui să fie bazate pe obiective, adecvate scopului urmărit, rezonabile și eficace, fără să adauge sarcini de reglementare sau costuri nejustificate pentru operatori.
Amendamentul 77
Propunere de regulament
Considerentul 43
(43)  Cerințele ar trebui să se aplice sistemelor de IA cu grad ridicat de risc în ceea ce privește calitatea seturilor de date utilizate, documentația tehnică și păstrarea evidențelor, transparența și furnizarea de informații către utilizatori, supravegherea umană, robustețea, acuratețea și securitatea cibernetică. Aceste cerințe sunt necesare pentru a atenua în mod eficace riscurile pentru sănătate, siguranță și drepturile fundamentale, după caz, în funcție de scopul preconizat al sistemului, și nefiind disponibile în mod rezonabil alte măsuri mai puțin restrictive privind comerțul, se evită astfel restricțiile nejustificate în calea comerțului.
(43)  Cerințele ar trebui să se aplice sistemelor de IA cu grad ridicat de risc în ceea ce privește calitatea și relevanța seturilor de date utilizate, documentația tehnică și păstrarea evidențelor, transparența și furnizarea de informații către operatori, supravegherea umană, robustețea, acuratețea și securitatea. Aceste cerințe sunt necesare pentru a atenua în mod eficace riscurile pentru sănătate, siguranță și drepturile fundamentale, precum și pentru mediu, democrație și statul de drept, după caz, în funcție de scopul preconizat sau de utilizarea abuzivă previzibilă în mod rezonabil a sistemului, și nefiind disponibile în mod rezonabil alte măsuri mai puțin restrictive privind comerțul, se evită astfel restricțiile nejustificate în calea comerțului.
Amendamentul 78
Propunere de regulament
Considerentul 44
(44)  Calitatea ridicată a datelor este esențială pentru performanța multor sisteme de IA, în special atunci când se utilizează tehnici care implică formarea de modele, pentru a se asigura că sistemul de IA cu grad ridicat de risc funcționează astfel cum s-a prevăzut și în condiții de siguranță și nu devine sursa discriminării, interzisă de dreptul Uniunii. Seturile de date de înaltă calitate de antrenament, de validare și de testare necesită punerea în aplicare a unor practici adecvate de guvernanță și gestionare a datelor. Seturile de date de antrenament, de validare și de testare ar trebui să fie suficient de relevante, reprezentative și lipsite de erori și complete având în vedere scopul preconizat al sistemului. Acestea ar trebui să aibă, de asemenea, proprietățile statistice adecvate, inclusiv în ceea ce privește persoanele sau grupurile de persoane în legătură cu care se intenționează să fie utilizat sistemul de IA cu grad ridicat de risc. În special, seturile de date de antrenament, de validare și de testare ar trebui să țină seama, în măsura în care acest lucru este necesar având în vedere scopul preconizat, de particularitățile, caracteristicile sau elementele care sunt specifice cadrului sau contextului geografic, comportamental sau funcțional specific în care este destinat să fie utilizat sistemul de IA. Pentru a proteja dreptul altora împotriva discriminării care ar putea rezulta din părtinirea generată de sistemele de IA, furnizorii ar trebui să aibă posibilitatea de a prelucra și categorii speciale de date cu caracter personal, ca o chestiune de interes public major, pentru a asigura monitorizarea, detectarea și corectarea părtinirii în ceea ce privește sistemele de IA cu grad ridicat de risc.
(44)  Accesul la date de înaltă calitate joacă un rol esențial pentru furnizarea structurii și asigurarea performanței multor sisteme de IA, în special atunci când se utilizează tehnici care implică formarea de modele, pentru a se asigura că sistemul de IA cu grad ridicat de risc funcționează astfel cum s-a prevăzut și în condiții de siguranță și nu devine o sursă a discriminării, interzisă de dreptul Uniunii. Seturile de date de înaltă calitate de antrenament, de validare și de testare necesită punerea în aplicare a unor practici adecvate de guvernanță și gestionare a datelor. Seturile de date de antrenament și, după caz, de validare și de testare, inclusiv etichetele, ar trebui să fie suficient de relevante, reprezentative, verificate în mod corespunzător în ceea ce privește erorile și cât mai exhaustive având în vedere scopul preconizat al sistemului. Acestea ar trebui să aibă, de asemenea, proprietățile statistice adecvate, inclusiv în ceea ce privește persoanele sau grupurile de persoane în legătură cu care se intenționează să fie utilizat sistemul de IA cu grad ridicat de risc, acordând o atenție deosebită atenuării posibilelor părtiniri din seturile de date, care ar putea conduce la riscuri pentru drepturile fundamentale sau la rezultate discriminatorii pentru persoanele afectate de sistemul de IA cu grad ridicat de risc. Părtinirile pot fi, de exemplu, inerente seturilor de date subiacente, mai ales când sunt utilizate date istorice, introduse de dezvoltatorii de algoritmi sau generate în timpul punerii în aplicare în condiții reale a sistemelor. Rezultatele produse de sistemele de IA sunt influențate de aceste părtiniri inerente care tind să crească treptat și astfel să perpetueze și să amplifice discriminarea existentă, în special pentru persoanele care aparțin anumitor grupuri vulnerabile sau etnice sau comunități rasializate. În special, seturile de date de antrenament, de validare și de testare ar trebui să țină seama, în măsura în care acest lucru este necesar având în vedere scopul preconizat, de particularitățile, caracteristicile sau elementele care sunt specifice cadrului sau contextului geografic, comportamental sau funcțional specific în care este destinat să fie utilizat sistemul de IA. Pentru a proteja dreptul altora împotriva discriminării care ar putea rezulta din părtinirea generată de sistemele de IA, furnizorii ar trebui, în mod excepțional și după aplicarea tuturor condițiilor aplicabile prevăzute în prezentul regulament și în Regulamentul (UE) 2016/679, în Directiva (UE) 2016/680 și în Regulamentul (CE) nr. 2018/1725, să aibă posibilitatea de a prelucra și categorii speciale de date cu caracter personal, ca o chestiune de interes public major, pentru a asigura monitorizarea, detectarea și corectarea părtinirii negative în ceea ce privește sistemele de IA cu grad ridicat de risc. Părtinirea negativă ar trebui înțeleasă ca părtinire care creează un efect discriminatoriu direct sau indirect împotriva unei persoane fizice. Cerințele legate de guvernanța datelor pot fi respectate prin recurgerea la părți terțe care oferă servicii de conformitate certificate, inclusiv verificarea guvernanței datelor, integritatea seturilor de date și practicile de antrenament, validare și testare a datelor.
Amendamentul 79
Propunere de regulament
Considerentul 45
(45)  Pentru dezvoltarea sistemelor de IA cu grad ridicat de risc, anumiți actori, cum ar fi furnizorii, organismele notificate și alte entități relevante, cum ar fi centrele de inovare digitală, instalațiile de testare experimentate și cercetătorii, ar trebui să poată accesa și utiliza seturi de date de înaltă calitate în domeniile lor de activitate respective care sunt legate de prezentul regulament. Spațiile europene comune ale datelor instituite de Comisie și facilitarea schimbului de date între întreprinderi și cu administrațiile publice în interes public vor fi esențiale pentru a oferi un acces de încredere, responsabil și nediscriminatoriu la date de înaltă calitate pentru antrenarea, validarea și testarea sistemelor de IA. De exemplu, în domeniul sănătății, spațiul european al datelor medicale va facilita accesul nediscriminatoriu la datele medicale și antrenarea algoritmilor inteligenței artificiale cu privire la aceste seturi de date, într-un mod care protejează viața privată, sigur, prompt, transparent și fiabil și cu o guvernanță instituțională adecvată. Autoritățile competente relevante, inclusiv cele sectoriale, care furnizează sau sprijină accesul la date pot sprijini, de asemenea, furnizarea de date de înaltă calitate pentru antrenarea, validarea și testarea sistemelor de IA.
(45)  Pentru dezvoltarea și evaluarea sistemelor de IA cu grad ridicat de risc, anumiți actori, cum ar fi furnizorii, organismele notificate și alte entități relevante, cum ar fi centrele de inovare digitală, instalațiile de testare experimentate și cercetătorii, ar trebui să poată accesa și utiliza seturi de date de înaltă calitate în domeniile lor de activitate respective care sunt legate de prezentul regulament. Spațiile europene comune ale datelor instituite de Comisie și facilitarea schimbului de date între întreprinderi și cu administrațiile publice în interes public vor fi esențiale pentru a oferi un acces de încredere, responsabil și nediscriminatoriu la date de înaltă calitate pentru antrenarea, validarea și testarea sistemelor de IA. De exemplu, în domeniul sănătății, spațiul european al datelor medicale va facilita accesul nediscriminatoriu la datele medicale și antrenarea algoritmilor inteligenței artificiale cu privire la aceste seturi de date, într-un mod care protejează viața privată, sigur, prompt, transparent și fiabil și cu o guvernanță instituțională adecvată. Autoritățile competente relevante, inclusiv cele sectoriale, care furnizează sau sprijină accesul la date pot sprijini, de asemenea, furnizarea de date de înaltă calitate pentru antrenarea, validarea și testarea sistemelor de IA.
Amendamentul 80
Propunere de regulament
Considerentul 45 a (nou)
(45a)  Dreptul la viața privată și la protecția datelor cu caracter personal trebuie să fie garantat pe parcursul întregului ciclu de viață al sistemului de IA. În acest sens, principiile reducerii la minimum a datelor și protecției datelor începând cu momentul conceperii și implicit, principii prevăzute de legislația Uniunii privind protecția datelor, sunt de importanță fundamentală atunci când prelucrarea datelor se face cu riscuri semnificative pentru drepturile fundamentale ale persoanelor fizice. Furnizorii și utilizatorii de sisteme de IA ar trebui să aplice cele mai noi măsuri tehnice și organizatorice pentru a proteja aceste drepturi. Printre aceste măsuri ar trebui să se numere nu numai anonimizarea și criptarea, ci și folosirea unei tehnologii tot mai disponibile care permite să se aplice algoritmi datelor și să se obțină informații valoroase fără ca aceste date să fie transmise între părți și fără ca înseși datele primare sau datele structurate să fie copiate inutil.
Amendamentul 81
Propunere de regulament
Considerentul 46
(46)  Deținerea de informații cu privire la modul în care au fost dezvoltate sistemele de IA cu grad ridicat de risc și la modul în care acestea funcționează pe parcursul întregului lor ciclu de viață este esențială pentru verificarea conformității cu cerințele prevăzute în prezentul regulament. Acest lucru presupune păstrarea evidențelor și disponibilitatea unei documentații tehnice care să conțină informațiile necesare pentru a evalua conformitatea sistemului de IA cu cerințele relevante. Aceste informații ar trebui să includă caracteristicile generale, capacitățile și limitările sistemului, algoritmii, datele, procesele de antrenare, testare și validare utilizate, precum și documentația privind sistemul relevant de gestionare a riscurilor. Documentația tehnică ar trebui actualizată permanent.
(46)  Deținerea de informații cuprinzătoare cu privire la modul în care au fost dezvoltate sistemele de IA cu grad ridicat de risc și la modul în care acestea funcționează pe parcursul întregii lor durate de viață este esențială pentru verificarea conformității cu cerințele prevăzute în prezentul regulament. Acest lucru presupune păstrarea evidențelor și disponibilitatea unei documentații tehnice care să conțină informațiile necesare pentru a evalua conformitatea sistemului de IA cu cerințele relevante. Aceste informații ar trebui să includă caracteristicile generale, capacitățile și limitările sistemului, algoritmii, datele, procesele de antrenare, testare și validare utilizate, precum și documentația privind sistemul relevant de gestionare a riscurilor. Documentația tehnică ar trebui actualizată în mod adecvat pe parcursul întregului ciclu de viață al sistemului de IA. Sistemele de IA pot avea un impact considerabil asupra mediului și un consum ridicat de energie în timpul ciclului lor de viață. Pentru a înțelege mai bine impactul sistemelor de IA asupra mediului, documentația tehnică elaborată de furnizori ar trebui să includă informații privind consumul de energie al sistemului de IA, inclusiv consumul în timpul dezvoltării și consumul preconizat în timpul utilizării. Aceste informații ar trebui să țină seama de legislația relevantă a Uniunii și de cea națională. Informațiile comunicate ar trebui să fie inteligibile, comparabile și verificabile și, în acest scop, Comisia ar trebui să elaboreze orientări privind o metodologie armonizată pentru calcularea și raportarea acestor informații. Pentru a garanta posibilitatea de a stabili o documentație unică, termenii și definițiile legate de documentația necesară și de orice documentație impusă de legislația Uniunii în domeniu ar trebui aliniate cât mai mult posibil.
Amendamentul 82
Propunere de regulament
Considerentul 46 a (nou)
(46a)  Sistemele de IA ar trebui să ia în considerare metodele de ultimă generație și standardele relevante aplicabile pentru a reduce consumul de energie și de resurse și deșeurile, precum și pentru a crește eficiența energetică și eficiența globală a sistemului. Aspectele de mediu ale sistemelor de IA care sunt semnificative în sensul prezentului regulament sunt consumul de energie al sistemului de IA în faza de dezvoltare, formare și implementare, precum și înregistrarea, raportarea și stocarea acestor date. Proiectarea sistemelor de IA ar trebui să permită măsurarea și înregistrarea consumului de energie și de resurse în fiecare etapă de dezvoltare, de antrenare și de implementare. Monitorizarea și raportarea emisiilor sistemelor de IA trebuie să fie solide, transparente, coerente și exacte. Cu scopul de a asigura aplicarea uniformă a prezentului regulament și un ecosistem juridic stabil pentru furnizorii și operatorii de pe piața unică, Comisia ar trebui să elaboreze o specificație comună privind metodologia de îndeplinire a cerinței de raportare și documentare privind consumul de energie și de resurse în timpul dezvoltării, antrenării și implementării. Aceste specificații comune privind metodologia de măsurare pot dezvolta un scenariu de referință pe baza căruia Comisia poate decide mai bine dacă sunt necesare intervenții de reglementare viitoare, după efectuarea unei evaluări a impactului care să țină seama de legislația existentă.
Amendamentul 83
Propunere de regulament
Considerentul 46 b (nou)
(46b)  Pentru a atinge obiectivele prezentului regulament și a contribui la obiectivele de mediu ale Uniunii, asigurând în același timp buna funcționare a pieței interne, ar putea fi necesar să se stabilească recomandări și orientări și, în cele din urmă, obiective în materie de durabilitate. În acest scop, Comisia are dreptul de a elabora o metodologie pentru a contribui la stabilirea indicatorilor-cheie de performanță (ICP) și a unei referințe pentru obiectivele de dezvoltare durabilă (ODD). Obiectivul ar trebui să fie, în primul rând, acela de a permite o comparație echitabilă între opțiunile de punere în aplicare a IA, stimulând promovarea utilizării unor tehnologii de IA mai eficace care să răspundă preocupărilor legate de energie și de resurse. Pentru a îndeplini acest obiectiv, prezentul regulament ar trebui să prevadă mijloacele pentru a stabili o colectare de referință a datelor raportate privind emisiile generate de dezvoltare, de antrenare și de implementare.
Amendamentul 84
Propunere de regulament
Considerentul 47 a (nou)
(47a)  Astfel de cerințe privind transparența și posibilitatea de a explica procesul decizional bazat pe IA ar trebui să contribuie și la contracararea efectelor descurajatoare ale asimetriei digitale și ale așa-numitelor interfețe înșelătoare („dark patterns”) care vizează indivizii și consimțământul în cunoștință de cauză al acestora.
Amendamentul 85
Propunere de regulament
Considerentul 49
(49)  Sistemele de IA cu grad ridicat de risc ar trebui să funcționeze în mod consecvent pe parcursul întregului lor ciclu de viață și să atingă un nivel adecvat de acuratețe, robustețe și securitate cibernetică, în conformitate cu stadiul actual al tehnologiei general recunoscut. Nivelul de acuratețe și de precizie ar trebui comunicat utilizatorilor.
(49)  Sistemele de IA cu grad ridicat de risc ar trebui să funcționeze în mod consecvent pe parcursul întregului lor ciclu de viață și să atingă un nivel adecvat de acuratețe, robustețe și securitate cibernetică, în conformitate cu stadiul actual al tehnologiei general recunoscut. Indicatorii de performanță și nivelul preconizat al acestora ar trebui definiți cu obiectivul principal de a atenua riscurile și impactul negativ al sistemului de IA. Nivelul preconizat al indicatorilor de performanță ar trebui comunicat operatorilor într-un mod clar, transparent, ușor de înțeles și inteligibil. Declarația privind indicatorii de performanță nu poate fi considerată o dovadă a nivelurilor viitoare, dar trebuie aplicate metode pertinente pentru a asigura niveluri coerente în timpul utilizării. Deși există organisme de standardizare care stabilesc standarde, este necesară o coordonare privind analiza comparativă pentru a stabili în ce mod ar trebui măsurate aceste cerințe și caracteristici standardizate ale sistemelor de IA. Oficiul european pentru inteligența artificială ar trebui să reunească autoritățile naționale și internaționale din domeniul metrologiei și al analizei comparative și să ofere orientări fără caracter obligatoriu pentru a aborda aspectele tehnice ale modului de măsurare a nivelurilor adecvate de performanță și robustețe.
Amendamentul 86
Propunere de regulament
Considerentul 50
(50)  Robustețea tehnică este o cerință esențială pentru sistemele de IA cu grad ridicat de risc. Acestea ar trebui să fie rezistente la riscurile legate de limitările sistemului (de exemplu, erori, defecțiuni, inconsecvențe, situații neprevăzute), precum și la acțiunile răuvoitoare care pot compromite securitatea sistemului de IA și pot avea ca rezultat un comportament dăunător sau nedorit în alt mod. Incapacitatea de a asigura protecția împotriva acestor riscuri ar putea avea un impact asupra siguranței sau ar putea afecta în mod negativ drepturile fundamentale, de exemplu din cauza unor decizii eronate sau a unor rezultate greșite sau subiective generate de sistemul de IA.
(50)  Robustețea tehnică este o cerință esențială pentru sistemele de IA cu grad ridicat de risc. Acestea ar trebui să fie rezistente la riscurile legate de limitările sistemului (de exemplu, erori, defecțiuni, inconsecvențe, situații neprevăzute), precum și la acțiunile răuvoitoare care pot compromite securitatea sistemului de IA și pot avea ca rezultat un comportament dăunător sau nedorit în alt mod. Incapacitatea de a asigura protecția împotriva acestor riscuri ar putea avea un impact asupra siguranței sau ar putea afecta în mod negativ drepturile fundamentale, de exemplu din cauza unor decizii eronate sau a unor rezultate greșite sau subiective generate de sistemul de IA. Utilizatorii sistemului de IA ar trebui să ia măsuri pentru a se asigura că posibilul compromis între robustețe și acuratețe nu conduce la rezultate discriminatorii sau negative pentru subgrupurile minoritare.
Amendamentul 87
Propunere de regulament
Considerentul 51
(51)  Securitatea cibernetică joacă un rol esențial în asigurarea rezilienței sistemelor de IA împotriva încercărilor de modificare a utilizării, a comportamentului, a performanței sau de compromitere a proprietăților lor de securitate de către părți terțe răuvoitoare care exploatează vulnerabilitățile sistemului. Atacurile cibernetice împotriva sistemelor de IA pot mobiliza active specifice de IA, cum ar fi seturi de date de antrenament (de exemplu, „data poisoning”) sau modele antrenate (de exemplu, atacuri contradictorii), sau pot exploata vulnerabilitățile activelor digitale ale sistemului de IA sau ale infrastructurii TIC subiacente. Pentru a asigura un nivel de securitate cibernetică adecvat riscurilor, furnizorii de sisteme de IA cu grad ridicat de risc ar trebui, prin urmare, să ia măsuri adecvate, ținând seama, de asemenea, după caz, de infrastructura TIC subiacentă.
(51)  Securitatea cibernetică joacă un rol esențial în asigurarea rezilienței sistemelor de IA împotriva încercărilor de modificare a utilizării, a comportamentului, a performanței sau de compromitere a proprietăților lor de securitate de către părți terțe răuvoitoare care exploatează vulnerabilitățile sistemului. Atacurile cibernetice împotriva sistemelor de IA pot mobiliza active specifice de IA, cum ar fi seturi de date de antrenament (de exemplu, „data poisoning”) sau modele antrenate (de exemplu, atacuri contradictorii sau atacuri la adresa confidențialității), sau pot exploata vulnerabilitățile activelor digitale ale sistemului de IA sau ale infrastructurii TIC subiacente. Pentru a asigura un nivel de securitate cibernetică adecvat riscurilor, furnizorii de sisteme de IA cu grad ridicat de risc, precum și organismele notificate, autoritățile naționale competente și autoritățile de supraveghere a pieței ar trebui, prin urmare, să ia măsuri adecvate, ținând seama, de asemenea, după caz, de infrastructura TIC subiacentă. IA cu grad ridicat de risc ar trebui să fie însoțită de soluții de securitate și de corecții software pe toată durata de viață a produsului sau, dacă nu există o dependență de un produs specific, pentru o perioadă care trebuie specificată de producător.
Amendamentul 88
Propunere de regulament
Considerentul 53 a (nou)
(53a)  În calitate de semnatare ale Convenției Națiunilor Unite privind drepturile persoanelor cu handicap (UNCRPD), Uniunea și statele membre au obligația juridică să protejeze persoanele cu dizabilități împotriva discriminării și să promoveze egalitatea acestora, să se asigure că persoanele cu dizabilități au acces, în condiții de egalitate cu ceilalți, la tehnologiile și sistemele informației și comunicațiilor și să garanteze respectarea vieții private a persoanelor cu dizabilități. Având în vedere importanța și utilizarea în creștere a sistemelor de IA, aplicarea principiilor proiectării universale la toate noile tehnologii și servicii ar trebui să asigure accesul deplin, egal și nerestricționat al tuturor persoanelor potențial afectate de tehnologiile IA sau care utilizează aceste tehnologii, inclusiv al persoanelor cu dizabilități, într-un mod care să țină seama pe deplin de demnitatea și diversitatea lor inerentă. Prin urmare, este esențial ca furnizorii să asigure conformitatea deplină cu cerințele de accesibilitate, inclusiv cu Directiva (UE) 2016/2102 și cu Directiva (UE) 2019/882. Furnizorii ar trebui să asigure conformitatea cu aceste cerințe din faza de proiectare. Prin urmare, măsurile necesare ar trebui integrate cât mai mult posibil în proiectarea sistemului de IA cu grad ridicat de risc.
Amendamentul 89
Propunere de regulament
Considerentul 54
(54)  Furnizorul ar trebui să instituie un sistem solid de management al calității, să asigure realizarea procedurii necesare de evaluare a conformității, să întocmească documentația relevantă și să instituie un sistem solid de monitorizare după introducerea pe piață. Autoritățile publice care pun în funcțiune sisteme de IA cu grad ridicat de risc pentru uzul propriu pot adopta și pune în aplicare norme privind sistemul de management al calității ca parte a sistemului de management al calității adoptat la nivel național sau regional, după caz, ținând seama de particularitățile sectorului și de competențele și organizarea autorității publice în cauză.
(54)  Furnizorul ar trebui să instituie un sistem solid de management al calității, să asigure realizarea procedurii necesare de evaluare a conformității, să întocmească documentația relevantă și să instituie un sistem solid de monitorizare după introducerea pe piață. Pentru furnizorii care dispun deja de sisteme de management al calității bazate pe standarde precum ISO 9001 sau pe alte standarde relevante, nu ar trebui să se prevadă o duplicare completă a sistemului de management al calității, ci, mai degrabă, o adaptare a sistemelor lor existente la anumite aspecte legate de respectarea cerințelor specifice ale prezentului regulament. Acest lucru ar trebui să se reflecte, de asemenea, în viitoarele activități de standardizare sau în orientările adoptate de Comisie în acest sens. Autoritățile publice care pun în funcțiune sisteme de IA cu grad ridicat de risc pentru uzul propriu pot adopta și pune în aplicare norme privind sistemul de management al calității ca parte a sistemului de management al calității adoptat la nivel național sau regional, după caz, ținând seama de particularitățile sectorului și de competențele și organizarea autorității publice în cauză.
Amendamentul 90
Propunere de regulament
Considerentul 56
(56)  Pentru a permite asigurarea respectării prezentului regulament și a crea condiții de concurență echitabile pentru operatori și ținând seama de diferitele forme de punere la dispoziție a produselor digitale, este important să se asigure că, în toate circumstanțele, o persoană stabilită în Uniune poate furniza autorităților toate informațiile necesare cu privire la conformitatea unui sistem de IA. Prin urmare, înainte de a-și pune la dispoziție sistemele de IA în Uniune, în cazul în care un importator nu poate fi identificat, furnizorii stabiliți în afara Uniunii desemnează, prin mandat scris, un reprezentant autorizat stabilit în Uniune.
(56)  Pentru a permite asigurarea respectării prezentului regulament și a crea condiții de concurență echitabile pentru operatori și ținând seama de diferitele forme de punere la dispoziție a produselor digitale, este important să se asigure că, în toate circumstanțele, o persoană stabilită în Uniune poate furniza autorităților toate informațiile necesare cu privire la conformitatea unui sistem de IA. Prin urmare, înainte de a-și pune la dispoziție sistemele de IA în Uniune, furnizorii stabiliți în afara Uniunii desemnează, prin mandat scris, un reprezentant autorizat stabilit în Uniune.
Amendamentul 91
Propunere de regulament
Considerentul 58
(58)  Având în vedere natura sistemelor de IA și riscurile la adresa siguranței și a drepturilor fundamentale care pot fi asociate cu utilizarea lor, inclusiv în ceea ce privește necesitatea de a asigura o monitorizare adecvată a performanței unui sistem de IA într-un context real, este oportun să se stabilească responsabilități specifice pentru utilizatori. Utilizatorii ar trebui, în special, să utilizeze sisteme de IA cu grad ridicat de risc în conformitate cu instrucțiunile de utilizare și ar trebui prevăzute alte obligații în ceea ce privește monitorizarea funcționării sistemelor de IA și păstrarea evidențelor, după caz.
(58)  Având în vedere natura sistemelor de IA și riscurile la adresa siguranței și a drepturilor fundamentale care pot fi asociate cu utilizarea lor, inclusiv în ceea ce privește necesitatea de a asigura o monitorizare adecvată a performanței unui sistem de IA într-un context real, este oportun să se stabilească responsabilități specifice pentru operatori. Operatorii ar trebui, în special, să utilizeze sisteme de IA cu grad ridicat de risc în conformitate cu instrucțiunile de utilizare și ar trebui prevăzute alte obligații în ceea ce privește monitorizarea funcționării sistemelor de IA și păstrarea evidențelor, după caz.
Amendamentul 92
Propunere de regulament
Considerentul 58 a (nou)
(58a)  Deși riscurile legate de sistemele de IA pot rezulta din modul în care sunt proiectate sistemele respective, pot decurge riscuri și din modul în care aceste sisteme de IA sunt utilizate. Prin urmare, operatorii sistemelor de IA cu grad ridicat de risc joacă un rol esențial în a garanta că drepturile fundamentale sunt protejate, completând obligațiile furnizorului la dezvoltarea sistemului de IA. Operatorii sunt cei mai în măsură să înțeleagă modul în care sistemul de IA cu grad ridicat de risc va fi utilizat concret și, prin urmare, pot identifica potențialele riscuri semnificative care nu au fost prevăzute în faza de dezvoltare, datorită cunoașterii mai exacte a contextului de utilizare, a persoanelor sau a grupurilor de persoane care ar putea fi afectate, inclusiv a grupurilor marginalizate și vulnerabile. Operatorii ar trebui să identifice structuri de guvernanță adecvate în acest context specific de utilizare, cum ar fi mecanisme de supraveghere umană, proceduri de soluționare a plângerilor și căi de atac, deoarece alegerile din cadrul structurilor de guvernanță pot avea un rol esențial în atenuarea riscurilor la adresa drepturilor fundamentale în cazuri concrete de utilizare. Pentru a garanta în mod eficient că drepturile fundamentale sunt protejate, operatorii sistemelor de IA cu grad ridicat de risc ar trebui să efectueze, prin urmare, o evaluare a impactului asupra drepturilor fundamentale înainte de a le pune în funcțiune. Evaluarea impactului ar trebui însoțită de un plan detaliat care să descrie măsurile sau instrumentele care vor contribui la atenuarea riscurilor identificate pentru drepturile fundamentale din momentul punerii în funcțiune. În cazul în care nu se poate defini un astfel de plan, operatorul ar trebui să se abțină de la punerea în funcțiune a sistemului. Atunci când efectuează această evaluare a impactului, operatorii ar trebui să notifice autoritatea națională de supraveghere și, în cea mai mare măsură posibilă, părțile interesate relevante, precum și reprezentanții grupurilor de persoane care ar putea fi afectate de sistemul de IA, pentru a colecta informațiile relevante considerate necesare pentru a efectua evaluarea impactului și sunt încurajați să pună la dispoziția publicului pe site-ul lor internet rezumatul evaluării impactului asupra drepturilor fundamentale. Aceste obligații nu ar trebui să se aplice IMM-urilor care, din cauza absenței resurselor, ar putea întâmpina dificultăți în efectuarea acestei consultări. Cu toate acestea, ele ar trebui, de asemenea, să depună eforturi să includă acești reprezentanți atunci când efectuează o evaluare a impactului asupra drepturilor fundamentale. În plus, având în vedere impactul potențial și necesitatea unei supravegheri și a unui control democratic, operatorii de sisteme de IA cu grad ridicat de risc care sunt autorități publice sau instituții, organe, oficii și agenții ale Uniunii, precum și operatorii care sunt societăți desemnate drept controlori de acces în temeiul Regulamentului (UE) 2022/1925 ar trebui să aibă obligația de a înregistra utilizarea oricărui sistem de IA cu grad ridicat de risc într-o bază de date publică. Ceilalți operatori se pot înregistra în mod voluntar.
Amendamentul 93
Propunere de regulament
Considerentul 59
(59)  Este oportun să se aibă în vedere faptul că utilizatorul sistemului de IA ar trebui să fie persoana fizică sau juridică, autoritatea publică, agenția sau alt organism sub a cărui autoritate funcționează sistemul de IA, cu excepția cazului în care utilizarea se face în cursul unei activități personale neprofesionale.
(59)  Este oportun să se aibă în vedere faptul că operatorul sistemului de IA ar trebui să fie persoana fizică sau juridică, autoritatea publică, agenția sau alt organism sub a cărui autoritate funcționează sistemul de IA, cu excepția cazului în care utilizarea se face în cursul unei activități personale neprofesionale.
Amendamentul 94
Propunere de regulament
Considerentul 60
(60)  Având în vedere complexitatea lanțului valoric al inteligenței artificiale, părțile terțe relevante, în special cele implicate în vânzarea și furnizarea de software, instrumente și componente software, modele și date pre-antrenate sau furnizorii de servicii de rețea ar trebui să coopereze, după caz, cu furnizorii și utilizatorii pentru a permite respectarea de către aceștia a obligațiilor care le revin în temeiul prezentului regulament și cu autoritățile competente instituite în temeiul prezentului regulament.
(60)  În cadrul lanțului valoric al IA, numeroase entități furnizează adesea instrumente și servicii, dar și componente sau procese care sunt apoi încorporate de furnizor în sistemul de IA, inclusiv în ceea ce privește colectarea și prelucrarea prealabilă a datelor, antrenarea modelelor, reconversia modelelor, testarea și evaluarea modelelor, integrarea în software sau alte aspecte ale dezvoltării de modele. Entitățile implicate își pot pune oferta la dispoziție pe piață, direct sau indirect, prin interfețe, cum ar fi interfețele de programare a aplicațiilor (IPA), distribuite sub licențe gratuite și cu sursă deschisă, dar și din ce în ce mai mult prin platforme de forță de muncă din domeniul IA, prin revânzarea parametrilor antrenați, prin kituri de bricolaj pentru a construi modele sau oferind acces contra cost la un model care servește arhitecturii de dezvoltare și formare de modele. Având în vedere această complexitate a lanțului valoric al IA, toate părțile terțe relevante, în special cele care sunt implicate în dezvoltarea, vânzarea și furnizarea pe piață de instrumente software, componente, modele pre-antrenate sau date încorporate în sistemul de IA sau furnizorii de servicii de rețea, ar trebui, fără a-și compromite propriile drepturi de proprietate intelectuală sau secrete comerciale, să pună la dispoziție informațiile, antrenarea sau cunoștințele de specialitate necesare și să coopereze, după caz, cu furnizorii pentru a le permite să controleze toate aspectele relevante pentru conformitate ale sistemului de IA care intră sub incidența prezentului regulament. Pentru a permite o guvernanță eficientă din punctul de vedere al costurilor a lanțului valoric al IA, nivelul de control este dezvăluit în mod explicit de fiecare parte terță care furnizează furnizorului un instrument, un serviciu, o componentă sau un proces care este ulterior încorporat de furnizor în sistemul de IA.
Amendamentul 95
Propunere de regulament
Considerentul 60 a (nou)
(60a)  În cazul în care una dintre părți se află într-o poziție de negociere mai puternică, există riscul ca partea respectivă să poată profita de această poziție în detrimentul celeilalte părți contractante atunci când negociază furnizarea de instrumente, servicii, componente sau procese care sunt utilizate sau integrate într-un sistem de IA cu grad ridicat de risc sau măsurile corective în caz de încălcare sau de reziliere a obligațiilor conexe. Astfel de dezechilibre contractuale afectează în special microîntreprinderile, întreprinderile mici și mijlocii, precum și întreprinderile nou-înființate, cu excepția cazului în care acestea sunt deținute sau subcontractate de o întreprindere care este în măsură să despăgubească subcontractantul în mod corespunzător, dat fiind că ele nu dispun de o capacitate semnificativă de negociere a condițiilor acordului contractual și că nu pot avea altă opțiune decât să accepte clauzele contractuale sau să renunțe la contract. Prin urmare, clauzele contractuale abuzive care reglementează furnizarea de instrumente, servicii, componente sau procese care sunt utilizate sau integrate într-un sistem de IA cu grad ridicat de risc sau măsurile reparatorii pentru încălcarea sau rezilierea obligațiilor conexe nu ar trebui să fie obligatorii pentru astfel de microîntreprinderi, întreprinderi mici sau mijlocii și întreprinderi nou-înființate dacă le-au fost impuse în mod unilateral.
Amendamentul 96
Propunere de regulament
Considerentul 60 b (nou)
(60b)  În normele referitoare la clauzele contractuale ar trebui să se țină seama de principiul libertății contractuale, un concept esențial în relațiile dintre întreprinderi. Prin urmare, nu toate clauzele contractuale ar trebui să facă obiectul unui test privind caracterul abuziv, ci numai clauzele care sunt impuse în mod unilateral microîntreprinderilor, întreprinderilor mici și mijlocii și întreprinderilor nou-înființate. Sunt vizate situațiile în care singura opțiune este între a accepta clauze contractuale sau a renunța la contract, situații în care una dintre părți oferă o anumită clauză contractuală, iar microîntreprinderea, întreprinderea mică sau mijlocie și întreprinderea nou-înființată nu poate influența conținutul clauzei respective, în pofida încercării de a o negocia. O clauză contractuală care este pur și simplu oferită de una dintre părți și acceptată de microîntreprindere, de întreprinderea mică sau mijlocie sau de întreprinderea nou-înființată, sau o clauză care este negociată și asupra căreia părțile contractante convin ulterior după aducerea unor modificări nu ar trebui considerată ca fiind impusă unilateral.
Amendamentul 97
Propunere de regulament
Considerentul 60 c (nou)
(60c)  În plus, normele privind clauzele contractuale abuzive ar trebui să se aplice numai elementelor unui contract care sunt legate de furnizarea de instrumente, servicii, componente sau procese utilizate sau integrate într-un sistem de IA cu grad ridicat de risc sau măsurilor reparatorii pentru încălcarea sau rezilierea obligațiilor conexe. Alte părți ale aceluiași contract, care nu au legătură cu aceste elemente, nu ar trebui să facă obiectul testului privind caracterul abuziv prevăzut în prezentul regulament.
Amendamentul 98
Propunere de regulament
Considerentul 60 d (nou)
(60d)  Criteriile de identificare a clauzelor contractuale abuzive ar trebui să se aplice numai clauzelor contractuale excesive, în cazul cărora se abuzează de o poziție de negociere mai puternică. Marea majoritate a clauzelor contractuale care sunt mai avantajoase din punct de vedere comercial pentru o parte decât pentru cealaltă parte, inclusiv cele care sunt normale în contractele dintre întreprinderi, reprezintă o expresie normală a principiului libertății contractuale și continuă să se aplice. În cazul în care o clauză contractuală nu este inclusă în lista clauzelor considerate întotdeauna abuzive, se aplică dispoziția generală privind caracterul abuziv. În această privință, clauzele din lista clauzelor abuzive ar trebui să servească drept etalon pentru interpretarea dispoziției generale privind caracterul abuziv.
Amendamentul 99
Propunere de regulament
Considerentul 60 e (nou)
(60e)  Modelele de bază sunt o evoluție recentă, în care modelele de IA sunt dezvoltate pornind de la algoritmi concepuți pentru a optimiza caracterul general și versatilitatea rezultatelor. Modelele respective sunt adesea antrenate cu gamă largă de surse de date și cu cantități mari de date pentru a îndeplini un număr mare de sarcini în aval, inclusiv unele pentru care nu au fost dezvoltate și antrenate în mod specific. Modelul de bază poate fi unimodal sau multimodal, antrenat prin diverse metode, cum ar fi învățarea supravegheată sau învățarea prin întărire. Sistemele de IA cu scop preconizat specific sau sistemele de IA de uz general pot fi o punere în aplicare a unui model de bază, ceea ce înseamnă că fiecare model de bază poate fi reutilizat în nenumărate sisteme de IA din aval sau în sisteme de IA de uz general. Aceste modele au o importanță din ce în ce mai mare pentru multe aplicații și sisteme din aval.
Amendamentul 100
Propunere de regulament
Considerentul 60 f (nou)
(60f)  În cazul modelelor de bază furnizate ca serviciu, cum ar fi accesul la informații prealabile referitoare la pasageri (API), cooperarea cu furnizorii din aval ar trebui să se extindă pe întreaga perioadă în care serviciul este furnizat și sprijinit, pentru a permite atenuarea adecvată a riscurilor, cu excepția cazului în care furnizorul modelului de bază transferă modelul de antrenare, precum și informații cuprinzătoare și adecvate privind seturile de date și procesul de dezvoltare a sistemului sau restricționează serviciul, cum ar fi accesul la API, astfel încât furnizorul din aval să fie în măsură să respecte pe deplin prezentul regulament fără sprijin suplimentar din partea furnizorului inițial al modelului de bază.
Amendamentul 101
Propunere de regulament
Considerentul 60 g (nou)
(60g)  Având în vedere natura și complexitatea lanțului valoric pentru sistemele de IA, este esențial să se precizeze rolul actorilor care contribuie la dezvoltarea sistemelor de IA. Există o incertitudine considerabilă privind modul în care vor evolua modelele de bază, atât în ceea ce privește tipologia modelelor, cât și în ceea ce privește autoguvernanța. Prin urmare, este esențial să se precizeze situația juridică a furnizorilor de modele de bază. Ținând seama de complexitatea și impactul lor neprevăzut și de absența de control a furnizorului de IA din aval asupra dezvoltării modelului de bază și dezechilibrul de putere aferent și pentru a asigura o partajare echitabilă a responsabilităților de-a lungul lanțului valoric al IA, aceste modele ar trebui să facă obiectul unor cerințe și obligații proporționale și mai specifice în temeiul prezentului regulament, și anume modelele de bază ar trebui să evalueze și să atenueze posibilele riscuri și prejudicii printr-o proiectare, testare și analiză adecvate, ar trebui să pună în aplicare măsuri de guvernanță a datelor, cum ar fi evaluarea părtinirilor, ar trebui să respecte cerințele tehnice de proiectare pentru a asigura niveluri adecvate de performanță, previzibilitate, posibilitate de interpretare și de corectare, siguranță și securitate cibernetică și ar trebui să respecte standardele de mediu. Aceste obligații ar trebui să fie însoțite de standarde. De asemenea, sistemele de uz general ar trebui să aibă obligații de informare și să pregătească toată documentația tehnică necesară pentru ca potențialii furnizori din aval să fie în măsură să își respecte obligațiile care le revin în temeiul prezentului regulament. Modelele de bază generative ar trebui să asigure transparența cu privire la faptul că conținutul este generat de un sistem de IA, nu de oameni. Aceste cerințe și obligații specifice nu echivalează cu considerarea modelelor de bază ca sisteme de IA cu risc ridicat, dar ar trebui să garanteze că sunt îndeplinite obiectivele prezentului regulament de a asigura un nivel ridicat de protecție a drepturilor fundamentale, a sănătății și siguranței, a mediului, a democrației și a statului de drept. Modelele pre-antrenate dezvoltate pentru un set mai restrâns, mai puțin general și mai limitat de aplicații și care nu pot fi adaptate la o gamă largă de sarcini, cum ar fi sistemele de IA polivalente simple, nu ar trebui să fie considerate modele de bază în sensul prezentului regulament, datorită capacității lor mai mari de interpretare, ceea ce face ca comportamentul lor să fie mai puțin imprevizibil.
Amendamentul 102
Propunere de regulament
Considerentul 60 h (nou)
(60h)  Având în vedere natura modelelor de bază, lipsesc cunoștințele de specialitate privind evaluarea conformității, iar metodele de audit efectuate de terți sunt încă în curs de elaborare. Prin urmare, sectorul în sine dezvoltă noi modalități de evaluare a modelelor de bază care îndeplinesc parțial obiectivul auditului (cum ar fi evaluarea modelelor, testarea penetrării bazată pe amenințări sau tehnicile de verificare și validare a învățării automate). Aceste evaluări interne ale modelelor de bază ar trebui să fie aplicabile pe scară largă (de exemplu, independent de canalele de distribuție, de modalități, de metodele de dezvoltare), să abordeze riscurile specifice unor astfel de modele, ținând seama de practicile de cele mai recente ale industriei și să se concentreze pe dezvoltarea unei înțelegeri tehnice și a unui control suficient asupra modelului, pe gestionarea riscurilor previzibile în mod rezonabil, precum și pe analiza și testarea aprofundată a modelului prin măsuri adecvate, cum ar fi prin implicarea unor evaluatori independenți. Întrucât modelele de bază reprezintă o evoluție nouă și rapidă în domeniul inteligenței artificiale, este oportun ca Comisia și Oficiul pentru IA să monitorizeze și să evalueze periodic cadrul legislativ și de guvernanță al acestor modele și, în special, al sistemelor de IA generative bazate pe astfel de modele, care ridică probleme considerabile legate de generarea de conținut care încalcă dreptul Uniunii, de normele privind drepturile de autor și de eventuale utilizări abuzive. Este oportun să se precizeze că prezentul regulament nu ar trebui să aducă atingere dreptului Uniunii privind dreptul de autor și drepturile conexe, cum ar fi Directivele 2001/29/CE, 2004/48/ECR și (UE) 2019/790 ale Parlamentului European și ale Consiliului.
Amendamentul 103
Propunere de regulament
Considerentul 61
(61)  Standardizarea ar trebui să joace un rol esențial în furnizarea de soluții tehnice furnizorilor pentru a asigura conformitatea cu prezentul regulament. Conformitatea cu normele armonizate, astfel cum se prevede în Regulamentul (UE) nr. 1025/2012 al Parlamentului European și al Consiliului54, ar trebui să fie un mijloc prin care furnizorii să demonstreze conformitatea cu cerințele prezentului regulament. Cu toate acestea, Comisia ar putea adopta specificații tehnice comune în domenii în care nu există norme armonizate sau în care acestea sunt insuficiente.
(61)  Standardizarea ar trebui să joace un rol esențial în furnizarea de soluții tehnice furnizorilor pentru a asigura conformitatea cu prezentul regulament. Conformitatea cu normele armonizate, astfel cum se prevede în Regulamentul (UE) nr. 1025/2012 al Parlamentului European și al Consiliului [1], ar trebui să fie un mijloc prin care furnizorii să demonstreze conformitatea cu cerințele prezentului regulament. Pentru a asigura eficacitatea standardelor ca instrumente de politică pentru Uniune și având în vedere importanța standardelor pentru a asigura conformitatea cu cerințele prezentului regulament și pentru competitivitatea societăților, este necesar să se asigure o reprezentare echilibrată a intereselor prin implicarea tuturor părților interesate relevante la elaborarea standardelor. Procesul de standardizare ar trebui să fie transparent în ceea ce privește persoanele juridice și fizice care participă la activitățile de standardizare.
__________________
__________________
54 Regulamentul (UE) nr. 1025/2012 al Parlamentului European și al Consiliului din 25 octombrie 2012 privind standardizarea europeană, de modificare a Directivelor 89/686/CEE și 93/15/CEE ale Consiliului și a Directivelor 94/9/CE, 94/25/CE, 95/16/CE, 97/23/CE, 98/34/CE, 2004/22/CE, 2007/23/CE, 2009/23/CE și 2009/105/CE ale Parlamentului European și ale Consiliului și de abrogare a Deciziei 87/95/CEE a Consiliului și a Deciziei nr. 1673/2006/CE a Parlamentului European și a Consiliului (JO L 316, 14.11.2012, p. 12).
54 Regulamentul (UE) nr. 1025/2012 al Parlamentului European și al Consiliului din 25 octombrie 2012 privind standardizarea europeană, de modificare a Directivelor 89/686/CEE și 93/15/CEE ale Consiliului și a Directivelor 94/9/CE, 94/25/CE, 95/16/CE, 97/23/CE, 98/34/CE, 2004/22/CE, 2007/23/CE, 2009/23/CE și 2009/105/CE ale Parlamentului European și ale Consiliului și de abrogare a Deciziei 87/95/CEE a Consiliului și a Deciziei nr. 1673/2006/CE a Parlamentului European și a Consiliului (JO L 316, 14.11.2012, p. 12).
Amendamentul 104
Propunere de regulament
Considerentul 61 a (nou)
(61a)  Pentru a facilita conformitatea, primele cereri de standardizare ar trebui să fie emise de Comisie cel târziu la două luni de la intrarea în vigoare a prezentului regulament. Acest lucru ar trebui să contribuie la îmbunătățirea securității juridice, promovând astfel investițiile și inovarea în domeniul IA, precum și competitivitatea și creșterea pieței Uniunii, consolidând în același timp guvernanța multipartită care reprezintă toate părțile interesate europene relevante, cum ar fi Oficiul pentru IA, organizațiile și organismele europene de standardizare sau grupurile de experți instituite în temeiul dreptului sectorial relevant al Uniunii, precum și industria, IMM-urile, întreprinderile nou-înființate, societatea civilă, cercetătorii și partenerii sociali și ar trebui, în cele din urmă, să faciliteze cooperarea la nivel mondial în materie de standardizare în domeniul IA în concordanță cu valorile Uniunii. Atunci când pregătește cererea de standardizare, Comisia ar trebui să consulte Oficiul pentru IA și Forumul consultativ pentru IA cu scopul de a colecta cunoștințe de specialitate pertinente.
Amendamentul 105
Propunere de regulament
Considerentul 61 b (nou)
(61b)  Atunci când sistemele de IA sunt destinate să fie utilizate la locul de muncă, standardele armonizate ar trebui să se limiteze la specificațiile și procedurile tehnice.
Amendamentul 106
Propunere de regulament
Considerentul 61 c (nou)
(61c)  Comisia ar trebui să fie în măsură să adopte specificații comune în anumite condiții, atunci când nu există un standard armonizat relevant, sau să răspundă unor preocupări specifice legate de drepturile fundamentale. Pe parcursul întregului proces de redactare, Comisia ar trebui să consulte periodic Oficiul pentru IA și forumul său consultativ, organizațiile și organismele europene de standardizare sau grupurile de experți instituite în temeiul dreptului sectorial relevant al Uniunii, precum și părțile interesate relevante, cum ar fi industria, IMM-urile, întreprinderile nou-înființate, societatea civilă, cercetătorii și partenerii sociali.
Amendamentul 107
Propunere de regulament
Considerentul 61 d (nou)
(61d)  Atunci când adoptă specificații comune, Comisia ar trebui să depună eforturi pentru a alinia reglementările referitoare la IA cu parteneri globali care împărtășesc aceeași viziune, ceea ce este esențial pentru stimularea inovării și a parteneriatelor transfrontaliere în domeniul IA, întrucât coordonarea cu partenerii care împărtășesc aceeași viziune în cadrul organismelor internaționale de standardizare este extrem de importantă.
Amendamentul 108
Propunere de regulament
Considerentul 62
(62)  Pentru a asigura un nivel ridicat de fiabilitate a sistemelor de IA cu grad ridicat de risc, aceste sisteme ar trebui să facă obiectul unei evaluări a conformității înainte de introducerea lor pe piață sau de punerea lor în funcțiune.
(62)  Pentru a asigura un nivel ridicat de fiabilitate a sistemelor de IA cu grad ridicat de risc, aceste sisteme ar trebui să facă obiectul unei evaluări a conformității înainte de introducerea lor pe piață sau de punerea lor în funcțiune. Pentru a crește încrederea în lanțul valoric și a le oferi certitudine întreprinderilor cu privite la performanța sistemelor lor, părțile terțe care furnizează componente de IA pot solicita voluntar o evaluare a conformității efectuată de către terți.
Amendamentul 109
Propunere de regulament
Considerentul 64
(64)  Având în vedere experiența mai extinsă a organismelor profesionale de certificare înainte de introducerea pe piață în domeniul siguranței produselor și natura diferită a riscurilor implicate, este oportun să se limiteze, cel puțin într-o fază inițială de aplicare a prezentului regulament, domeniul de aplicare al evaluării conformității de către terți pentru sistemele de IA cu grad ridicat de risc, altele decât cele legate de produse. Prin urmare, evaluarea conformității unor astfel de sisteme ar trebui să fie efectuată, ca regulă generală, de către furnizor, pe propria răspundere, cu singura excepție a sistemelor de IA destinate a fi utilizate pentru identificarea biometrică la distanță a persoanelor, pentru care ar trebui prevăzută implicarea unui organism notificat în evaluarea conformității, în măsura în care acestea nu sunt interzise.
(64)  Având în vedere complexitatea sistemelor de IA cu grad ridicat de risc și riscurile asociate acestora, este esențial să se dezvolte o capacitate mai adecvată pentru aplicarea evaluării conformității de către terți sistemelor de IA cu grad ridicat de risc. Cu toate acestea, având în vedere experiența actuală a organismelor profesionale de certificare înainte de introducerea pe piață în domeniul siguranței produselor și natura diferită a riscurilor implicate, este oportun să se limiteze, cel puțin într-o fază inițială de aplicare a prezentului regulament, domeniul de aplicare al evaluării conformității de către terți pentru sistemele de IA cu grad ridicat de risc, altele decât cele legate de produse. Prin urmare, evaluarea conformității unor astfel de sisteme ar trebui să fie efectuată, ca regulă generală, de către furnizor, pe propria răspundere, cu singura excepție a sistemelor de IA destinate a fi utilizate pentru identificarea biometrică la distanță a persoanelor, sau a sistemelor de IA destinate a fi utilizate pentru a trage concluzii cu privire la caracteristicile personale ale persoanelor fizice pe baza datelor biometrice sau bazate pe biometrie, inclusiv a sistemelor de recunoaștere a emoțiilor, pentru care ar trebui prevăzută implicarea unui organism notificat în evaluarea conformității, în măsura în care acestea nu sunt interzise.
Amendamentul 110
Propunere de regulament
Considerentul 65
(65)  Pentru a efectua evaluarea conformității de către terți a sistemelor de IA destinate utilizării pentru identificarea biometrică la distanță a persoanelor, autoritățile naționale competente ar trebui să desemneze organismele notificate în temeiul prezentului regulament, cu condiția ca acestea să respecte un set de cerințe, în special în ceea ce privește independența, competența și absența conflictelor de interese.
(65)  Pentru a efectua evaluări ale conformității de către terți atunci când este necesar, autoritățile naționale competente ar trebui să desemneze organismele notificate în temeiul prezentului regulament, cu condiția ca acestea să respecte un set de cerințe, în special în ceea ce privește independența, competența, absența conflictelor de interese și cerințele minime de securitate cibernetică. Statele membre ar trebui să încurajeze desemnarea unui număr suficient de organisme de evaluare a conformității, pentru ca certificarea să poată fi realizată în timp util. Procedurile de evaluare, desemnare, notificare și monitorizare a organismelor de evaluare a conformității ar trebui să fie elaborate cât mai uniform în toate statele membre, cu scopul de a elimina barierele administrative frontaliere și de a garanta realizarea potențialului pieței interne.
Amendamentul 111
Propunere de regulament
Considerentul 65 a (nou)
(65a)  În conformitate cu angajamentele asumate de UE în temeiul Acordului privind barierele tehnice în calea comerțului al Organizației Mondiale a Comerțului, este adecvat să se maximizeze acceptarea rezultatelor testelor realizate de organismele competente de evaluare a conformității, indiferent de teritoriul în care acestea sunt stabilite, dacă este necesar pentru a demonstra conformitatea cu cerințele aplicabile ale prezentului regulament. Comisia ar trebui să exploreze în mod activ posibile instrumente internaționale în acest scop și, în special, să urmărească posibila instituire a unor acorduri de recunoaștere reciprocă cu țări care se află la un nivel comparabil de dezvoltare tehnică și au o abordare compatibilă în ceea ce privește IA și evaluarea conformității.
Amendamentul 112
Propunere de regulament
Considerentul 66
(66)  În conformitate cu noțiunea stabilită de comun acord a modificării substanțiale pentru produsele reglementate de legislația de armonizare a Uniunii, este oportun ca un sistem de IA să fie supus unei noi evaluări a conformității ori de câte ori apare o modificare care ar putea afecta conformitatea sistemului cu prezentul regulament sau atunci când scopul preconizat al sistemului se modifică. În plus, în ceea ce privește sistemele de IA care continuă să „învețe” după ce au fost introduse pe piață sau puse în funcțiune (adică adaptează automat modul în care sunt îndeplinite funcțiile), este necesar să se prevadă norme care să stabilească faptul că modificările algoritmului și ale performanței sale care au fost predeterminate de furnizor și evaluate la momentul evaluării conformității nu ar trebui să constituie o modificare substanțială.
(66)  În conformitate cu noțiunea stabilită de comun acord a modificării substanțiale pentru produsele reglementate de legislația de armonizare a Uniunii, este oportun ca un sistem de IA cu grad ridicat de risc să fie supus unei noi evaluări a conformității ori de câte ori apare o modificare neplanificată care depășește modificările controlate sau prestabilite de către furnizor, inclusiv învățarea continuă, și care poate crea un nou risc inacceptabil și poate afecta în mod considerabil conformitatea sistemului de IA cu grad ridicat de risc cu prezentul regulament sau atunci când scopul preconizat al sistemului se modifică. În plus, în ceea ce privește sistemele de IA care continuă să „învețe” după ce au fost introduse pe piață sau puse în funcțiune (adică adaptează automat modul în care sunt îndeplinite funcțiile), este necesar să se prevadă norme care să stabilească faptul că modificările algoritmului și ale performanței sale care au fost predeterminate de furnizor și evaluate la momentul evaluării conformității nu ar trebui să constituie o modificare substanțială. Același lucru ar trebui să se aplice actualizărilor sistemului de IA din motive de securitate în general și pentru a proteja împotriva amenințărilor în continuă evoluție de manipulare a sistemului, cu condiția ca acestea să nu constituie o modificare substanțială.
Amendamentul 113
Propunere de regulament
Considerentul 67
(67)  Sistemele de IA cu grad ridicat de risc ar trebui să poarte marcajul CE pentru a indica conformitatea lor cu prezentul regulament, astfel încât să poată circula liber în cadrul pieței interne. Statele membre ar trebui să nu genereze obstacole nejustificate în calea introducerii pe piață sau a punerii în funcțiune a sistemelor de IA cu risc ridicat care sunt conforme cu cerințele prevăzute de prezentul regulament și care poartă marcajul CE.
(67)  Sistemele de IA cu grad ridicat de risc ar trebui să poarte marcajul CE pentru a indica conformitatea lor cu prezentul regulament, astfel încât să poată circula liber în cadrul pieței interne. Pentru sistemele fizice de IA cu grad ridicat de risc ar trebui aplicat un marcaj CE fizic care poate fi completat de un marcaj CE digital. Pentru sistemele exclusiv digitale de IA cu grad ridicat de risc ar trebui utilizat un marcaj CE digital. Statele membre ar trebui să nu genereze obstacole nejustificate în calea introducerii pe piață sau a punerii în funcțiune a sistemelor de IA cu risc ridicat care sunt conforme cu cerințele prevăzute de prezentul regulament și care poartă marcajul CE.
Amendamentul 114
Propunere de regulament
Considerentul 68
(68)  În anumite condiții, disponibilitatea rapidă a tehnologiilor inovatoare poate fi esențială pentru sănătatea și siguranța persoanelor și pentru societate în ansamblu. Prin urmare, este oportun ca, din motive excepționale de siguranță publică sau de protecție a vieții și a sănătății persoanelor fizice și de protecție a proprietății industriale și comerciale, statele membre să poată autoriza introducerea pe piață sau punerea în funcțiune a sistemelor de IA care nu au fost supuse unei evaluări a conformității.
(68)  În anumite condiții, disponibilitatea rapidă a tehnologiilor inovatoare poate fi esențială pentru sănătatea și siguranța persoanelor, pentru mediu și schimbările climatice și pentru societate în ansamblu. Prin urmare, este oportun ca, din motive excepționale de protecție a vieții și a sănătății persoanelor fizice, de protecție a mediului și de protecție a infrastructurii critice, statele membre să poată autoriza introducerea pe piață sau punerea în funcțiune a sistemelor de IA care nu au fost supuse unei evaluări a conformității.
Amendamentul 115
Propunere de regulament
Considerentul 69
(69)  Pentru a facilita activitatea Comisiei și a statelor membre în domeniul inteligenței artificiale, precum și pentru a spori transparența față de public, furnizorii de sisteme de IA cu grad ridicat de risc, altele decât cele legate de produse care intră în domeniul de aplicare al legislației de armonizare relevante existente a Uniunii, ar trebui să aibă obligația de a-și înregistra propriul sistem de IA cu grad ridicat de risc într-o bază de date a UE, care urmează să fie creată și gestionată de Comisie. Comisia ar trebui să fie operatorul bazei de date respective, în conformitate cu Regulamentul (UE) 2018/1725 al Parlamentului European și al Consiliului55. Pentru a asigura funcționalitatea deplină a bazei de date, atunci când aceasta este implementată, procedura de stabilire a bazei de date ar trebui să includă elaborarea de specificații funcționale de către Comisie și un raport de audit independent.
(69)  Pentru a facilita activitatea Comisiei și a statelor membre în domeniul inteligenței artificiale, precum și pentru a spori transparența față de public, furnizorii de sisteme de IA cu grad ridicat de risc, altele decât cele legate de produse care intră în domeniul de aplicare al legislației de armonizare relevante existente a Uniunii, ar trebui să aibă obligația de a-și înregistra propriul sistem de IA cu grad ridicat de risc și modelele de bază într-o bază de date a UE, care urmează să fie creată și gestionată de Comisie. Această bază de date ar trebui să fie accesibilă publicului în mod gratuit, ușor de înțeles și într-un format care poate fi citit automat. Baza de date ar trebui, de asemenea, să fie ușor de utilizat și să prezinte o navigare ușoară, cu funcționalități de căutare care să permită cel puțin publicului larg să caute în baza de date sisteme specifice cu grad ridicat de risc, localizări, categorii de risc în temeiul anexei IV și cuvinte-cheie. Operatorii care sunt autorități publice sau instituții, organe, oficii și agenții ale Uniunii sau operatorii care acționează în numele acestora și operatorii care sunt întreprinderi desemnate drept controlori de acces în temeiul Regulamentului (UE) 2022/1925 ar trebui, de asemenea, să se înregistreze în baza de date a UE înainte de a da în funcțiune sau de a utiliza un sistem de IA cu grad ridicat de risc pentru prima dată și după fiecare modificare substanțială. Ceilalți operatori ar trebui să aibă dreptul de a face acest lucru în mod voluntar. Orice modificare substanțială a sistemelor de IA cu grad ridicat de risc se înregistrează, de asemenea, în baza de date a UE. Comisia ar trebui să fie operatorul bazei de date respective, în conformitate cu Regulamentul (UE) 2018/1725 al Parlamentului European și al Consiliului55. Pentru a asigura funcționalitatea deplină a bazei de date, atunci când aceasta este implementată, procedura de stabilire a bazei de date ar trebui să includă elaborarea de specificații funcționale de către Comisie și un raport de audit independent. Comisia ar trebui să țină seama de riscurile în materie de securitate cibernetică și de riscurile legate de pericole atunci când își îndeplinește sarcinile de operator de date în baza de date a UE. Pentru a maximiza disponibilitatea și utilizarea bazei de date de către public, baza de date, inclusiv informațiile puse la dispoziție prin intermediul acesteia, ar trebui să îndeplinească cerințele prevăzute în Directiva 2019/882.
__________________
__________________
55 Regulamentul (UE) 2016/679 al Parlamentului European și al Consiliului din 27 aprilie 2016 privind protecția persoanelor fizice în ceea ce privește prelucrarea datelor cu caracter personal și privind libera circulație a acestor date și de abrogare a Directivei 95/46/CE (Regulamentul general privind protecția datelor) (JO L 119, 4.5.2016, p. 1).
55 Regulamentul (UE) 2016/679 al Parlamentului European și al Consiliului din 27 aprilie 2016 privind protecția persoanelor fizice în ceea ce privește prelucrarea datelor cu caracter personal și privind libera circulație a acestor date și de abrogare a Directivei 95/46/CE (Regulamentul general privind protecția datelor) (JO L 119, 4.5.2016, p. 1).
Amendamentul 116
Propunere de regulament
Considerentul 71
(71)  Inteligența artificială este o familie de tehnologii care se dezvoltă rapid și care necesită forme noi de supraveghere normativă și un spațiu sigur pentru experimentare, asigurând, în același timp, inovarea responsabilă și integrarea unor garanții adecvate și a unor măsuri de atenuare a riscurilor. Pentru a asigura un cadru juridic favorabil inovării, adaptat exigențelor viitorului și rezistent la perturbări, autoritățile naționale competente din unul sau mai multe state membre ar trebui încurajate să instituie spații de testare în materie de reglementare în domeniul inteligenței artificiale pentru a facilita dezvoltarea și testarea sistemelor de IA inovatoare aflate sub supraveghere normativă strictă înainte ca aceste sisteme să fie introduse pe piață sau puse în funcțiune în alt mod.
(71)  Inteligența artificială este o familie de tehnologii care se dezvoltă rapid și care necesită supraveghere normativă și un spațiu sigur și controlat pentru experimentare, asigurând, în același timp, inovarea responsabilă și integrarea unor garanții adecvate și a unor măsuri de atenuare a riscurilor. Pentru a asigura un cadru juridic care promovează inovarea, adaptat exigențelor viitorului și rezistent la perturbări, statele membre ar trebui să instituie cel puțin un spațiu de testare în materie de reglementare în domeniul inteligenței artificiale pentru a facilita dezvoltarea și testarea sistemelor de IA inovatoare aflate sub supraveghere normativă strictă înainte ca aceste sisteme să fie introduse pe piață sau puse în funcțiune în alt mod. Într-adevăr, este de dorit ca stabilirea spațiilor de testare în materie de reglementare, a căror înființare este lăsată în prezent la latitudinea statelor membre, să devină obligatorie, cu criterii stabilite. Spațiul de testare obligatoriu ar putea fi, de asemenea, stabilit în comun cu unul sau mai multe alte state membre, atât timp cât spațiul de testare respectiv ar acoperi nivelul național respectiv al statelor membre implicate. De asemenea, pot fi stabilite spații de testare suplimentare la diferite niveluri, inclusiv la nivelul statelor membre, pentru a facilita cooperarea și sinergiile transfrontaliere. Cu excepția spațiului de testare obligatoriu de la nivel național, statele membre ar trebui, de asemenea, să poată institui spații de testare virtuale sau hibride. Toate spațiile de testare în materie de reglementare ar trebui să poată cuprinde atât produse fizice, cât și virtuale. Autoritățile responsabile cu stabilirea spațiilor de testare în materie de reglementare ar trebui să se asigure că acestea dispun de resurse financiare și umane adecvate pentru funcționarea lor.
Amendamentul 117
Propunere de regulament
Considerentul 72
(72)  Obiectivele spațiilor de testare în materie de reglementare ar trebui să fie promovarea inovării în domeniul IA prin instituirea unui mediu de experimentare și testare controlat în faza de dezvoltare și de precomercializare, cu scopul de a asigura conformitatea sistemelor de IA inovatoare cu prezentul regulament și cu alte acte legislative relevante ale Uniunii și ale statelor membre, sporirea securității juridice pentru inovatori și supravegherea și înțelegerea de către autoritățile competente a oportunităților, a riscurilor emergente și a impactului utilizării IA, precum și accelerarea accesului la piețe, inclusiv prin eliminarea barierelor din calea întreprinderilor mici și mijlocii (IMM-uri) și a întreprinderilor nou-înființate. Pentru a asigura o punere în aplicare uniformă în întreaga Uniune și economii de scară, este oportun să se stabilească norme comune pentru punerea în aplicare a spațiilor de testare în materie de reglementare și un cadru de cooperare între autoritățile relevante implicate în supravegherea spațiilor de testare. Prezentul regulament ar trebui să ofere temeiul juridic pentru utilizarea datelor cu caracter personal colectate în alte scopuri pentru dezvoltarea anumitor sisteme de IA în interes public în cadrul spațiului de testare în materie de reglementare privind IA, în conformitate cu articolul 6 alineatul (4) din Regulamentul (UE) 2016/679 și cu articolul 6 din Regulamentul (UE) 2018/1725 și fără a aduce atingere articolului 4 alineatul (2) din Directiva (UE) 2016/680. Participanții la spațiile de testare ar trebui să asigure garanții adecvate și să coopereze cu autoritățile competente, inclusiv urmând orientările acestora și acționând cu promptitudine și cu bună-credință pentru a atenua orice risc ridicat la adresa siguranței și a drepturilor fundamentale care ar putea apărea în timpul dezvoltării și experimentării în spațiul de testare. Comportamentul participanților la spațiile de testare ar trebui luat în considerare atunci când autoritățile competente decid dacă să impună sau nu o amendă administrativă în temeiul articolului 83 alineatul (2) din Regulamentul 2016/679 și al articolului 57 din Directiva 2016/680.
(72)  Obiectivele spațiilor de testare în materie de reglementare ar trebui să fie următoarele: ca autoritățile responsabile cu stabilirea să înțeleagă mai bine evoluțiile tehnice, să îmbunătățească metodele de supraveghere și să ofere orientări dezvoltatorilor și furnizorilor de sisteme de IA cu scopul de a asigura conformitatea normativă cu prezentul regulament sau, după caz, cu alte acte legislative aplicabile ale Uniunii și ale statelor membre, precum și cu Carta drepturilor fundamentale; ca potențialii furnizori să permită și să faciliteze testarea și dezvoltarea de soluții inovatoare legate de sistemele de IA în faza de precomercializare cu scopul de a consolida securitatea juridică, să se permită o mai bună învățare în materie de reglementare stabilind autorități într-un mediu controlat cu scopul de a elabora orientări mai bune și a identifica posibile îmbunătățiri viitoare ale cadrului juridic prin intermediul procedurii legislative ordinare. Orice risc semnificativ identificat în cursul dezvoltării și testării unor astfel de sisteme de AI ar trebui să conducă la atenuarea imediată și, în cazul în care atenuarea nu este posibilă, la suspendarea procesului de dezvoltare și testare până la realizarea atenuării respective. Pentru a asigura o punere în aplicare uniformă în întreaga Uniune și economii de scară, este oportun să se stabilească norme comune pentru punerea în aplicare a spațiilor de testare în materie de reglementare și un cadru de cooperare între autoritățile relevante implicate în supravegherea spațiilor de testare. Statele membre ar trebui să se asigure că spațiile de testare în materie de reglementare sunt disponibile pe scară largă în întreaga Uniune, în timp ce participarea ar trebui să rămână voluntară. Este deosebit de important să se asigure că IMM-urile și întreprinderile nou-înființate pot accesa cu ușurință aceste spații de testare, că sunt implicate activ și participă la dezvoltarea și testarea sistemelor de IA inovatoare, pentru a putea contribui cu know-how-ul și experiența lor.
Amendamentul 118
Propunere de regulament
Considerentul 72 a (nou)
(72a)  Prezentul regulament ar trebui să ofere temeiul juridic pentru utilizarea datelor cu caracter personal colectate în alte scopuri pentru dezvoltarea anumitor sisteme de IA în interes public în cadrul spațiului de testare în materie de reglementare privind IA doar în condiții specifice, în conformitate cu articolul 6 alineatul (4) din Regulamentul (UE) 2016/679 și cu articolul 6 din Regulamentul (UE) 2018/1725 și fără a aduce atingere articolului 4 alineatul (2) din Directiva (UE) 2016/680. Potențialii furnizori în spațiile de testare ar trebui să asigure garanții adecvate și să coopereze cu autoritățile competente, inclusiv urmând orientările acestora și acționând cu promptitudine și cu bună-credință pentru a atenua orice risc ridicat la adresa siguranței, a sănătății și a mediului și a drepturilor fundamentale care ar putea apărea în timpul dezvoltării și experimentării în spațiul de testare. Comportamentul potențialilor furnizori la spațiile de testare ar trebui luat în considerare atunci când autoritățile competente decid asupra suspendării temporare sau permanente a participării lor la spațiile de testare, sau dacă să impună sau nu o amendă administrativă în temeiul articolului 83 alineatul (2) din Regulamentul 2016/679 și al articolului 57 din Directiva 2016/680.
Amendamentul 119
Propunere de regulament
Considerentul 72 b (nou)
(72b)  Pentru a se asigura că inteligența artificială conduce la rezultate benefice din punct de vedere social și ecologic, statele membre ar trebui să sprijine și să promoveze cercetarea și dezvoltarea IA în sprijinul rezultatelor benefice din punct de vedere social și ecologic, alocând resurse suficiente, inclusiv finanțare publică și din partea Uniunii și acordând acces prioritar la spațiile de testare în materie de reglementare proiectelor conduse de societatea civilă. Aceste proiecte ar trebui să se bazeze pe principiul cooperării interdisciplinare dintre dezvoltatorii de IA, experții în materie de inegalitate și nediscriminare, accesibilitate, drepturile consumatorilor, de mediu și digitale, precum și mediul academic.
Amendamentul 120
Propunere de regulament
Considerentul 73
(73)  Pentru a promova și proteja inovarea, este important ca interesele micilor furnizori și utilizatori de sisteme de IA să fie luate în considerare în mod deosebit. În acest scop, statele membre ar trebui să elaboreze inițiative care să vizeze operatorii respectivi, inclusiv în ceea ce privește sensibilizarea și comunicarea informațiilor. În plus, interesele și nevoile specifice ale micilor furnizorilor sunt luate în considerare atunci când organismele notificate stabilesc taxe de evaluare a conformității. Costurile de traducere legate de documentația obligatorie și de comunicarea cu autoritățile pot constitui un cost semnificativ pentru furnizori și alți operatori, în special pentru cei de dimensiuni mai mici. Statele membre ar trebui, eventual, să se asigure că una dintre limbile stabilite și acceptate pentru documentația furnizorilor relevanți și pentru comunicarea cu operatorii este una înțeleasă pe larg de un număr cât mai mare de utilizatori transfrontalieri.
(73)  Pentru a promova și proteja inovarea, este important ca interesele micilor furnizori și utilizatori de sisteme de IA să fie luate în considerare în mod deosebit. În acest scop, statele membre ar trebui să elaboreze inițiative care să vizeze operatorii respectivi, inclusiv în ceea ce privește alfabetizarea în domeniul IA, sensibilizarea și comunicarea informațiilor. Statele membre ar trebui să utilizeze canalele existente și, după caz, să instituie noi canale speciale de comunicare cu IMM-urile, cu întreprinderile nou-înființate, cu utilizatorii, precum și cu alți inovatori, pentru a oferi orientări și a răspunde la întrebări legate de punerea în aplicare a prezentului regulament. Astfel de canale existente ar putea include echipele de intervenție în caz de incidente de securitate informatică ale ENISA, agențiile naționale pentru protecția datelor, platforma de IA la cerere, centrele europene de inovare digitală și alte instrumente relevante finanțate prin programele UE, precum și instalațiile de testare și experimentare instituite de Comisie și de statele membre la nivel național sau la nivelul Uniunii, fără a se limita la acestea. După caz, aceste canale colaborează pentru a crea sinergii și pentru a asigura omogenitatea orientărilor pe care le furnizează întreprinderilor nou-înființate, IMM-urilor și utilizatorilor. În plus, interesele și nevoile specifice ale micilor furnizorilor sunt luate în considerare atunci când organismele notificate stabilesc taxe de evaluare a conformității. Comisia evaluează periodic costurile de certificare și de asigurare a conformității pentru IMM-uri și întreprinderile nou-înființate, inclusiv prin consultări transparente cu IMM-urile, cu întreprinderile nou-înființate și cu utilizatorii, și colaborează cu statele membre pentru a reduce aceste costuri. De exemplu, costurile de traducere legate de documentația obligatorie și de comunicarea cu autoritățile pot constitui un cost semnificativ pentru furnizori și alți operatori, în special pentru cei de dimensiuni mai mici. Statele membre ar trebui, eventual, să se asigure că una dintre limbile stabilite și acceptate pentru documentația furnizorilor relevanți și pentru comunicarea cu operatorii este una înțeleasă pe larg de un număr cât mai mare de utilizatori transfrontalieri. Întreprinderile mijlocii care au trecut recent de la categoria mică la cea mijlocie în sensul Anexei la Recomandarea 2003/361/CE (articolul 16), au acces la aceste inițiative și orientări pentru o perioadă considerată adecvată de către statele membre, deoarece este posibil ca aceste noi întreprinderi mijlocii să nu dispună uneori de resursele juridice și formarea necesare pentru a asigura înțelegerea adecvată și respectarea dispozițiilor.
Amendamentul 121
Propunere de regulament
Considerentul 74
(74)  Pentru a reduce la minimum riscurile la adresa punerii în aplicare care decurg din lipsa de cunoștințe și de expertiză de pe piață, precum și pentru a facilita respectarea de către furnizori și organismele notificate a obligațiilor care le revin în temeiul prezentului regulament, platforma de IA la cerere, centrele europene de inovare digitală și instalațiile de testare și experimentare instituite de Comisie și de statele membre la nivel național sau la nivelul UE ar trebui, eventual, să contribuie la punerea în aplicare a prezentului regulament. În cadrul misiunii și domeniilor lor de competență respective, aceștia pot oferi, în special, sprijin tehnic și științific furnizorilor și organismelor notificate.
(74)  Pentru a reduce la minimum riscurile la adresa punerii în aplicare care decurg din lipsa de cunoștințe și de expertiză de pe piață, precum și pentru a facilita respectarea de către furnizori și organismele notificate a obligațiilor care le revin în temeiul prezentului regulament, platforma de IA la cerere, centrele europene de inovare digitală și instalațiile de testare și experimentare instituite de Comisie și de statele membre la nivel național sau la nivelul UE ar trebui să contribuie la punerea în aplicare a prezentului regulament. În cadrul misiunii și domeniilor lor de competență respective, aceștia pot oferi, în special, sprijin tehnic și științific furnizorilor și organismelor notificate.
Amendamentul 122
Propunere de regulament
Considerentul 76
(76)  Pentru a facilita o punere în aplicare armonioasă, eficace și armonizată a prezentului regulament, ar trebui instituit un Comitet european pentru inteligența artificială. Comitetul ar trebui să fie responsabil pentru o serie de sarcini consultative, inclusiv emiterea de avize, recomandări, consiliere sau orientări cu privire la aspecte legate de punerea în aplicare a prezentului regulament, inclusiv cu privire la specificațiile tehnice sau standardele existente referitoare la cerințele stabilite în prezentul regulament, precum și furnizarea de consiliere și asistență Comisiei cu privire la chestiuni specifice legate de inteligența artificială.
(76)  Pentru a evita fragmentarea, pentru a asigura funcționarea optimă a pieței unice, pentru a asigura punerea în aplicare eficace și armonizată a prezentului regulament, pentru a atinge un nivel ridicat de încredere și de protecție a sănătății și siguranței, a drepturilor fundamentale, a mediului, a democrației și a statului de drept în întreaga Uniune în ceea ce privește sistemele de IA, pentru a sprijini în mod activ autoritățile naționale de supraveghere, instituțiile, organele, oficiile și agențiile Uniunii în chestiuni legate de prezentul regulament și pentru a spori gradul de utilizare a inteligenței artificiale în întreaga Uniune, ar trebui instituit un Oficiu al Uniunii Europene pentru inteligența artificială. Oficiul pentru IA ar trebui să aibă personalitate juridică, ar trebui să acționeze în deplină independență, ar trebui să fie responsabil pentru o serie de sarcini consultative și de coordonare, inclusiv emiterea de avize, recomandări, consiliere sau orientări cu privire la aspecte legate de punerea în aplicare a prezentului regulament și ar trebui să fie finanțat și dotat cu personal în mod adecvat. Statele membre ar trebui să asigure conducerea strategică și controlul Oficiului pentru IA prin consiliul de administrație al Oficiului pentru IA, alături de Comisie, FRA și ENISA. Un director executiv ar trebui să fie responsabil de gestionarea activităților secretariatului Oficiului pentru IA și de reprezentarea Oficiului pentru IA. Părțile interesate ar trebui să participe în mod formal la activitatea Oficiului pentru IA printr-un forum consultativ care ar trebui să asigure reprezentarea variată și echilibrată a părților interesate și să consilieze Oficiul pentru IA asupra chestiunilor legate de prezentul regulament. În cazul în care înființarea Oficiului pentru IA se dovedește a fi insuficientă pentru a asigura o aplicare pe deplin coerentă a prezentului regulament la nivelul Uniunii, precum și măsuri eficiente de asigurare a respectării legislației la nivel transfrontalier, ar trebui luată în considerare crearea unei agenții pentru IA.
Amendamentul 123
Propunere de regulament
Considerentul 77
(77)  Statele membre joacă un rol esențial în aplicarea și asigurarea respectării prezentului regulament. În acest sens, fiecare stat membru ar trebui să desemneze una sau mai multe autorități naționale competente în scopul supravegherii aplicării și punerii în aplicare a prezentului regulament. Pentru a spori eficiența organizațională din partea statelor membre și pentru a stabili un punct oficial de contact cu publicul și cu alți omologi la nivelul statelor membre și al Uniunii, în fiecare stat membru, o autoritate națională ar trebui desemnată drept autoritate națională de supraveghere.
(77)  În acest sens, fiecare stat membru ar trebui să desemneze o autoritate națională competentă în scopul supravegherii aplicării și punerii în aplicare a prezentului regulament. Aceasta ar trebui să își reprezinte statul membru și în Consiliul de administrație al Oficiului pentru IA. Pentru a spori eficiența organizațională din partea statelor membre și pentru a stabili un punct oficial de contact cu publicul și cu alți omologi la nivelul statelor membre și al Uniunii. Fiecare autoritate națională de supraveghere ar trebui acționeze în deplină independență în îndeplinirea sarcinilor sale și exercitarea competențelor sale în conformitate cu prezentul regulament.
Amendamentul 124
Propunere de regulament
Considerentul 77 a (nou)
(77a)  Autoritățile naționale de supraveghere ar trebui să monitorizeze aplicarea dispozițiilor în temeiul prezentului regulament și să contribuie la aplicarea consecventă a acestuia în întreaga Uniune. În acest scop, autoritățile naționale de supraveghere ar trebui să coopereze între ele, cu autoritățile naționale competente relevante, cu Comisia și cu Oficiul pentru IA.
Amendamentul 125
Propunere de regulament
Considerentul 77 b (nou)
(77b)  Membrul sau personalul fiecărei autorități de supraveghere ar trebui, în conformitate cu dreptul Uniunii sau cu dreptul intern, să respecte atât pe parcursul mandatului, cât și după încetarea acestuia, secretul profesional în ceea ce privește informațiile confidențiale de care au luat cunoștință în cursul îndeplinirii sarcinilor sau al exercitării competențelor lor. Pe durata mandatului lor, această obligație de păstrare a secretului profesional ar trebui să se aplice în special în ceea ce privește secretele comerciale și raportarea de către persoane fizice a încălcărilor prezentului regulament.
Amendamentul 126
Propunere de regulament
Considerentul 78
(78)  Pentru a se asigura că furnizorii de sisteme de IA cu grad ridicat de risc pot ține seama de experiența privind utilizarea sistemelor de IA cu grad ridicat de risc pentru îmbunătățirea sistemelor lor și a procesului de proiectare și dezvoltare sau că pot lua orice măsură corectivă posibilă în timp util, toți furnizorii ar trebui să dispună de un sistem de monitorizare ulterioară introducerii pe piață. Acest sistem este, de asemenea, esențial pentru a se asigura că posibilele riscuri care decurg din sistemele de IA care continuă să „învețe” după ce au fost introduse pe piață sau puse în funcțiune pot fi abordate într-un mod mai eficient și la timp. În acest context, furnizorii ar trebui, de asemenea, să aibă obligația de a dispune de un sistem pentru a raporta autorităților relevante orice incident grav sau orice încălcare a legislației naționale și a Uniunii care protejează drepturile fundamentale, ca urmare a utilizării sistemelor lor de IA.
(78)  Pentru a se asigura că furnizorii de sisteme de IA cu grad ridicat de risc pot ține seama de experiența privind utilizarea sistemelor de IA cu grad ridicat de risc pentru îmbunătățirea sistemelor lor și a procesului de proiectare și dezvoltare sau că pot lua orice măsură corectivă posibilă în timp util, toți furnizorii ar trebui să dispună de un sistem de monitorizare ulterioară introducerii pe piață. Acest sistem este, de asemenea, esențial pentru a se asigura că posibilele riscuri care decurg din sistemele de IA care continuă să „învețe” sau să evolueze după ce au fost introduse pe piață sau puse în funcțiune pot fi abordate într-un mod mai eficient și la timp. În acest context, furnizorii ar trebui, de asemenea, să aibă obligația de a dispune de un sistem pentru a raporta autorităților relevante orice incident grav sau orice încălcare a legislației naționale și a Uniunii, inclusiv a celor care protejează drepturile fundamentale și drepturile consumatorilor, ca urmare a utilizării sistemelor lor de IA și să ia măsuri corective corespunzătoare. Operatorii ar trebui să comunice autorităților competente orice incident grav sau orice încălcare a dreptului național și al Uniunii care se produce ca urmare a utilizării sistemelor lor de IA, atunci când iau cunoștință de astfel de incidente sau încălcări grave.
Amendamentul 127
Propunere de regulament
Considerentul 79
(79)  Pentru a asigura o aplicare adecvată și eficace a cerințelor și a obligațiilor prevăzute în prezentul regulament, și anume în legislația de armonizare a Uniunii, sistemul de supraveghere a pieței și de conformitate a produselor instituit prin Regulamentul (UE) 2019/1020 ar trebui să se aplice în întregime. În cazul în care acest lucru este necesar pentru îndeplinirea mandatului lor, autoritățile sau organismele publice naționale care supraveghează aplicarea dreptului Uniunii care protejează drepturile fundamentale, inclusiv organismele de promovare a egalității, ar trebui să aibă, de asemenea, acces la orice documentație creată în temeiul prezentului regulament.
(79)  Pentru a asigura o aplicare adecvată și eficace a cerințelor și a obligațiilor prevăzute în prezentul regulament, și anume în legislația de armonizare a Uniunii, sistemul de supraveghere a pieței și de conformitate a produselor instituit prin Regulamentul (UE) 2019/1020 ar trebui să se aplice în întregime. În sensul prezentului regulament, autoritățile naționale de supraveghere ar trebui să acționeze în calitate de autorități de supraveghere a pieței pentru sistemele de IA care intră sub incidența prezentului regulament, cu excepția sistemelor de IA care intră sub incidența anexei II la prezentul regulament. Pentru sistemele de IA care fac obiectul actelor juridice enumerate în anexa II, autoritățile competente în temeiul respectivelor acte juridice ar trebui să rămână autoritatea principală. Autoritățile naționale de supraveghere și autoritățile competente prevăzute în actele juridice enumerate în anexa II ar trebui să colaboreze ori de câte ori este necesar. Atunci când este cazul, autoritățile competente prevăzute în actele juridice enumerate în anexa II ar trebui să trimită personal competent la autoritatea națională de supraveghere pentru a contribui la îndeplinirea sarcinilor acesteia. În sensul prezentului regulament, autoritățile naționale de supraveghere ar trebui să aibă aceleași competențe și obligații ca și autoritățile de supraveghere a pieței în temeiul Regulamentului (UE) 2019/1020. În cazul în care acest lucru este necesar pentru îndeplinirea mandatului lor, autoritățile sau organismele publice naționale care supraveghează aplicarea dreptului Uniunii care protejează drepturile fundamentale, inclusiv organismele de promovare a egalității, ar trebui să aibă, de asemenea, acces la orice documentație creată în temeiul prezentului regulament. După epuizarea tuturor celorlalte modalități rezonabile de evaluare/verificare a conformității și în urma unei cereri motivate, autorității naționale de supraveghere ar trebui să i se acorde acces la seturile de date de antrenament, de validare și de testare, la modelul antrenat și modelul de antrenament al sistemului de IA cu grad ridicat de risc, inclusiv la parametrii relevanți ai modelului și la mediul lor de executare/desfășurare. În cazul unor sisteme software mai simple care intră sub incidența prezentului regulament și care nu se bazează pe modele antrenate și în cazul în care toate celelalte modalități de verificare a conformității au fost epuizate, autoritatea națională de supraveghere poate avea, în mod excepțional, acces la codul sursă, pe baza unei cereri motivate. Dacă autorității naționale de supraveghere i s-a acordat accesul la seturile de date de antrenare, validare și testare în conformitate cu prezentul regulament, acest acces ar trebui realizat prin mijloace și instrumente tehnice adecvate, inclusiv acces la fața locului și, în circumstanțe excepționale, acces de la distanță. Autoritatea națională de supraveghere ar trebui să trateze orice informație, inclusiv codul sursă, software-ul și datele, după caz, obținute ca informații confidențiale și să respecte legislația relevantă a Uniunii privind protecția proprietății intelectuale și a secretelor comerciale. Autoritatea națională de supraveghere ar trebui să șteargă orice informație obținută la încheierea investigației.
Amendamentul 128
Propunere de regulament
Considerentul 80
(80)  Legislația Uniunii privind serviciile financiare include norme și cerințe privind guvernanța internă și gestionarea riscurilor care sunt aplicabile instituțiilor financiare reglementate în cursul furnizării acestor servicii, inclusiv atunci când acestea utilizează sisteme de IA. Pentru a asigura aplicarea și asigurarea respectării coerente a obligațiilor prevăzute în prezentul regulament și a normelor și cerințelor relevante ale legislației Uniunii în domeniul serviciilor financiare, autoritățile responsabile cu supravegherea și asigurarea respectării legislației privind serviciile financiare, inclusiv, după caz, Banca Centrală Europeană, ar trebui desemnate drept autorități competente în scopul supravegherii punerii în aplicare a prezentului regulament, inclusiv pentru activitățile de supraveghere a pieței, în ceea ce privește sistemele de IA furnizate sau utilizate de instituțiile financiare reglementate și supravegheate. Pentru a spori și mai mult coerența dintre prezentul regulament și normele aplicabile instituțiilor de credit reglementate în temeiul Directivei 2013/36/UE a Parlamentului European și a Consiliului56, este, de asemenea, oportun să se integreze procedura de evaluare a conformității și unele dintre obligațiile procedurale ale furnizorilor în ceea ce privește gestionarea riscurilor, monitorizarea ulterioară introducerii pe piață și documentația în obligațiile și procedurile existente în temeiul Directivei 2013/36/UE. Pentru a evita suprapunerile, ar trebui avute în vedere derogări limitate și în ceea ce privește sistemul de management al calității furnizorilor și obligația de monitorizare impusă utilizatorilor de sisteme de IA cu grad ridicat de risc, în măsura în care acestea se aplică instituțiilor de credit reglementate de Directiva 2013/36/UE.
(80)  Dreptul Uniunii privind serviciile financiare include norme și cerințe privind guvernanța internă și gestionarea riscurilor care sunt aplicabile instituțiilor financiare reglementate în cursul furnizării acestor servicii, inclusiv atunci când acestea utilizează sisteme de IA. Pentru a asigura aplicarea și asigurarea respectării coerente a obligațiilor prevăzute în prezentul regulament și a normelor și cerințelor relevante ale dreptului Uniunii în domeniul serviciilor financiare, autoritățile competente responsabile cu supravegherea și asigurarea respectării dreptului privind serviciile financiare, inclusiv, după caz, Banca Centrală Europeană, ar trebui desemnate drept autorități competente în scopul supravegherii punerii în aplicare a prezentului regulament, inclusiv pentru activitățile de supraveghere a pieței, în ceea ce privește sistemele de IA furnizate sau utilizate de instituțiile financiare reglementate și supravegheate. Pentru a spori și mai mult coerența dintre prezentul regulament și normele aplicabile instituțiilor de credit reglementate în temeiul Directivei 2013/36/UE a Parlamentului European și a Consiliului56, este, de asemenea, oportun să se integreze procedura de evaluare a conformității și unele dintre obligațiile procedurale ale furnizorilor în ceea ce privește gestionarea riscurilor, monitorizarea ulterioară introducerii pe piață și documentația în obligațiile și procedurile existente în temeiul Directivei 2013/36/UE. Pentru a evita suprapunerile, ar trebui avute în vedere derogări limitate și în ceea ce privește sistemul de management al calității furnizorilor și obligația de monitorizare impusă operatorilor de sisteme de IA cu grad ridicat de risc, în măsura în care acestea se aplică instituțiilor de credit reglementate de Directiva 2013/36/UE.
__________________
__________________
56 Directiva 2013/36/UE a Parlamentului European și a Consiliului din 26 iunie 2013 cu privire la accesul la activitatea instituțiilor de credit și supravegherea prudențială a instituțiilor de credit și a firmelor de investiții, de modificare a Directivei 2002/87/CE și de abrogare a Directivelor 2006/48/CE și 2006/49/CE (JO L 176, 27.6.2013, p. 338).
56 Directiva 2013/36/UE a Parlamentului European și a Consiliului din 26 iunie 2013 cu privire la accesul la activitatea instituțiilor de credit și supravegherea prudențială a instituțiilor de credit și a firmelor de investiții, de modificare a Directivei 2002/87/CE și de abrogare a Directivelor 2006/48/CE și 2006/49/CE (JO L 176, 27.6.2013, p. 338).
Amendamentul 129
Propunere de regulament
Considerentul 80 a (nou)
(80a)  Având în vedere obiectivele prezentului regulament, și anume de a asigura un nivel echivalent de protejare a sănătății, a siguranței și a drepturilor fundamentale ale persoanelor fizice, de a asigura protejarea statului de drept și a democrației și ținând seama de posibilitatea ca riscurile pe care le prezintă sistemele de IA pentru aceste drepturi să nu fie reduse mulțumitor la nivel național sau ca acest lucru să fie interpretat diferit, ceea ce ar putea crea, în cele din urmă, situația în care persoanele fizice să fie protejate inegal, iar piața să fie fragmentată, autoritățile naționale de supraveghere ar trebui să fie împuternicite să efectueze investigații comune sau să se bazeze pe procedura de salvgardare la nivelul Uniunii prevăzută în prezentul regulament pentru o aplicare eficace. Ar trebui inițiate anchete comune atunci când autoritatea națională de supraveghere are suficiente motive să considere că o încălcare a prezentului regulament constituie o încălcare pe scară largă sau o încălcare pe scară largă cu o dimensiune specifică Uniunii sau atunci când sistemul de IA sau modelul de bază prezintă un risc care afectează sau este susceptibil să afecteze cel puțin 45 de milioane de persoane din cel puțin două state membre.
Amendamentul 130
Propunere de regulament
Considerentul 82
(82)  Este important ca sistemele de IA legate de produse care nu prezintă un risc ridicat în conformitate cu prezentul regulament și care, prin urmare, nu sunt obligate să respecte cerințele prevăzute în prezentul regulament să fie totuși sigure atunci când sunt introduse pe piață sau puse în funcțiune. Pentru a contribui la acest obiectiv, Directiva 2001/95/CE a Parlamentului European și a Consiliului57 ar fi aplicată ca o „plasă de siguranță”.
(82)  Este important ca sistemele de IA legate de produse care nu prezintă un risc ridicat în conformitate cu prezentul regulament și care, prin urmare, nu sunt obligate să respecte cerințele prevăzute pentru sistemele de IA cu grad ridicat de risc să fie totuși sigure atunci când sunt introduse pe piață sau puse în funcțiune. Pentru a contribui la acest obiectiv, Directiva 2001/95/CE a Parlamentului European și a Consiliului57 ar fi aplicată ca o „plasă de siguranță”.
__________________
__________________
57 Directiva 2001/95/CE a Parlamentului European și a Consiliului din 3 decembrie 2001 privind siguranța generală a produselor (JO L 11, 15.1.2002, p. 4).
57 Directiva 2001/95/CE a Parlamentului European și a Consiliului din 3 decembrie 2001 privind siguranța generală a produselor (JO L 11, 15.1.2002, p. 4).
Amendamentul 131
Propunere de regulament
Considerentul 83
(83)  Pentru a asigura o cooperare de încredere și constructivă a autorităților competente la nivelul Uniunii și la nivel național, toate părțile implicate în aplicarea prezentului regulament ar trebui să respecte confidențialitatea informațiilor și a datelor obținute în cursul îndeplinirii sarcinilor lor.
(83)  Pentru a asigura o cooperare de încredere și constructivă a autorităților competente la nivelul Uniunii și la nivel național, toate părțile implicate în aplicarea prezentului regulament ar trebui să urmărească asigurarea transparenței și a deschiderii, respectând totodată confidențialitatea informațiilor și a datelor obținute în cursul îndeplinirii sarcinilor lor, prin instituirea de măsuri tehnice și organizatorice pentru a proteja securitatea și confidențialitatea informațiilor obținute în cadrul activităților lor, inclusiv în ceea ce privește drepturile de proprietate intelectuală și interesele de securitate publică și națională. În cazurile în care activitatea Comisiei, a autorităților naționale competente și a organismelor notificate în temeiul prezentului regulament are ca rezultat o încălcare a drepturilor de proprietate intelectuală, statele membre prevăd măsurile, procedurile și căile de atac necesare pentru a asigura respectarea drepturilor de proprietate intelectuală în aplicarea Directivei 2004/48/CE.
Amendamentul 132
Propunere de regulament
Considerentul 84
(84)  Statele membre ar trebui să ia toate măsurile necesare pentru a se asigura că dispozițiile prezentului regulament sunt puse în aplicare, inclusiv prin stabilirea unor sancțiuni eficace, proporționale și disuasive în cazul încălcării acestora. Pentru anumite încălcări specifice, statele membre ar trebui să țină seama de marjele și de criteriile stabilite în prezentul regulament. Autoritatea Europeană pentru Protecția Datelor ar trebui să aibă competența de a impune amenzi instituțiilor, agențiilor și organelor Uniunii care intră în domeniul de aplicare al prezentului regulament.
(84)  Respectarea prezentului regulament ar trebui să poată fi asigurată prin amenzi impuse de autoritatea națională de supraveghere atunci când desfășoară proceduri în conformitate cu procedura prevăzută de prezentul regulament. Statele membre ar trebui să ia toate măsurile necesare pentru a se asigura că dispozițiile prezentului regulament sunt puse în aplicare, inclusiv prin stabilirea unor sancțiuni eficace, proporționale și disuasive în cazul încălcării acestora. În scopul de a consolida și armoniza sancțiunilor administrative pentru încălcarea prezentului regulament, ar trebui definite limitele superioare pentru stabilirea amenzilor administrative pentru anumite încălcări specifice. Atunci când evaluează cuantumul amenzilor, autoritățile naționale competente ar trebui, în fiecare caz în parte, să țină seama de toate circumstanțele relevante ale situației specifice, acordând atenția cuvenită, în special, naturii, gravității și duratei încălcării și consecințelor acesteia, precum și dimensiunii furnizorului, în special în cazul în care furnizorul este o IMM sau o întreprindere nou-înființată. Autoritatea Europeană pentru Protecția Datelor ar trebui să aibă competența de a impune amenzi instituțiilor, agențiilor și organelor Uniunii care intră în domeniul de aplicare al prezentului regulament. Sancțiunile și cheltuielile de judecată în temeiul prezentului regulament nu ar trebui să fie supuse unor clauze contractuale sau altor înțelegeri.
Amendamentul 133
Propunere de regulament
Considerentul 84 a (nou)
(84a)  Întrucât drepturile și libertățile persoanelor fizice și juridice și ale grupurilor de persoane fizice pot fi grav subminate de sistemele de IA, este esențial ca persoanele fizice și juridice sau grupurile de persoane fizice să aibă acces corespunzător la mecanisme de raportare și de reparare și să aibă dreptul la căi de atac proporționale și eficace. Ele ar trebui să aibă posibilitatea de a raporta autorității lor naționale de supraveghere încălcările prezentului regulament și să aibă dreptul de a depune o plângere împotriva furnizorilor sau operatorilor de sisteme de IA. După caz, operatorii ar trebui să pună la dispoziție mecanisme interne de depunere a plângerilor care să fie utilizate de persoanele fizice și juridice sau de grupurile de persoane fizice. Fără a se aduce atingere eventualelor căi de atac judiciare, administrative sau nejudiciare, persoanele fizice și juridice și grupurile de persoane fizice ar trebui, de asemenea, să aibă dreptul la o cale de atac judiciară eficientă pentru o decizie cu caracter juridic obligatoriu care îi vizează luată de o autoritate națională de supraveghere sau pentru plângere, în cazul în care autoritatea națională de supraveghere nu tratează plângerea, nu informează reclamantul cu privire la evoluția sau rezultatul preliminar al plângerii depuse sau nu își respectă obligația de a ajunge la o decizie finală.
Amendamentul 134
Propunere de regulament
Considerentul 84 b (nou)
(84b)  Persoanele afectate ar trebui să fie întotdeauna informate că fac obiectul utilizării unui sistem de IA cu grad ridicat de risc atunci când operatorii utilizează un sistem de IA cu grad ridicat de risc pentru a asista la luarea deciziilor sau pentru a lua decizii legate de persoane fizice. Aceste informații pot oferi o bază pentru ca persoanele afectate să își exercite dreptul la o explicație în temeiul prezentului regulament. Atunci când operatorii oferă o explicație persoanelor afectate în temeiul prezentului regulament, aceștia ar trebui să țină seama de nivelul de competență și de cunoștințe al persoanei sau al consumatorului mediu.
Amendamentul 135
Propunere de regulament
Considerentul 84 c (nou)
(84c)  Legislația Uniunii privind protecția avertizorilor [Directiva (UE) 2019/1937] se aplică pe deplin pentru mediul academic, proiectanți, dezvoltatori, contribuitorii la proiecte, auditori, managerii de produse, ingineri și operatorii economici care obțin informații despre încălcări ale dreptului Uniunii de către un furnizor de sisteme de IA sau de către sistemele sale de IA.
Amendamentul 136
Propunere de regulament
Considerentul 85
(85)  Pentru a se asigura posibilitatea de adaptare a cadrului de reglementare atunci când este necesar, competența de a adopta acte în conformitate cu articolul 290 din TFUE ar trebui delegată Comisiei pentru a modifica tehnicile și abordările menționate în anexa I pentru definirea sistemelor de IA, legislația de armonizare a Uniunii enumerată în anexa II, sistemele de IA cu grad ridicat de risc enumerate în anexa III, dispozițiile privind documentația tehnică enumerate în anexa IV, conținutul declarației de conformitate UE din anexa V, dispozițiile privind procedurile de evaluare a conformității din anexele VI și VII și dispozițiile de stabilire a sistemelor de IA cu grad ridicat de risc cărora ar trebui să li se aplice procedura de evaluare a conformității bazată pe evaluarea sistemului de management al calității și evaluarea documentației tehnice. Este deosebit de important ca, în cursul lucrărilor sale pregătitoare, Comisia să organizeze consultări corespunzătoare, inclusiv la nivel de experți, și ca respectivele consultări să se desfășoare în conformitate cu principiile stabilite în Acordul interinstituțional privind o mai bună legiferare, adoptat la 13 aprilie 201658. În special, pentru a asigura participarea egală la pregătirea actelor delegate, Parlamentul European și Consiliul primesc toate documentele în același timp cu experții din statele membre, iar experții acestor instituții au acces sistematic la reuniunile grupurilor de experți ale Comisiei însărcinate cu pregătirea actelor delegate.
(85)  Pentru a se asigura posibilitatea de adaptare a cadrului de reglementare atunci când este necesar, competența de a adopta acte în conformitate cu articolul 290 din TFUE ar trebui delegată Comisiei pentru a modifica legislația de armonizare a Uniunii enumerată în anexa II, sistemele de IA cu grad ridicat de risc enumerate în anexa III, dispozițiile privind documentația tehnică enumerate în anexa IV, conținutul declarației de conformitate UE din anexa V, dispozițiile privind procedurile de evaluare a conformității din anexele VI și VII și dispozițiile de stabilire a sistemelor de IA cu grad ridicat de risc cărora ar trebui să li se aplice procedura de evaluare a conformității bazată pe evaluarea sistemului de management al calității și evaluarea documentației tehnice. Este deosebit de important ca, în cursul lucrărilor sale pregătitoare, Comisia să organizeze consultări corespunzătoare, inclusiv la nivel de experți, și ca respectivele consultări să se desfășoare în conformitate cu principiile stabilite în Acordul interinstituțional privind o mai bună legiferare, adoptat la 13 aprilie 201658. Aceste consultări ar trebui să implice participarea unei selecții echilibrate de părți interesate, inclusiv organizații ale consumatorilor, societatea civilă, asociații care reprezintă persoanele afectate, reprezentanți ai întreprinderilor din diferite sectoare și de diferite dimensiuni, precum și cercetători și oameni de știință. În special, pentru a asigura participarea egală la pregătirea actelor delegate, Parlamentul European și Consiliul primesc toate documentele în același timp cu experții din statele membre, iar experții acestor instituții au acces sistematic la reuniunile grupurilor de experți ale Comisiei însărcinate cu pregătirea actelor delegate.
__________________
__________________
58 JO L 123, 12.5.2016, p. 1.
58 JO L 123, 12.5.2016, p. 1.
Amendamentul 137
Propunere de regulament
Considerentul 85 a (nou)
(85a)  Având în vedere evoluțiile tehnologice rapide și competențele tehnice necesare pentru efectuarea evaluării sistemelor de IA cu grad ridicat de risc, Comisia ar trebui să revizuiască periodic punerea în aplicare a prezentului regulament, în special a sistemelor de IA interzise, a obligațiilor de transparență și a listei domeniilor cu grad ridicat de risc și a cazurilor de utilizare, cel puțin în fiecare an, consultând în același timp Oficiul pentru IA și părțile interesate relevante.
Amendamentul 138
Propunere de regulament
Considerentul 87 a (nou)
(87a)  Întrucât informațiile fiabile privind consumul de resurse și de energie, producția de deșeuri și alte efecte asupra mediului ale sistemelor de IA și ale tehnologiei TIC aferente, inclusiv ale software-ului, ale hardware-ului și mai ales ale centrelor de date, sunt limitate, Comisia ar trebui să introducă o metodologie adecvată pentru a măsura impactul asupra mediului și eficacitatea prezentului regulament, având în vedere obiectivele Uniunii în materie de mediu și climă.
Amendamentul 139
Propunere de regulament
Considerentul 89
(89)  Autoritatea Europeană pentru Protecția Datelor și Comitetul european pentru protecția datelor au fost consultate în conformitate cu articolul 42 alineatul (2) din Regulamentul (UE) 2018/1725 și au emis un aviz la [...]”,
(89)  Autoritatea Europeană pentru Protecția Datelor și Comitetul european pentru protecția datelor au fost consultate în conformitate cu articolul 42 alineatul (2) din Regulamentul (UE) 2018/1725 și au emis un aviz la 18 iunie 2021.
Amendamentul 140
Propunere de regulament
Articolul 1 – alineatul 1 (nou)
1.  Scopul prezentului regulament este de a promova adoptarea inteligenței artificiale centrate pe factorul uman și fiabile și de a asigura un nivel ridicat de protecție a sănătății, siguranței, drepturilor fundamentale, democrației și statului de drept și a mediului împotriva efectelor dăunătoare ale sistemelor de inteligență artificială din Uniune, sprijinind, în același timp, inovarea;
Amendamentul 141
Propunere de regulament
Articolul 1 – paragraful 1 – litera d
(d)  norme armonizate de transparență pentru sistemele de IA destinate să interacționeze cu persoane fizice, pentru sistemele de recunoaștere a emoțiilor, pentru sistemele biometrice de clasificare și pentru sistemele de IA utilizate pentru a genera sau a manipula imagini, conținuturi audio sau video;
(d)  norme armonizate de transparență pentru anumite sisteme de IA;
Amendamentul 142
Propunere de regulament
Articolul 1 – paragraful 1 – litera e
(e)  norme privind monitorizarea și supravegherea pieței.
(e)  norme privind monitorizarea pieței, supravegherea pieței, guvernanța și asigurarea respectării;
Amendamentul 143
Propunere de regulament
Articolul 1 – paragraful 1 – litera ea (nouă)
(ea)  măsuri de susținere a inovării, cu un accent deosebit pe IMM-uri și pe întreprinderile nou-înființate, inclusiv crearea unor spații de testare în materie de reglementare și măsuri specifice pentru a reduce sarcinile de reglementare ale IMM-urilor și ale întreprinderilor nou-înființate;
Amendamentul 144
Propunere de regulament
Articolul 1 – paragraful 1 – litera eb (nouă)
(eb)  norme privind instituirea și funcționarea Oficiului Uniunii Europene pentru inteligența artificială (Oficiul pentru IA).
Amendamentul 145
Propunere de regulament
Articolul 2 – alineatul 1 – litera b
(b)  utilizatorii sistemelor de IA situați pe teritoriul Uniunii;
(b)  operatorii sistemelor de IA care își au sediul sau care sunt situați pe teritoriul Uniunii;
Amendamentul 146
Propunere de regulament
Articolul 2 – alineatul 1 – litera c
(c)  furnizorii și utilizatorii de sisteme de IA care sunt situați într-o țară terță, în cazul în care rezultatele produse de sistem sunt utilizate în Uniune.
(c)  furnizorii și operatorii de sisteme de IA care își au sediul sau care sunt situați într-o țară terță, în cazul în care fie se aplică dreptul unui stat membru în temeiul unui drept internațional public, fie rezultatul produs de sistem este destinat să fie utilizat în Uniune;
Amendamentul 147
Propunere de regulament
Articolul 2 – alineatul 1 – litera ca (nouă)
(ca)  furnizorii care introduc pe piață sau pun în funcțiune sistemele de IA menționate la articolul 5 în afara Uniunii, dacă furnizorul sau distribuitorul acestor sisteme este situat în Uniune;
Amendamentul 148
Propunere de regulament
Articolul 2 – alineatul 1 – litera cb (nouă)
(cb)  importatorii și distribuitorii de sisteme de IA, precum și reprezentanții autorizați ai furnizorilor de sisteme de IA, în cazul în care acești importatori, distribuitori sau reprezentanți autorizați își au sediul sau sunt situați în Uniune;
Amendamentul 149
Propunere de regulament
Articolul 2 – alineatul 1 – litera cc (nouă)
(cc)  persoanele afectate, definite la articolul 3 alineatul (8a), care sunt situate în Uniune și ale căror sănătate, siguranță sau drepturi fundamentale sunt afectate în mod negativ de utilizarea unui sistem de IA care este introdus pe piață sau pus în funcțiune în Uniune.
Amendamentul 150
Propunere de regulament
Articolul 2 – alineatul 2 – partea introductivă
2.  În cazul sistemelor de IA cu grad ridicat de risc care sunt componente de siguranță ale unor produse sau sisteme sau care sunt ele însele produse sau sisteme, care intră în domeniul de aplicare al următoarelor acte legislative, se aplică numai articolul 84 din prezentul regulament:
2.  În cazul sistemelor de IA cu grad ridicat de risc care sunt componente de siguranță ale unor produse sau sisteme sau care sunt ele însele produse sau sisteme și care intră în domeniul de aplicare al legislației de armonizare enumerate în anexa II secțiunea B, se aplică numai articolul 84 din prezentul regulament.
Amendamentul 151
Propunere de regulament
Articolul 2 – alineatul 2 – litera a
(a)  Regulamentul (CE) 300/2008;
eliminat
Amendamentul 152
Propunere de regulament
Articolul 2 – alineatul 2 – litera b
(b)  Regulamentul (UE) nr. 167/2013;
eliminat
Amendamentul 153
Propunere de regulament
Articolul 2 – alineatul 2 – litera c
(c)  Regulamentul (UE) nr. 168/2013;
eliminat
Amendamentul 154
Propunere de regulament
Articolul 2 – alineatul 2 – litera d
(d)  Directiva 2014/90/UE;
eliminat
Amendamentul 155
Propunere de regulament
Articolul 2 – alineatul 2 – litera e
(e)  Directiva (UE) 2016/797;
eliminat
Amendamentul 156
Propunere de regulament
Articolul 2 – alineatul 2 – litera f
(f)  Regulamentul (UE) 2018/858;
eliminat
Amendamentul 157
Propunere de regulament
Articolul 2 – alineatul 2 – litera g
(g)  Regulamentul (UE) 2018/1139;
eliminat
Amendamentul 158
Propunere de regulament
Articolul 2 – alineatul 2 – litera h
(h)  Regulamentul (UE) 2019/2144.
eliminat
Amendamentul 159
Propunere de regulament
Articolul 2 – alineatul 4
4.  Prezentul regulament nu se aplică autorităților publice dintr-o țară terță și nici organizațiilor internaționale care intră în domeniul de aplicare al prezentului regulament în temeiul alineatului (1), în cazul în care respectivele autorități sau organizații utilizează sisteme de IA în cadrul acordurilor internaționale pentru asigurarea respectării legii și pentru cooperarea judiciară cu Uniunea sau cu unul sau mai multe state membre.
4.  Prezentul regulament nu se aplică autorităților publice dintr-o țară terță și nici organizațiilor internaționale care intră în domeniul de aplicare al prezentului regulament în temeiul alineatului (1), în cazul în care respectivele autorități sau organizații utilizează sisteme de IA în cadrul cooperării sau acordurilor internaționale pentru asigurarea respectării legii și pentru cooperarea judiciară cu Uniunea sau cu unul sau mai multe state membre și fac obiectul unei decizii a Comisiei, adoptată în conformitate cu articolul 36 din Directiva (UE) 2016/680 sau cu articolul 45 din Regulamentul 2016/679 (decizie privind adecvarea) sau fac parte dintr-un acord internațional încheiat între Uniune și țara terță sau organizația internațională respectivă în temeiul articolului 218 din TFUE, care prevede garanții adecvate cu privire la protecția confidențialității și a drepturilor și libertăților fundamentale ale persoanelor.
Amendamentul 160
Propunere de regulament
Articolul 2 – alineatul 5 a (nou)
5a.  Legislația Uniunii privind protecția datelor cu caracter personal, a vieții private și a confidențialității comunicațiilor se aplică prelucrării datelor cu caracter personal în legătură cu drepturile și obligațiile prevăzute în prezentul regulament. Prezentul regulament nu afectează Regulamentele (UE) 2016/679 și (UE) 2018/1725 și Directivele 2002/58/CE și (UE) 2016/680, fără a aduce atingere dispozițiilor prevăzute la articolul 10 alineatul (5) și la articolul 54 din prezentul regulament;
Amendamentul 161
Propunere de regulament
Articolul 2 – alineatul 5 b (nou)
5b.  Prezentul regulament nu aduce atingere normelor prevăzute de alte acte juridice ale Uniunii referitoare la protecția consumatorilor și la siguranța produselor;
Amendamentul 162
Propunere de regulament
Articolul 2 – alineatul 5 c (nou)
5c.  Prezentul regulament nu împiedică statele membre sau Uniunea să mențină sau să introducă acte cu putere de lege și acte administrative mai favorabile lucrătorilor privind protejarea drepturilor acestora în ceea ce privește utilizarea sistemelor de IA de către angajatori sau să încurajeze sau să permită aplicarea unor contracte colective de muncă mai favorabile lucrătorilor.
Amendamentul 163
Propunere de regulament
Articolul 2 – alineatul 5 d (nou)
5d.  Prezentul regulament nu se aplică activităților de cercetare, testare și dezvoltare referitoare la un sistem de IA înainte ca sistemul să fie introdus pe piață sau pus în funcțiune, cu condiția ca aceste activități să se desfășoare respectându-se drepturile fundamentale și dreptul aplicabil al Uniunii. Testarea în condiții reale nu intră sub incidența acestei exceptări. Comisia este împuternicită, în conformitate cu articolul 73, să adopte acte delegate care să clarifice aplicarea prezentului alineat cu scopul de a preciza această exceptare pentru a preveni abuzurile existente și potențiale. Oficiul pentru IA oferă orientări privind guvernanța cercetării și dezvoltării în temeiul articolului 56, vizând, de asemenea, coordonarea punerii sale în aplicare de către autoritățile naționale de supraveghere.
Amendamentul 164
Propunere de regulament
Articolul 2 – alineatul 5 e (nou)
5e.  Prezentul regulament nu se aplică componentelor de IA furnizate în temeiul unor licențe gratuite și cu sursă deschisă, cu excepția cazului în care acestea sunt introduse pe piață sau sunt puse în funcțiune de un furnizor ca parte a unui sistem de IA cu grad ridicat de risc sau a unui sistem de IA care intră sub incidența titlului II sau IV. Această derogare nu se aplică modelelor de bază definite la articolul 3.
Amendamentul 165
Propunere de regulament
Articolul 3 – paragraful 1 – punctul 1
(1)  „sistem de inteligență artificială” (sistem de IA) înseamnă un software care este dezvoltat prin una sau mai multe dintre tehnicile și abordările enumerate în anexa I și care, pentru un anumit set de obiective definite de om, poate genera rezultate precum conținuturi, previziuni, recomandări sau decizii care influențează mediile cu care interacționează;
(1)  „sistem de inteligență artificială” (sistem de IA) înseamnă un sistem bazat pe mașini care este proiectat să funcționeze cu diferite niveluri de autonomie și care poate, pentru obiective explicite sau implicite, să genereze rezultate, cum ar fi previziuni, recomandări sau decizii, care influențează mediile fizice sau virtuale;
Amendamentul 166
Propunere de regulament
Articolul 3 – paragraful 1 – punctul 1 a (nou)
(1a)  „risc” înseamnă combinația dintre probabilitatea producerii unui prejudiciu și gravitatea acestuia;
Amendamentul 167
Propunere de regulament
Articolul 3 – paragraful 1 – punctul 1 b (nou)
(1b)  „risc semnificativ” înseamnă un risc care este semnificativ ca urmare a combinației dintre gravitatea, intensitatea, probabilitatea producerii și durata efectelor sale și capacitatea sa de a afecta o persoană, un număr mare de persoane sau de a afecta un anumit grup de persoane;
Amendamentul 168
Propunere de regulament
Articolul 3 – paragraful 1 – punctul 1 c (nou)
(1c)  „model de bază” înseamnă un model de sistem de IA care este antrenat pe un set amplu de date la scară largă, este conceput pentru generalitatea rezultatelor și poate fi adaptat la o gamă largă de sarcini distincte;
Amendamentul 169
Propunere de regulament
Articolul 3 – paragraful 1 – punctul 1 d (nou)
(1d)  „sistem de IA de uz general” înseamnă un sistem de IA care poate fi utilizat și adaptat la o gamă largă de aplicații pentru care nu a fost conceput în mod intenționat și specific;
Amendamentul 170
Propunere de regulament
Articolul 3 – paragraful 1 – punctul 1 e (nou)
(1e)  „rulaje mari de antrenament” înseamnă procesul de producție a unui model puternic de IA care necesită resurse informatice peste un prag foarte ridicat;
Amendamentul 171
Propunere de regulament
Articolul 3 – paragraful 1 – punctul 3
(3)  „mic furnizor” înseamnă un furnizor care este o microîntreprindere sau o întreprindere mică în sensul Recomandării 2003/361/CE a Comisiei61;
eliminat
__________________
61 Recomandarea Comisiei din 6 mai 2003 privind definirea microîntreprinderilor și a întreprinderilor mici și mijlocii, (JO L 124, 20.5.2003, p. 36).
Amendamentul 172
Propunere de regulament
Articolul 3 – paragraful 1 – punctul 4
(4)  „utilizator” înseamnă orice persoană fizică sau juridică, autoritate publică, agenție sau alt organism care utilizează un sistem de IA aflat sub autoritatea sa, cu excepția cazului în care sistemul de IA este utilizat în cursul unei activități neprofesionale, personale;
(4)  „implementator” înseamnă orice persoană fizică sau juridică, autoritate publică, agenție sau alt organism care utilizează un sistem de IA aflat sub autoritatea sa, cu excepția cazului în care sistemul de IA este utilizat în cursul unei activități neprofesionale, personale;
Amendamentul 173
Propunere de regulament
Articolul 3 – paragraful 1 – punctul 8
(8)  „operator” înseamnă furnizorul, utilizatorul, reprezentantul autorizat, importatorul și distribuitorul;
(8)  „operator” înseamnă furnizorul, implementatorul, reprezentantul autorizat, importatorul și distribuitorul;
Amendamentul 174
Propunere de regulament
Articolul 3 – paragraful 1 – punctul 8 a (nou)
(8a)  „persoană afectată” înseamnă orice persoană fizică sau un grup de persoane care sunt persoane vizate de un sistem de IA sau sunt afectate în alt mod de un astfel de sistem;
Amendamentul 175
Propunere de regulament
Articolul 3 – paragraful 1 – punctul 11
(11)  „punere în funcțiune” înseamnă furnizarea unui sistem de IA pentru prima utilizare direct utilizatorului sau pentru uz propriu pe piața Uniunii, în scopul pentru care a fost conceput;
(11)  „punere în funcțiune” înseamnă furnizarea unui sistem de IA pentru prima utilizare direct implementatorului sau pentru uz propriu pe piața Uniunii, în scopul pentru care a fost conceput;
Amendamentul 176
Propunere de regulament
Articolul 3 – paragraful 1 – punctul 13
(13)  „utilizare necorespunzătoare previzibilă în mod rezonabil” înseamnă utilizarea unui sistem de IA într-un mod care nu este în conformitate cu scopul său preconizat, dar care poate rezulta din comportamentul uman sau din interacțiunea previzibilă în mod rezonabil cu alte sisteme;
(13)  „utilizare necorespunzătoare previzibilă în mod rezonabil” înseamnă utilizarea unui sistem de IA într-un mod care nu este în conformitate cu scopul său preconizat, astfel cum este indicat în instrucțiunile de utilizare concepute de furnizor, dar care poate rezulta din comportamentul uman sau din interacțiunea previzibilă în mod rezonabil cu alte sisteme, inclusiv cu alte sisteme de IA;
Amendamentul 177
Propunere de regulament
Articolul 3 – paragraful 1 – punctul 14
(14)  „componentă de siguranță a unui produs sau sistem” înseamnă o componentă a unui produs sau a unui sistem care îndeplinește o funcție de siguranță pentru produsul sau sistemul respectiv sau a cărei defectare sau funcționare defectuoasă pune în pericol sănătatea și siguranța persoanelor sau a bunurilor;
(14)  „componentă de siguranță a unui produs sau sistem” înseamnă, conform legislației de armonizare a Uniunii menționate în anexa II, o componentă a unui produs sau a unui sistem care îndeplinește o funcție de siguranță pentru produsul sau sistemul respectiv sau a cărei defectare sau funcționare defectuoasă pune în pericol sănătatea și siguranța persoanelor sau a bunurilor;
Amendamentul 178
Propunere de regulament
Articolul 3 – paragraful 1 – punctul 15
(15)  „instrucțiuni de utilizare” înseamnă informațiile oferite de furnizor pentru a informa utilizatorul, în special cu privire la scopul preconizat și utilizarea corespunzătoare a unui sistem de IA, inclusiv cu privire la mediul geografic, comportamental sau funcțional specific în care urmează să fie utilizat sistemul de IA cu grad ridicat de risc;
(15)  „instrucțiuni de utilizare” înseamnă informațiile oferite de furnizor pentru a informa implementatorul, în special cu privire la scopul preconizat și utilizarea corespunzătoare a unui sistem de IA, precum și informații referitoare la orice măsuri de precauție ce trebuie luate; inclusiv cu privire la mediul geografic, comportamental sau funcțional specific în care urmează să fie utilizat sistemul de IA cu grad ridicat de risc;
Amendamentul 179
Propunere de regulament
Articolul 3 – paragraful 1 – punctul 16
(16)  „rechemare a unui sistem de IA” înseamnă orice măsură care are drept scop returnarea către furnizor a unui sistem de IA deja pus la dispoziția utilizatorilor;
(16)  „rechemare a unui sistem de IA” înseamnă orice măsură care are drept scop returnarea către furnizor a unui sistem de IA care a fost pus la dispoziția implementatorilor;
Amendamentul 180
Propunere de regulament
Articolul 3 – paragraful 1 – punctul 20
(20)  „evaluare a conformității” înseamnă procesul prin care se verifică dacă au fost îndeplinite cerințele prevăzute în titlul III capitolul 2 din prezentul regulament referitoare la un sistem de IA;
(20)  „evaluare a conformității” înseamnă procesul prin care se demonstrează dacă au fost îndeplinite cerințele prevăzute în titlul III capitolul 2 din prezentul regulament referitoare la un sistem de IA;
Amendamentul 181
Propunere de regulament
Articolul 3 – paragraful 1 – punctul 22
(22)  „organism notificat” înseamnă un organism de evaluare a conformității desemnat în conformitate cu prezentul regulament și cu alte acte legislative relevante de armonizare ale Uniunii;
(22)  „organism notificat” înseamnă un organism de evaluare a conformității notificat în conformitate cu prezentul regulament și cu alte acte legislative relevante de armonizare ale Uniunii;
Amendamentul 182
Propunere de regulament
Articolul 3 – paragraful 1 – punctul 23
(23)  „modificare substanțială” înseamnă o modificare a sistemului de IA ca urmare a introducerii sale pe piață sau a punerii sale în funcțiune, care afectează conformitatea sistemului de IA cu cerințele prevăzute în titlul III capitolul 2 din prezentul regulament sau care conduce la o modificare a scopului preconizat pentru care a fost evaluat sistemul de IA;
(23)  „modificare substanțială” înseamnă o modificare sau o serie de modificări ale sistemului de IA după introducerea sa pe piață sau punerea sa în funcțiune, care nu este prevăzută sau planificată de furnizor în evaluarea inițială a riscului și în urma căreia este afectată conformitatea sistemului de IA cu cerințele prevăzute în titlul III capitolul 2 din prezentul regulament sau care conduce la o modificare a scopului preconizat pentru care a fost evaluat sistemul de IA;
Amendamentul 183
Propunere de regulament
Articolul 3 – paragraful 1 – punctul 24
(24)  „marcaj CE de conformitate” (marcaj CE) înseamnă un marcaj prin care un furnizor indică faptul că un sistem de IA este în conformitate cu cerințele prevăzute în titlul III capitolul 2 din prezentul regulament și în alte acte legislative aplicabile ale Uniunii care armonizează condițiile de comercializare a produselor („legislația de armonizare a Uniunii”), care prevede aplicarea acestuia;
(24)  „marcaj CE de conformitate” (marcaj CE) înseamnă un marcaj fizic sau digital prin care un furnizor indică faptul că un sistem de IA sau un produs cu sistem de IA încorporat este în conformitate cu cerințele prevăzute în titlul III capitolul 2 din prezentul regulament și în alte acte legislative aplicabile ale Uniunii care armonizează condițiile de comercializare a produselor („legislația de armonizare a Uniunii”), care prevede aplicarea acestuia;
Amendamentul 184
Propunere de regulament
Articolul 3 – paragraful 1 – punctul 29
(29)  „date de antrenament” înseamnă datele utilizate pentru antrenarea unui sistem de IA prin adaptarea parametrilor săi care pot fi învățați, inclusiv a ponderilor unei rețele neuronale;
(29)  „date de antrenament” înseamnă datele utilizate pentru antrenarea unui sistem de IA prin adaptarea parametrilor săi care pot fi învățați;
Amendamentul 185
Propunere de regulament
Articolul 3 – paragraful 1 – punctul 30
(30)  „date de verificare” înseamnă datele utilizate pentru a furniza o evaluare a sistemului de IA antrenat și pentru a-i ajusta parametrii care nu pot fi învățați și procesul său de învățare, printre altele, pentru a preveni supraadaptarea; în timp ce setul de date de verificare poate fi un set de date separat sau o parte a setului de date de antrenament, ca o divizare fixă sau variabilă;
(30)  „date de verificare” înseamnă datele utilizate pentru a furniza o evaluare a sistemului de IA antrenat și pentru a-i ajusta parametrii care nu pot fi învățați și procesul său de învățare, printre altele, pentru a preveni subadaptarea sau supraadaptarea; în timp ce setul de date de verificare este un set de date separat sau o parte a setului de date de antrenament, ca o divizare fixă sau variabilă;
Amendamentul 186
Propunere de regulament
Articolul 3 – paragraful 1 – punctul 33
(33)  „date biometrice” înseamnă datele cu caracter personal rezultate din aplicarea unor tehnici de prelucrare specifice referitoare la caracteristicile fizice, fiziologice sau comportamentale ale unei persoane fizice, care permit sau confirmă identificarea unică a respectivei persoane, cum ar fi imaginile faciale sau datele dactiloscopice;
(33)  „date biometrice” înseamnă date biometrice așa cum sunt definite la articolul 4 punctul 14 din Regulamentul (UE) 2016/679;
Amendamentul 187
Propunere de regulament
Articolul 3 – paragraful 1 – punctul 33 a (nou)
(33a)  „datele bazate pe date biometrice” înseamnă date care sunt create prin prelucrarea tehnică specifică a semnalelor fizice, fiziologice sau comportamentale ale unei persoane fizice;
Amendamentul 188
Propunere de regulament
Articolul 3 – paragraful 1 – punctul 33 b (nou)
(33b)  „identificare biometrică” înseamnă recunoașterea automată a caracteristicilor fizice, fiziologice, comportamentale și psihologice ale omului în scopul stabilirii identității unei persoane prin compararea datelor biometrice ale persoanei respective cu datele biometrice ale persoanelor stocate într-o bază de date (identificarea de tip „unul la mai mulți”);
Amendamentul 189
Propunere de regulament
Articolul 3 – paragraful 1 – punctul 33 c (nou)
(33c)  „verificare biometrică” înseamnă verificarea automată a identității persoanelor fizice prin compararea datelor biometrice ale unei persoane cu datele biometrice furnizate anterior (verificarea identității pe baza unei comparații între două seturi de date, inclusiv autentificare);
Amendamentul 190
Propunere de regulament
Articolul 3 – paragraful 1 – punctul 33 d (nou)
(33d)  „categorii speciale de date cu caracter personal” înseamnă datele cu caracter personal așa cum sunt definite la articolul 9 punctul 1 din Regulamentul (UE) 2016/679;
Amendamentul 191
Propunere de regulament
Articolul 3 – paragraful 1 – punctul 34
(34)  „sistem de recunoaștere a emoțiilor” înseamnă un sistem de IA al cărui scop este de a identifica sau a deduce emoțiile sau intențiile persoanelor fizice pe baza datelor lor biometrice;
(34)  „sistem de recunoaștere a emoțiilor” înseamnă un sistem de IA al cărui scop este de a identifica sau a deduce emoțiile, gândurile, stările de spirit sau intențiile persoanelor fizice sau ale grupurilor pe baza datelor lor biometrice și a datelor bazate pe date biometrice;
Amendamentul 192
Propunere de regulament
Articolul 3 – paragraful 1 – punctul 35
(35)  „sistem biometric de clasificare” înseamnă un sistem de IA al cărui scop este de a încadra persoanele fizice în categorii specifice, cum ar fi sexul, vârsta, culoarea părului, culoarea ochilor, tatuajele, originea etnică sau orientarea sexuală sau politică, pe baza datelor lor biometrice;
(35)  „sistem biometric de clasificare” înseamnă încadrarea persoanelor fizice în categorii specifice sau deducerea caracteristicilor și atributelor acestora pe baza datelor lor biometrice sau bazate pe biometrie sau care pot fi deduse din astfel de date;
Amendamentul 193
Propunere de regulament
Articolul 3 – paragraful 1 – punctul 36
(36)  „sistem de identificare biometrică la distanță” înseamnă un sistem de IA al cărui scop este de a identifica persoanele fizice la distanță prin compararea datelor biometrice ale unei persoane cu datele biometrice conținute într-o bază de date de referință și fără ca utilizatorul sistemului de IA să cunoască în prealabil dacă persoana va fi prezentă și dacă poate fi identificată;
(36)  „sistem de identificare biometrică la distanță” înseamnă un sistem de IA al cărui scop este de a identifica persoanele fizice la distanță prin compararea datelor biometrice ale unei persoane cu datele biometrice conținute într-o bază de date de referință și fără ca implementatorul sistemului de IA să cunoască în prealabil dacă persoana va fi prezentă și dacă poate fi identificată, cu excepția sistemelor de verificare;
Amendamentul 194
Propunere de regulament
Articolul 3 – paragraful 1 – punctul 37
(37)  „sistem de identificare biometrică la distanță «în timp real»” înseamnă un sistem de identificare biometrică la distanță în care capturarea datelor biometrice și compararea și identificarea au loc toate fără întârzieri semnificative. Acesta include nu numai identificarea instantanee, ci și întârzieri scurte limitate pentru a se evita eludarea;
(37)  „sistem de identificare biometrică la distanță «în timp real»” înseamnă un sistem de identificare biometrică la distanță în care capturarea datelor biometrice și compararea și identificarea au loc toate fără întârzieri semnificative. Acesta include nu numai identificarea instantanee, ci și întârzieri limitate pentru a se evita eludarea;
Amendamentul 195
Propunere de regulament
Articolul 3 – paragraful 1 – punctul 39
(39)  „spațiu accesibil publicului” înseamnă orice loc fizic accesibil publicului, indiferent daca se pot aplica anumite condiții de acces;
(39)  „spațiu accesibil publicului” înseamnă orice loc fizic proprietate publică sau privată accesibil publicului, indiferent dacă se pot aplica anumite condiții de acces și independent de potențialele restricții de capacitate;
Amendamentul 196
Propunere de regulament
Articolul 3 – paragraful 1 – punctul 41
(41)  „asigurare a respectării legii” înseamnă activitățile desfășurate de autoritățile de aplicare a legii pentru prevenirea, investigarea, depistarea sau urmărirea penală a infracțiunilor sau pentru executarea pedepselor, inclusiv în ceea ce privește protejarea împotriva amenințărilor la adresa securității publice și prevenirea acestora;
(41)  „asigurare a respectării legii” înseamnă activitățile desfășurate de autoritățile de aplicare a legii sau în numele acestora pentru prevenirea, investigarea, depistarea sau urmărirea penală a infracțiunilor sau pentru executarea pedepselor, inclusiv în ceea ce privește protejarea împotriva amenințărilor la adresa securității publice și prevenirea acestora;
Amendamentul 197
Propunere de regulament
Articolul 3 – paragraful 1 – punctul 42
(42)  „autoritate națională de supraveghere” înseamnă autoritatea căreia un stat membru îi atribuie responsabilitatea pentru punerea în aplicare a prezentului regulament, pentru coordonarea activităților încredințate statului membru respectiv, pentru îndeplinirea rolului de punct unic de contact pentru Comisie și pentru reprezentarea statului membru în cadrul Comitetului european pentru inteligența artificială;
(42)  „autoritate națională de supraveghere” înseamnă o autoritate publică (AM 69) căreia un stat membru îi atribuie responsabilitatea pentru punerea în aplicare a prezentului regulament, pentru coordonarea activităților încredințate statului membru respectiv, pentru îndeplinirea rolului de punct unic de contact pentru Comisie și pentru reprezentarea statului membru în cadrul consiliului de administrație al Oficiului pentru IA;
Amendamentul 198
Propunere de regulament
Articolul 3 – paragraful 1 – punctul 43
(43)  „autoritate națională competentă” înseamnă autoritatea națională de supraveghere, autoritatea de notificare și autoritatea de supraveghere a pieței;
(43)  „autoritate națională competentă” înseamnă oricare dintre autoritățile naționale care sunt responsabile pentru punerea în aplicare a prezentului regulament;
Amendamentul 199
Propunere de regulament
Articolul 3 – paragraful 1 – punctul 44 – partea introductivă
(44)  „incident grav” înseamnă orice incident care, direct sau indirect, determină, ar fi putut determina sau ar putea determina oricare dintre următoarele:
(a)  decesul unei persoane sau vătămarea gravă a sănătății unei persoane, a bunurilor sau mediului;
(44)  „incident grav” înseamnă orice incident sau funcționare necorespunzătoare a unui sistem de IA care, direct sau indirect, determină, ar fi putut determina sau ar putea determina oricare dintre următoarele:
(b)  o perturbare gravă a gestionării și funcționării infrastructurii critice.
(a)  decesul unei persoane sau vătămarea gravă a sănătății unei persoane;
(b)  o perturbare gravă a gestionării și funcționării infrastructurii critice;
(ba)  o încălcare a drepturilor fundamentale protejate conform dreptului Uniunii;
(bb)  daune grave aduse bunurilor sau mediului;
Amendamentul 200
Propunere de regulament
Articolul 3 – paragraful 1 – punctul 44 a (nou)
(44a)  „date cu caracter personal” înseamnă datele cu caracter personal astfel cum sunt definite la articolul 4 punctul 1 din Regulamentul (UE) 2016/679;
Amendamentul 201
Propunere de regulament
Articolul 3 – paragraful 1 – punctul 44 b (nou)
(44b)  „date fără caracter personal” înseamnă alte date decât datele cu caracter personal;
Amendamentul 202
Propunere de regulament
Articolul 3 – paragraful 1 – punctul 44 c (nou)
(44c)  „creare de profiluri” înseamnă orice formă de prelucrare automată a datelor cu caracter personal, conform definiției de la articolul 4 punctul (4) din Regulamentul (UE) 2016/679; sau, în cazul autorităților de aplicare a legii – la articolul 3 punctul 4 din Directiva (UE) 2016/680 sau, în cazul instituțiilor, organelor, oficiilor sau agențiilor Uniunii, la articolul 3 punctul 5 din Regulamentul (UE) 2018/1725;
Amendamentul 203
Propunere de regulament
Articolul 3 – paragraful 1 – punctul 44 d (nou)
(44d)  „deep fake” înseamnă conținut audio, grafic sau video manipulat sau sintetic, făcut să pară în mod fals autentic sau veridic și care ilustrează persoane care par să spună sau să facă lucruri pe care nu le-au spus sau nu le-au făcut, conținut produs cu ajutorul unor tehnici de IA, inclusiv învățare automată și învățare aprofundată;
Amendamentul 204
Propunere de regulament
Articolul 3 – paragraful 1 – punctul 44 e (nou)
(44e)  „încălcare pe scară largă” înseamnă orice acțiune sau omisiune contrară dreptului Uniunii care protejează interesele persoanelor fizice:
(a)  care a adus sau ar putea aduce prejudicii intereselor colective ale persoanelor care își au reședința în cel puțin două state membre diferite de statul:
(i)  în care își are originea sau a avut loc acțiunea sau omisiunea în cauză;
(ii)  în care este stabilit furnizorul în cauză sau, după caz, reprezentantul său autorizat; sau
(iii)  în care este stabilit implementatorul, atunci când încălcarea este comisă de implementator;
(b)  care protejează interesele persoanelor care au adus, aduc sau ar putea aduce prejudicii intereselor colective ale persoanelor și au caracteristici comune, cum ar fi aceeași practică ilegală, încălcarea aceluiași interes, și care survin în același timp, fiind comise de același operator, în cel puțin trei state membre;
Amendamentul 205
Propunere de regulament
Articolul 3 – paragraful 1 – punctul 44 f (nou)
(44f)  „încălcare pe scară largă cu o dimensiune specifică Uniunii” înseamnă o încălcare pe scară largă care a adus sau ar putea aduce prejudicii intereselor colective ale persoanelor în cel puțin două treimi din statele membre, ce reprezintă cumulat cel puțin două treimi din populația Uniunii;
Amendamentul 206
Propunere de regulament
Articolul 3 – paragraful 1 – punctul 44 g (nou)
(44g)  „spațiul de testare în materie de reglementare” înseamnă un mediu controlat instituit de o autoritate publică care facilitează dezvoltarea, testarea și validarea în condiții de siguranță ale sistemelor de IA inovatoare pentru o perioadă limitată de timp înainte de introducerea lor pe piață sau de punerea lor în funcțiune, conform unui plan specific, sub supraveghere reglementară;
Amendamentul 207
Propunere de regulament
Articolul 3 – paragraful 1 – punctul 44 h (nou)
(44h)  „infrastructură critică” înseamnă un activ, o instalație, un echipament, o rețea sau un sistem sau o parte a unui activ, instalații, echipament, rețea sau sistem, care este necesar pentru furnizarea unui serviciu esențial în sensul articolului 2 alineatul (4) din Directiva (UE) 2022/2557;
Amendamentul 208
Propunere de regulament
Articolul 3 – paragraful 1 – punctul 44 k (nou)
(44k)  „evaluarea comportamentului social” înseamnă evaluarea sau clasificarea persoanelor fizice pe baza comportamentului lor social, a statutului socio-economic sau a unor caracteristici personale sau de personalitate cunoscute sau preconizate;
Amendamentul 209
Propunere de regulament
Articolul 3 – paragraful 1 – punctul 44 l (nou)
(44l)  „comportament social” înseamnă modul în care o persoană fizică interacționează cu alte persoane fizice sau societăți și le influențează;
Amendamentul 210
Propunere de regulament
Articolul 3 – paragraful 1 – punctul 44 m (nou)
(44m)  „stadiul actual al tehnologiei” înseamnă stadiul de dezvoltare a capacității tehnice la un moment dat în ceea ce privește produsele, procesele și serviciile, pe baza constatărilor consolidate relevante ale științei, tehnologiei și experienței;
Amendamentul 211
Propunere de regulament
Articolul 3 – paragraful 1 – punctul 44 n (nou)
(44n)  „testare în condiții reale” înseamnă testarea temporară a unui sistem de IA în scopul său preconizat în condiții reale în afara unui laborator sau a unui mediu simulat în alt mod;
Amendamentul 212
Propunere de regulament
Articolul 4
Articolul 4
eliminat
Modificarea anexei I
Comisia este împuternicită să adopte acte delegate în conformitate cu articolul 73 pentru a modifica lista tehnicilor și abordărilor enumerate în anexa I, în vederea actualizării listei respective în funcție de evoluțiile pieței și de cele tehnologice, pe baza caracteristicilor care sunt similare cu tehnicile și abordările enumerate în anexa respectivă.
Amendamentul 213
Propunere de regulament
Articolul 4 a (nou)
Articolul 4 a
Principii generale aplicabile tuturor sistemelor de IA
1.  Toți operatorii care intră sub incidența prezentului regulament depun toate eforturile pentru a dezvolta și a utiliza sisteme de IA sau modele de bază în conformitate cu următoarele principii generale care instituie un cadru la nivel înalt care promovează o abordare europeană coerentă și centrată pe factorul uman a unei inteligențe artificiale etice și de încredere, care este pe deplin în conformitate cu Carta, precum și cu valorile pe care se întemeiază Uniunea:
(a)  „implicarea și supravegherea umană” înseamnă că sistemele de IA sunt dezvoltate și folosite ca un instrument ce servește oamenilor, respectă demnitatea umană și autonomia personală și funcționează într-un mod ce poate fi controlat și supravegheat în mod corespunzător de oameni;
(b)  „soliditate tehnică și siguranță” înseamnă că sistemele de IA sunt dezvoltate și folosite într-o manieră ce reduce la minimum daunele neprevăzute și fără intenție, fiind totodată robuste în caz de probleme neprevăzute și reziliente la încercările de a modifica utilizarea sau performanța sistemului de IA pentru a permite utilizarea ilicită de către părți terțe răuvoitoare;
(c)  „viața privată și guvernanța datelor” înseamnă că sistemele de IA sunt dezvoltate și folosite în conformitate cu normele existente privind viața privată și protecția datelor, prelucrând totodată date ce respectă standarde ridicate din punctul de vedere al calității și al integrității;
(d)  „transparență” înseamnă că sistemele de IA sunt dezvoltate și folosite într-o manieră ce permite trasabilitatea și explicabilitatea adecvate, informându-i totodată pe oameni că interacționează sau comunică cu un sistem de IA și informându-i în mod corespunzător pe utilizatori cu privire la capacitățile și limitările respectivului sistem de IA și pe persoanele afectate despre drepturile lor;
(e)  „diversitate, nediscriminare și echitate” înseamnă că sistemele de IA sunt dezvoltate și folosite într-o manieră ce include actori diverși și promovează accesul egal, egalitatea de gen și diversitatea culturală, evitând totodată efectele discriminatorii și prejudecățile inechitabile interzise prin dreptul Uniunii sau dreptul național;
(f)  „bunăstare socială și de mediu” înseamnă că sistemele de IA sunt dezvoltate și folosite într-o manieră sustenabilă și atentă cu mediul și care aduce beneficii tuturor ființelor umane, totodată monitorizându-se și evaluându-se efectele pe termen lung asupra persoanei, societății și democrației.
2.  Alineatul (1) nu aduce atingere obligațiilor stabilite de dreptul Uniunii și de dreptul național în vigoare. Pentru sistemele de IA cu grad ridicat de risc, principiile generale sunt transpuse și respectate de furnizori sau implementatori prin intermediul cerințelor prevăzute la articolele 8-15 și obligațiile relevante prevăzute în titlul III capitolul 3 din prezentul regulament. Pentru modelele de bază, principiile generale sunt transpuse și respectate de furnizori prin intermediul cerințelor prevăzute la articolele 28-28b. Pentru toate sistemele de IA, aplicarea principiilor menționate la alineatul (1) poate fi realizată, după caz, prin dispozițiile articolului 28, ale articolului 52 sau prin aplicarea standardelor armonizate, a specificațiilor tehnice și a codurilor de conduită menționate la articolul 69, fără a crea noi obligații în temeiul prezentului regulament.
3.  Comisia și Oficiul pentru IA includ aceste principii directoare în cererile de standardizare, precum și în recomandările care constau în orientări tehnice pentru a ajuta furnizorii și implementatorii cu privire la modul de dezvoltare și utilizare a sistemelor de IA. Organizațiile de standardizare europene țin seama de principiile generale menționate la alineatul (1) din prezentul articol ca obiective bazate pe rezultate atunci când elaborează standarde armonizate adecvate pentru sistemele de IA cu grad ridicat de risc, după cum se menționează la articolul 40 alineatul (2b).
Amendamentul 214
Propunere de regulament
Articolul 4 b (nou)
Articolul 4 b
Alfabetizarea în domeniul IA
1.  La punerea în aplicare a prezentului regulament, Uniunea și statele membre promovează măsuri pentru dezvoltarea unui nivel suficient de alfabetizare în domeniul IA, în toate sectoarele și ținând seama de nevoile diferite ale grupurilor de furnizori, implementatori și persoane afectate în cauză, inclusiv prin programe de educație și formare, calificare și recalificare și asigurând în același timp un echilibru adecvat de gen și vârstă, cu scopul de a permite un control democratic al sistemelor de IA.
2.  Furnizorii și implementatorii de sisteme de IA iau măsuri pentru a asigura un nivel suficient de alfabetizare în domeniul IA a personalului lor și a altor persoane care se ocupă cu operarea și utilizarea sistemelor de IA în numele lor, ținând seama de cunoștințele tehnice, experiența, educația și formarea lor și de contextul în care urmează să fie folosite sistemele de IA și luând în considerare persoanele sau grupurile de persoane în legătură cu care urmează să fie folosite sistemele de IA.
3.  Astfel de măsuri de alfabetizare constau, în special, în predarea noțiunilor și competențelor de bază privind sistemele de IA și funcționarea acestora, inclusiv diferitele tipuri de produse și utilizări, riscurile și beneficiile lor.
4.  Un nivel suficient de alfabetizare în domeniul IA este unul care contribuie, după caz, la capacitatea furnizorilor și a implementatorilor de a asigura respectarea și aplicarea prezentului regulament.
Amendamentul 215
Propunere de regulament
Articolul 5 – alineatul 1 – litera a
(a)  introducerea pe piață, punerea în funcțiune sau utilizarea unui sistem de IA care utilizează tehnici subliminale fără ca persoanele să fie conștiente de acest lucru, pentru a denatura în mod semnificativ comportamentul unei persoane într-un mod care aduce sau poate aduce prejudicii fizice sau psihologice persoanei respective sau altei persoane;
(a)  introducerea pe piață, punerea în funcțiune sau utilizarea unui sistem de IA care utilizează tehnici subliminale fără ca persoanele să fie conștiente de acest lucru sau tehnici intenționat manipulatoare sau înșelătoare, cu scopul sau efectul de a denatura în mod semnificativ comportamentul unei persoane sau al unui grup de persoane prin împiedicarea semnificativă a capacității persoanei de a lua o decizie în cunoștință de cauză, determinând astfel persoana să ia o decizie pe care persoana respectivă nu ar fi luat-o, într-un mod care aduce sau poate aduce prejudicii semnificative persoanei respective, unei alte persoane sau unui grup de persoane;
Interzicerea sistemelor de IA care utilizează tehnicile subliminale menționate la primul paragraf nu se aplică sistemelor de IA destinate a fi utilizate în scopuri terapeutice aprobate pe baza consimțământului specific în cunoștință de cauză al persoanelor care sunt expuse la acestea sau, după caz, al tutorelui lor legal;
Amendamentul 216
Propunere de regulament
Articolul 5 – alineatul 1 – litera b
(b)  introducerea pe piață, punerea în funcțiune sau utilizarea unui sistem de IA care exploatează oricare dintre vulnerabilitățile unui anumit grup de persoane din cauza vârstei, a unui handicap fizic sau mental, pentru a denatura în mod semnificativ comportamentul unei persoane care aparține grupului respectiv într-un mod care aduce sau poate aduce prejudicii fizice sau psihologice persoanei respective sau altei persoane;
(b)  introducerea pe piață, punerea în funcțiune sau utilizarea unui sistem de IA care exploatează oricare dintre vulnerabilitățile unei persoane sau a unui anumit grup de persoane, inclusiv caracteristicile personalității sau ale situației sociale sau economice cunoscute sau previzionate, vârsta, abilitățile fizice sau mentale ale persoanei sau ale grupului de persoane respective, cu scopul sau cu efectul de a denatura în mod semnificativ comportamentul persoanei respective sau al unei persoane care aparține grupului respectiv într-un mod care aduce sau poate aduce prejudicii semnificative persoanei respective sau altei persoane;
Amendamentul 217
Propunere de regulament
Articolul 5 – alineatul 1 – litera ba (nouă)
(ba)  introducerea pe piață, punerea în funcțiune sau utilizarea sistemelor biometrice de clasificare care clasifică persoanele fizice în funcție de atribute sau caracteristici sensibile sau protejate sau pe baza deducerii acestor atribute sau caracteristici. Această interdicție nu se aplică sistemelor de IA destinate a fi utilizate în scopuri terapeutice aprobate pe baza consimțământului specific în cunoștință de cauză al persoanelor care sunt expuse la acestea sau, după caz, al tutorelui lor legal.
Amendamentul 218
Propunere de regulament
Articolul 5 – alineatul 1 – litera c – partea introductivă
(c)  introducerea pe piață, punerea în funcțiune sau utilizarea sistemelor de IA de către autoritățile publice sau în numele acestora pentru evaluarea sau clasificarea credibilității persoanelor fizice într-o anumită perioadă de timp, pe baza comportamentului lor social sau a caracteristicilor personale sau de personalitate cunoscute sau preconizate, cu un punctaj privind comportamentul social care conduce la una dintre următoarele situații sau la ambele:
(c)  introducerea pe piață, punerea în funcțiune sau utilizarea sistemelor de IA pentru evaluarea comportamentului social sau clasificarea persoanelor fizice sau a grupurilor de persoane într-o anumită perioadă de timp, pe baza comportamentului lor social sau a caracteristicilor personale sau de personalitate cunoscute, deduse sau preconizate, cu un punctaj privind comportamentul social care conduce la una dintre următoarele situații sau la ambele:
Amendamentul 219
Propunere de regulament
Articolul 5 – alineatul 1 – litera c – punctul i
(i)  tratamentul prejudiciabil sau nefavorabil al anumitor persoane fizice sau al unor grupuri întregi de persoane în contexte sociale care nu au legătură cu contextele în care datele au fost generate sau colectate inițial;
(Nu privește versiunea în limba română.)
Amendamentul 220
Propunere de regulament
Articolul 5 – alineatul 1 – litera d – partea introductivă
(d)  utilizarea sistemelor de identificare biometrică la distanță „în timp real” în spații accesibile publicului în scopul asigurării respectării legii, cu excepția cazului și în măsura în care o astfel de utilizare este strict necesară pentru unul dintre următoarele obiective:
(d)  utilizarea sistemelor de identificare biometrică la distanță „în timp real” în spații accesibile publicului;
Amendamentul 221
Propunere de regulament
Articolul 5 – alineatul 1 – litera d – punctul i
(i)  căutarea specifică a potențialelor victime ale infracționalității, inclusiv a copiilor dispăruți;
eliminat
Amendamentul 222
Propunere de regulament
Articolul 5 – alineatul 1 – litera d – punctul ii
(ii)  prevenirea unei amenințări specifice, substanțiale și iminente la adresa vieții sau a siguranței fizice a persoanelor fizice sau a unui atac terorist;
eliminat
Amendamentul 223
Propunere de regulament
Articolul 5 – alineatul 1 – litera d – punctul iii
(iii)  detectarea, localizarea, identificarea sau urmărirea penală a autorului unei infracțiuni sau a unei persoane suspectate de o infracțiune menționată la articolul 2 alineatul (2) din Decizia-cadru 2002/584/JAI a Consiliului62 și pedepsită în statul membru în cauză cu o pedeapsă sau o măsură de siguranță privativă de libertate pentru o perioadă maximă de cel puțin trei ani, astfel cum este stabilit de legislația statului membru respectiv.
eliminat
__________________
62 Decizia-cadru 2002/584/JAI a Consiliului din 13 iunie 2002 privind mandatul european de arestare și procedurile de predare între statele membre (JO L 190, 18.7.2002, p. 1).
Amendamentul 224
Propunere de regulament
Articolul 5 – alineatul 1 – litera da (nouă)
(da)  introducerea pe piață, punerea în funcțiune sau utilizarea unui sistem de IA pentru efectuarea de evaluări ale persoanelor fizice sau ale grupurilor de persoane în vederea evaluării riscului ca o persoană fizică sau un grup de persoane să săvârșească o infracțiune sau să recidiveze sau pentru a prezice producerea sau repetarea unei infracțiuni reale sau potențiale sau a unei contravenții, pe baza creării de profiluri ale unei persoane fizice sau a evaluării trăsăturilor de personalitate și caracteristicilor, inclusiv locația persoanei, sau a comportamentului infracțional anterior ale unor persoane fizice sau grupuri de persoane fizice;
Amendamentul 225
Propunere de regulament
Articolul 5 – alineatul 1 – litera db (nouă)
(db)  introducerea pe piață, punerea în funcțiune sau utilizarea sistemelor de IA care creează sau extind bazele de date de recunoaștere facială prin extragerea fără scop precis a imaginilor faciale de pe internet sau de pe înregistrările TVCI;
Amendamentul 226
Propunere de regulament
Articolul 5 – alineatul 1 – litera dc (nouă)
(dc)  introducerea pe piață, punerea în funcțiune sau utilizarea sistemelor de IA pentru a deduce emoțiile unei persoane fizice în domeniul aplicării legii, al gestionării frontierelor, la locul de muncă și în instituțiile de învățământ.
Amendamentul 227
Propunere de regulament
Articolul 5 – alineatul 1 – litera dd (nouă)
(dd)  punerea în funcțiune sau utilizarea sistemelor de IA pentru analiza înregistrărilor din spațiile accesibile publicului prin intermediul sistemelor de identificare biometrică „ulterioară” la distanță, cu excepția cazului în care acestea fac obiectul unei autorizații judiciare prealabile în conformitate cu dreptul Uniunii și sunt strict necesare pentru căutarea specifică legată de o infracțiune gravă specifică, astfel cum este definită la articolul 83 alineatul (1) din TFUE, care a avut deja loc în scopul asigurării respectării legii.
Amendamentul 228
Propunere de regulament
Articolul 5 – alineatul 1 a (nou)
1a.  Prezentul articol nu afectează interdicțiile care se aplică în cazul în care o practică de inteligență artificială încalcă un alt act legislativ al Uniunii, inclusiv dreptul Uniunii privind protecția datelor, nediscriminarea, protecția consumatorilor sau concurența;
Amendamentul 229
Propunere de regulament
Articolul 5 – alineatul 2
2.  Utilizarea sistemelor de identificare biometrică la distanță „în timp real” în spațiile accesibile publicului în scopul asigurării respectării legii pentru oricare dintre obiectivele menționate la alineatul (1) litera (d) ține seama de următoarele elemente:
eliminat
(a)  natura situației care determină posibila utilizare, în special gravitatea, probabilitatea și amploarea prejudiciului cauzat în absența utilizării sistemului;
(b)  consecințele utilizării sistemului asupra drepturilor și libertăților tuturor persoanelor vizate, în special gravitatea, probabilitatea și amploarea acestor consecințe.
În plus, utilizarea sistemelor de identificare biometrică la distanță „în timp real” în spațiile accesibile publicului în scopul asigurării respectării legii pentru oricare dintre obiectivele menționate la alineatul (1) litera (d) respectă garanțiile și condițiile necesare și proporționale în ceea ce privește utilizarea, în special în ceea ce privește limitările temporale, geografice și personale.
Amendamentul 230
Propunere de regulament
Articolul 5 – alineatul 3
3.  În ceea ce privește alineatul (1) litera (d) și alineatul (2), fiecare utilizare individuală în scopul asigurării respectării legii a unui sistem de identificare biometrică la distanță „în timp real” în spațiile accesibile publicului face obiectul unei autorizări prealabile acordate de o autoritate judiciară sau de o autoritate administrativă independentă a statului membru în care urmează să aibă loc utilizarea, emisă pe baza unei cereri motivate și în conformitate cu normele detaliate de drept intern menționate la alineatul (4). Cu toate acestea, într-o situație de urgență justificată în mod corespunzător, utilizarea sistemului poate începe fără autorizație, iar autorizația poate fi solicitată numai în timpul utilizării sau ulterior.
eliminat
Autoritatea judiciară sau administrativă competentă acordă autorizația numai dacă este convinsă, pe baza unor dovezi obiective sau a unor indicii clare care i-au fost prezentate, că utilizarea sistemului de identificare biometrică la distanță „în timp real” în cauză este necesară și proporțională pentru realizarea unuia dintre obiectivele menționate la alineatul (1) litera (d), astfel cum au fost identificate în cerere. Atunci când ia o decizie cu privire la cerere, autoritatea judiciară sau administrativă competentă ia în considerare elementele menționate la alineatul (2).
Amendamentul 231
Propunere de regulament
Articolul 5 – alineatul 4
4.  Un stat membru poate decide să prevadă posibilitatea de a autoriza, integral sau parțial, utilizarea sistemelor de identificare biometrică la distanță „în timp real” în spațiile accesibile publicului în scopul asigurării respectării legii, în limitele și condițiile enumerate la alineatul (1) litera (d) și la alineatele (2) și (3). Statul membru respectiv stabilește în dreptul său intern normele detaliate necesare pentru solicitarea, eliberarea și exercitarea, precum și pentru supravegherea autorizațiilor menționate la alineatul (3). Normele respective specifică, de asemenea, pentru care dintre obiectivele enumerate la alineatul (1) litera (d), inclusiv pentru care dintre infracțiunile menționate la punctul (iii) din alineatul respectiv, pot fi autorizate autoritățile competente să utilizeze respectivele sisteme în scopul asigurării respectării legii.
eliminat
Amendamentul 232
Propunere de regulament
Articolul 6 – alineatul 1 – litera a
(a)  sistemul de IA este destinat a fi utilizat ca o componentă de siguranță a unui produs sau este el însuși un produs care face obiectul legislației de armonizare a Uniunii enumerate în anexa II;
(a)  sistemul de IA este destinat a fi utilizat ca o componentă de siguranță a unui produs sau sistemul de IA este el însuși un produs care face obiectul legislației de armonizare a Uniunii enumerate în anexa II;
Amendamentul 233
Propunere de regulament
Articolul 6 – alineatul 1 – litera b
(b)  produsul a cărui componentă de siguranță este sistemul de IA sau sistemul de IA în sine ca produs trebuie să fie supus unei evaluări a conformității de către o terță parte în vederea introducerii pe piață sau a punerii în funcțiune a produsului respectiv în temeiul legislației de armonizare a Uniunii enumerate în anexa II.
(b)  produsul a cărui componentă de siguranță în temeiul literei (a) este sistemul de IA sau sistemul de IA în sine ca produs trebuie să fie supus unei evaluări a conformității legate de riscurile pentru sănătate și siguranță de către o terță parte în vederea introducerii pe piață sau a punerii în funcțiune a produsului respectiv în temeiul legislației de armonizare a Uniunii enumerate în anexa II;
Amendamentul 234
Propunere de regulament
Articolul 6 – alineatul 2
2.  Pe lângă sistemele de IA cu grad ridicat de risc menționate la alineatul (1), sistemele de IA menționate în anexa III sunt considerate, de asemenea, sisteme cu grad ridicat de risc.
2.  Pe lângă sistemele de IA cu grad ridicat de risc menționate la alineatul (1), sistemele de IA care intră sub incidența domeniilor critice și a cazurilor de utilizare menționate în anexa III sunt considerate, de asemenea, sisteme cu grad ridicat de risc, dacă reprezintă un risc semnificativ de prejudiciu pentru sănătatea, siguranța sau drepturile fundamentale ale persoanelor fizice. În cazul în care un sistem de IA intră sub incidența anexei III punctul 2, acesta este considerat cu grad ridicat de risc dacă prezintă un risc semnificativ de a aduce prejudicii mediului.
Cu șase luni înainte de intrarea în vigoare a prezentului regulament, după consultarea Oficiului pentru IA și a părților interesate relevante, Comisia furnizează orientări care specifică în mod clar circumstanțele în care rezultatele sistemelor de IA menționate în anexa III ar prezenta un risc semnificativ de prejudicii pentru sănătatea, siguranța sau drepturile fundamentale ale persoanelor fizice sau cazurile în care acest lucru nu ar fi posibil.
Amendamentul 235
Propunere de regulament
Articolul 6 – alineatul 2 a (nou)
2a.  În cazul în care furnizorii care se încadrează în unul sau mai multe domenii critice și cazuri de utilizare menționate în anexa III consideră că sistemul lor de IA nu prezintă un risc semnificativ, astfel cum se descrie la alineatul (2), aceștia notifică autoritatea națională de supraveghere privitor la faptul că nu fac obiectul cerințelor de la titlul III capitolul 2 din prezentul regulament. În cazul în care sistemul de IA este destinat a fi utilizat în două sau mai multe state membre, notificarea respectivă se transmite Oficiului pentru IA. Fără a aduce atingere articolului 65, autoritatea națională de supraveghere revizuiește notificarea și răspunde la aceasta, direct sau prin intermediul Oficiului IA, în termen de trei luni, în cazul în care consideră că sistemul de IA este clasificat greșit.
Amendamentul 236
Propunere de regulament
Articolul 6 – alineatul 2 a (nou)
2b.  Furnizorii care își clasifică în mod eronat sistemul de IA ca nefăcând obiectul cerințelor de la titlul III capitolul 2 din prezentul regulament și îl introduc pe piață înainte de termenul pentru formularea de obiecții de către autoritățile naționale de supraveghere sunt sancționate cu amendă în temeiul articolului 71.
Amendamentul 237
Propunere de regulament
Articolul 6 – alineatul 2 b (nou)
2c.  Autoritățile naționale de supraveghere prezintă Oficiului pentru IA un raport anual care detaliază numărul de notificări primite, domeniile conexe cu risc ridicat în cauză și deciziile luate cu privire la notificările primite.
Amendamentul 238
Propunere de regulament
Articolul 7 – alineatul 1 – partea introductivă
1.  Comisia este împuternicită să adopte acte delegate în conformitate cu articolul 73 pentru a actualiza lista din anexa III prin adăugarea de sisteme de IA cu grad ridicat de risc în cazul în care sunt îndeplinite cumulativ următoarele două condiții:
1.  Comisia este împuternicită să adopte acte delegate în conformitate cu articolul 73 pentru a modifica anexa III prin adăugarea sau modificarea unor domenii sau cazuri de utilizare ale sistemelor de IA cu grad ridicat de risc, atunci când acestea prezintă un risc semnificativ de prejudicii pentru sănătate și siguranță sau un impact negativ asupra drepturilor fundamentale, mediului sau democrației și statului de drept, iar riscul respectiv este, în ceea ce privește gravitatea și probabilitatea apariției, echivalent sau mai mare decât riscul de prejudiciu sau de impact negativ prezentat de sistemele de IA cu grad ridicat de risc menționate deja în anexa III.
Amendamentul 239
Propunere de regulament
Articolul 7 – alineatul 1 – litera a
(a)  sistemele de IA sunt destinate a fi utilizate în oricare dintre domeniile enumerate la punctele 1-8 din anexa III;
eliminat
Amendamentul 240
Propunere de regulament
Articolul 7 – alineatul 1 – litera b
(b)  sistemele de IA prezintă riscul de a aduce prejudicii sănătății și siguranței sau un risc de impact negativ asupra drepturilor fundamentale, și anume, în ceea ce privește gravitatea și probabilitatea de apariție, echivalent cu sau mai mare decât riscul de a aduce prejudicii sau de a provoca un impact negativ prezentat de sistemele de IA cu grad ridicat de risc deja menționate în anexa III.
eliminat
Amendamentul 241
Propunere de regulament
Articolul 7 – alineatul 1 a (nou)
1a.  De asemenea, Comisia are competența de a adopta acte delegate în conformitate cu articolul 73 pentru a elimina cazurile de utilizare a sistemelor de IA cu grad ridicat de risc de pe lista din anexa III în cazul în care condițiile menționate la alineatul (1) nu se mai aplică;
Amendamentul 242
Propunere de regulament
Articolul 7 – alineatul 2 – partea introductivă
2.  Atunci când evaluează, în sensul alineatului (1), dacă un sistem de IA prezintă un risc de a aduce prejudicii sănătății și siguranței sau un risc de impact negativ asupra drepturilor fundamentale care este echivalent sau mai mare decât riscul de a aduce prejudicii prezentat de sistemele de IA cu grad ridicat de risc deja menționate în anexa III, Comisia ia în considerare următoarele criterii:
2.  Atunci când evaluează un sistem de IA, în sensul alineatelor (1) și (1a), Comisia ia în considerare următoarele criterii:
Amendamentul 243
Propunere de regulament
Articolul 7 – alineatul 2 – litera aa (nouă)
(aa)  capacitățile și funcționalitățile generale ale sistemului de IA, independent de scopul preconizat;
Amendamentul 244
Propunere de regulament
Articolul 7 – alineatul 2 – litera ba (nouă)
(ba)  natura și cantitatea datelor prelucrate și utilizate de sistemul de IA;
Amendamentul 245
Propunere de regulament
Articolul 7 – alineatul 2 – litera bb (nouă)
(bb)  măsura în care sistemul de IA acționează în mod autonom;
Amendamentul 246
Propunere de regulament
Articolul 7 – alineatul 2 – litera c
(c)  măsura în care utilizarea unui sistem de IA a adus deja prejudicii sănătății și siguranței sau a avut un impact negativ asupra drepturilor fundamentale sau a generat motive de îngrijorare semnificative în ceea ce privește materializarea unor astfel de prejudicii sau a unui astfel de impact negativ, astfel cum o demonstrează rapoartele sau acuzațiile documentate prezentate autorităților naționale competente;
(c)  măsura în care utilizarea unui sistem de IA a adus deja prejudicii sănătății și siguranței, a avut un impact negativ asupra drepturilor fundamentale, mediului, democrației și a statului de drept, sau a generat motive de îngrijorare semnificative în ceea ce privește probabilitatea producerii unor astfel de prejudicii sau a unui astfel de impact negativ, astfel cum o demonstrează, de exemplu, rapoartele sau acuzațiile documentate prezentate autorităților naționale de supraveghere, Comisiei, Oficiului pentru IA, AEPD sau Agenției pentru Drepturi Fundamentale a Uniunii Europene;
Amendamentul 247
Propunere de regulament
Articolul 7 – alineatul 2 – litera d
(d)  amploarea potențială a unor astfel de prejudicii sau a unui astfel de impact negativ, în special în ceea ce privește intensitatea și capacitatea sa de a afecta un număr mare de persoane;
(d)  amploarea potențială a unor astfel de prejudicii sau a unui astfel de impact negativ, în special în ceea ce privește intensitatea și capacitatea sa de a afecta un număr mare de persoane sau de a afecta în mod disproporționat un anumit grup de persoane;
Amendamentul 248
Propunere de regulament
Articolul 7 – alineatul 2 – litera e
(e)  măsura în care persoanele potențial prejudiciate sau afectate de un impact negativ depind de rezultatul produs cu ajutorul unui sistem de IA, în special deoarece, din motive practice sau juridice, nu este posibil în mod rezonabil să se renunțe la rezultatul respectiv;
(e)  măsura în care persoanele potențial prejudiciate sau afectate de un impact negativ depind de rezultatele produse ce implică un sistem de IA, iar acele rezultate sunt complementare cu privire la acțiunea sau decizia relevantă care trebuie luată, în special deoarece, din motive practice sau juridice, nu este posibil în mod rezonabil să se renunțe la rezultatele respective;
Amendamentul 249
Propunere de regulament
Articolul 7 – alineatul 2 – litera ea (nouă)
(ea)  potențiala utilizare necorespunzătoare și rău intenționată a sistemului de IA și a tehnologiei care stă la baza acestuia;
Amendamentul 250
Propunere de regulament
Articolul 7 – alineatul 2 – litera f
(f)  măsura în care persoanele potențial prejudiciate sau afectate de impactul negativ se află într-o poziție vulnerabilă în raport cu utilizatorul unui sistem de IA, în special din cauza unui dezechilibru de putere, de cunoștințe, de circumstanțe economice sau sociale sau de vârstă;
(f)  măsura în care există un dezechilibru de putere sau persoanele potențial prejudiciate sau afectate de impactul negativ se află într-o poziție vulnerabilă în raport cu utilizatorul unui sistem de IA, în special din cauza statutului, autorității, cunoștințelor, circumstanțelor economice sau sociale sau vârstei;
Amendamentul 251
Propunere de regulament
Articolul 7 – alineatul 2 – litera g
(g)  măsura în care rezultatul produs cu ajutorul unui sistem de IA este ușor reversibil, iar rezultatele care au un impact asupra sănătății sau siguranței persoanelor nu sunt considerate ca fiind ușor reversibile;
(g)  măsura în care rezultatul produs ce implică un sistem de IA este ușor reversibil sau remediat, iar rezultatele care au un impact negativ asupra sănătății, siguranței, drepturilor fundamentale ale persoanelor, mediului sau democrației și statului de drept nu sunt considerate ca fiind ușor reversibile;
Amendamentul 252
Propunere de regulament
Articolul 7 – alineatul 2 – litera ga (nouă)
(ga)  gradul de disponibilitate și de utilizare a unor soluții și mecanisme tehnice eficiente pentru controlul, fiabilitatea și corectitudinea sistemului de IA;
Amendamentul 253
Propunere de regulament
Articolul 7 – alineatul 2 – litera gb (nouă)
(gb)  amploarea și probabilitatea beneficiilor implementării sistemului de IA pentru persoane fizice, grupuri sau societate în general, inclusiv îmbunătățirile posibile ale siguranței produselor;
Amendamentul 254
Propunere de regulament
Articolul 7 – alineatul 2 – litera gc (nouă)
(gc)  gradul de supraveghere umană și posibilitatea ca un om să intervină pentru a anula o decizie sau recomandări care ar putea duce la un potențial prejudiciu;
Amendamentul 255
Propunere de regulament
Articolul 7 – alineatul 2 – litera h –
(i)  măsuri reparatorii eficace în legătură cu riscurile prezentate de un sistem de IA, cu excepția cererilor de despăgubiri;
(h)  măsura în care legislația existentă a Uniunii prevede:
(i)   măsuri reparatorii eficace în legătură cu prejudiciile provocate de un sistem de IA, cu excepția cererilor de despăgubiri directe sau indirecte;
(ii)   măsuri eficace de prevenire sau de reducere substanțială a acestor riscuri.
Amendamentul 256
Propunere de regulament
Articolul 7 – alineatul 2 a (nou)
2a.  Atunci când evaluează un sistem de IA în scopurile prevăzute la alineatul (1) sau (1a), Comisia consultă Oficiul pentru IA și, după caz, reprezentanți ai grupurilor asupra cărora un sistem de IA are un impact, părți interesate, experți independenți, parteneri sociali și organizații ale societății civile. Comisia organizează, de asemenea, consultări publice în acest sens și pune la dispoziția publicului rezultatele acestor consultări și ale evaluării finale;
Amendamentul 257
Propunere de regulament
Articolul 7 – alineatul 2 b (nou)
2b.  Oficiul pentru IA, autoritățile naționale de supraveghere sau Parlamentul European pot solicita Comisiei să reevalueze și să reclasifice clasificarea riscurilor unui sistem de IA în conformitate cu alineatele (1) și (1a). Comisia își motivează decizia și publică motivele.
Amendamentul 258
Propunere de regulament
Articolul 8 – alineatul 1 a (nou)
1a.  Pentru a se conforma cerinței stabilite în prezentul capitol, se iau în considerare orientările instituite menționate la articolul 82b, stadiul actual general recunoscut al tehnologiei, inclusiv așa cum se reflectă în standardele armonizate relevante și în specificațiile comune menționate la articolele 40 și 41 sau cele stabilite deja în legislația de armonizare a Uniunii.
Amendamentul 259
Propunere de regulament
Articolul 8 – alineatul 2
2.  Scopul preconizat al sistemului de IA cu grad ridicat de risc și al sistemului de gestionare a riscurilor menționate la articolul 9 este luat în considerare atunci când se asigură conformitatea cu cerințele respective.
2.  Scopul preconizat al sistemului de IA cu grad ridicat de risc, utilizarea necorespunzătoare previzibilă în mod rezonabil și sistemul de gestionare a riscurilor menționat la articolul 9 sunt luate în considerare atunci când se asigură conformitatea cu cerințele respective.
Amendamentul 260
Propunere de regulament
Articolul 8 – alineatul 2 a (nou)
2a.  Atât timp cât cerințele din titlul III capitolele 2 și 3 sau din titlul VIII capitolele 1, 2 și 3 pentru sistemele de IA cu grad ridicat de risc sunt abordate de legislația de armonizare a Uniunii enumerată în anexa II secțiunea A, cerințele sau obligațiile prevăzute în capitolele respective din prezentul regulament se consideră îndeplinite atât timp cât includ componenta de IA. Cerințele prevăzute în titlul III capitolele 2 și 3 sau în titlul VIII capitolele 1, 2 și 3 pentru sistemele de IA cu grad ridicat de risc care nu sunt abordate de legislația de armonizare al Uniunii enumerată în anexa II secțiunea A se încorporează în respectivul act legislativ de armonizare al Uniunii, după caz. Evaluarea conformității relevantă se efectuează în cadrul procedurilor prevăzute în legislația de armonizare al Uniunii enumerată în anexa II secțiunea A.
Amendamentul 261
Propunere de regulament
Articolul 9 – alineatul 1
1.  Se instituie, se pune în aplicare, se documentează și se menține un sistem de gestionare a riscurilor în legătură cu sistemele de IA cu grad ridicat de risc.
1.  Se instituie, se pune în aplicare, se documentează și se menține un sistem de gestionare a riscurilor în legătură cu sistemele de IA cu grad ridicat de risc, pe parcursul întregului ciclu de viață al sistemului de IA. Sistemul de gestionare a riscurilor poate fi integrat în procedurile de gestionare a riscurilor deja existente în legătură cu legislația sectorială relevantă a Uniunii sau poate constitui o parte a acestora, în măsura în care îndeplinește cerințele prezentului articol.
Amendamentul 262
Propunere de regulament
Articolul 9 – alineatul 2 – partea introductivă
2.  Sistemul de gestionare a riscurilor constă într-un proces iterativ continuu desfășurat pe parcursul întregului ciclu de viață al unui sistem de IA cu grad ridicat de risc, necesitând o actualizare sistematică periodică. Acesta cuprinde următoarele etape:
2.  Sistemul de gestionare a riscurilor constă într-un proces iterativ continuu desfășurat pe parcursul întregului ciclu de viață al unui sistem de IA cu grad ridicat de risc, necesitând o revizuire și o actualizare periodică a procesului de gestionare a riscurilor pentru a asigura eficacitatea continuă a acestuia și documentarea tuturor deciziilor și acțiunilor semnificative întreprinse în temeiul prezentului articol. Acesta cuprinde următoarele etape:
Amendamentul 263
Propunere de regulament
Articolul 9 – alineatul 2 – litera a
(a)  identificarea și analiza riscurilor cunoscute și previzibile asociate fiecărui sistem de IA cu grad ridicat de risc;
(a)  identificarea, estimarea și evaluarea riscurilor cunoscute și previzibile în mod rezonabil pe care sistemul de IA cu grad ridicat de risc le poate prezenta pentru sănătatea sau siguranța persoanelor fizice, drepturile lor fundamentale, inclusiv accesul și oportunitățile egale, democrația și statul de drept sau mediu atunci când sistemul de IA cu grad ridicat de risc este utilizat în conformitate cu scopul său preconizat și în condiții de utilizare necorespunzătoare previzibilă în mod rezonabil;
Amendamentul 264
Propunere de regulament
Articolul 9 – alineatul 2 – litera b
(b)  estimarea și evaluarea riscurilor care pot apărea atunci când sistemul de IA cu grad ridicat de risc este utilizat în conformitate cu scopul preconizat și în condiții de utilizare necorespunzătoare previzibile în mod rezonabil;
eliminat
Amendamentul 265
Propunere de regulament
Articolul 9 – alineatul 2 – litera c
(c)  evaluarea altor riscuri care ar putea apărea pe baza analizei datelor colectate din sistemul de monitorizare ulterioară introducerii pe piață menționat la articolul 61;
(c)  evaluarea riscurilor semnificative emergente de tipul celor descrise la litera (a) și identificate pe baza analizei datelor colectate din sistemul de monitorizare ulterioară introducerii pe piață menționat la articolul 61;
Amendamentul 266
Propunere de regulament
Articolul 9 – alineatul 2 – litera d
(d)  adoptarea unor măsuri adecvate de gestionare a riscurilor în conformitate cu dispozițiile alineatelor următoare.
(d)  adoptarea unor măsuri adecvate și focalizate de gestionare a riscurilor, concepute pentru a combate riscurile identificare în temeiul literelor (a) și (b) din prezentul alineat, în conformitate cu dispozițiile alineatelor următoare.
Amendamentul 267
Propunere de regulament
Articolul 9 – alineatul 3
3.  Măsurile de gestionare a riscurilor menționate la alineatul (2) litera (d) țin seama în mod corespunzător de efectele și interacțiunile posibile care rezultă din aplicarea combinată a cerințelor prevăzute în prezentul capitol 2. Acestea țin seama de stadiul actual al tehnologiei general recunoscut, inclusiv astfel cum se reflectă în normele armonizate sau în specificațiile comune relevante.
3.  Măsurile de gestionare a riscurilor menționate la alineatul (2) litera (d) țin seama în mod corespunzător de efectele și interacțiunile posibile care rezultă din aplicarea combinată a cerințelor prevăzute în prezentul capitol 2, cu scopul de a aborda riscurile în mod eficient, asigurând totodată o punere în aplicare adecvată și echilibrată a cerințelor.
Amendamentul 268
Propunere de regulament
Articolul 9 – alineatul 4 – partea introductivă
4.  Măsurile de gestionare a riscurilor menționate la alineatul (2) litera (d) sunt de așa natură încât orice risc rezidual asociat fiecărui pericol, precum și riscul rezidual global al sistemelor de IA cu grad ridicat de risc să fie considerate acceptabile, cu condiția ca sistemul de IA cu grad ridicat de risc să fie utilizat în conformitate cu scopul preconizat sau în condiții de utilizare necorespunzătoare previzibile în mod rezonabil. Riscurile reziduale respective se comunică utilizatorului.
4.  Măsurile de gestionare a riscurilor menționate la alineatul (2) litera (d) sunt de așa natură încât risc rezidual relevant asociat fiecărui pericol, precum și riscul rezidual global al sistemelor de IA cu grad ridicat de risc să fie considerate în mod rezonabil a fi acceptabile, cu condiția ca sistemul de IA cu grad ridicat de risc să fie utilizat în conformitate cu scopul preconizat sau în condiții de utilizare necorespunzătoare previzibile în mod rezonabil. Riscurile reziduale respective și deciziile motivate se comunică implementatorului.
La identificarea celor mai adecvate măsuri de gestionare a riscurilor se asigură următoarele:
Amendamentul 269
Propunere de regulament
Articolul 9 – alineatul 4 – paragraful 1 – litera a
(a)  eliminarea sau reducerea riscurilor pe cât posibil prin proiectare și dezvoltare adecvate;
(a)  eliminarea sau reducerea riscurilor identificate, în măsura în care acest lucru este fezabil din punct de vedere tehnologic, prin proiectare și dezvoltare adecvate a sistemului IA cu risc ridicat, implicând, atunci când este relevant, experți și părți interesate externe;
Amendamentul 270
Propunere de regulament
Articolul 9 – alineatul 4 – paragraful 1 – litera b
(b)  după caz, punerea în aplicare a unor măsuri adecvate de atenuare și control în ceea ce privește riscurile care nu pot fi eliminate;
(b)  după caz, punerea în aplicare a unor măsuri adecvate de atenuare și control pentru combaterea riscurilor semnificative care nu pot fi eliminate;
Amendamentul 271
Propunere de regulament
Articolul 9 – alineatul 4 – paragraful 1 – litera c
(c)  furnizarea de informații adecvate în temeiul articolului 13, în special în ceea ce privește riscurile menționate la alineatul (2) litera (b) din prezentul articol și, după caz, formarea utilizatorilor.
(c)  furnizarea de informații solicitate în temeiul articolului 13 și, după caz, formarea implementatorilor.
Amendamentul 272
Propunere de regulament
Articolul 9 – alineatul 4 – paragraful 2
La eliminarea sau reducerea riscurilor legate de utilizarea sistemului de IA cu grad ridicat de risc se acordă atenția cuvenită cunoștințelor tehnice, experienței, educației, formării pe care le preconizează utilizatorul și conforme cu mediul în care urmează să fie utilizat sistemul.
La eliminarea sau reducerea riscurilor legate de utilizarea sistemului de IA cu grad ridicat de risc, furnizorii acordă atenția cuvenită cunoștințelor tehnice, experienței, educației și formării de care ar putea avea nevoie implementatorul, inclusiv în legătură cu contextul presupus al utilizării.
Amendamentul 273
Propunere de regulament
Articolul 9 – alineatul 5
5.  Sistemele de IA cu grad ridicat de risc sunt testate în scopul identificării celor mai adecvate măsuri de gestionare a riscurilor. Testarea asigură faptul că sistemele de IA cu grad ridicat de risc funcționează în mod consecvent în scopul preconizat și sunt conforme cu cerințele stabilite în prezentul capitol.
5.  Sistemele de IA cu grad ridicat de risc sunt testate în scopul identificării celor mai adecvate și focalizate măsuri de gestionare a riscurilor și al ponderării oricăror astfel de măsuri în raport cu beneficiile potențiale și cu obiectivele preconizate ale sistemului. Testarea asigură faptul că sistemele de IA cu grad ridicat de risc funcționează în mod consecvent în scopul preconizat și sunt conforme cu cerințele stabilite în prezentul capitol.
Amendamentul 274
Propunere de regulament
Articolul 9 – alineatul 6
6.  Procedurile de testare sunt adecvate pentru a atinge scopul preconizat al sistemului de IA și nu trebuie să depășească ceea ce este necesar pentru atingerea scopului respectiv.
6.  Procedurile de testare sunt adecvate pentru a atinge scopul preconizat al sistemului de IA.
Amendamentul 275
Propunere de regulament
Articolul 9 – alineatul 7
7.  Testarea sistemelor de IA cu grad ridicat de risc se efectuează, după caz, în orice moment pe parcursul procesului de dezvoltare și, în orice caz, înainte de introducerea pe piață sau de punerea în funcțiune. Testarea se efectuează pe baza unor indicatori și a unor praguri probabilistice definite în prealabil, care sunt adecvate scopului preconizat al sistemului de IA cu grad ridicat de risc.
7.  Testarea sistemelor de IA cu grad ridicat de risc se efectuează înainte de introducerea pe piață sau de punerea în funcțiune. Testarea se efectuează pe baza unor indicatori și a unor praguri probabilistice definite în prealabil, care sunt adecvate scopului preconizat sau utilizării necorespunzătoare previzibile în mod rezonabil a sistemului de IA cu grad ridicat de risc.
Amendamentul 276
Propunere de regulament
Articolul 9 – alineatul 8
8.  La punerea în aplicare a sistemului de gestionare a riscurilor descris la alineatele (1) – (7), se acordă o atenție deosebită posibilității ca sistemul de IA cu grad ridicat de risc să fie accesat de copii sau să aibă un impact asupra acestora.
8.  La punerea în aplicare a sistemului de gestionare a riscurilor descris la alineatele (1) – (7), furnizorii acordă o atenție deosebită posibilității ca sistemul de IA cu grad ridicat de risc să aibă un impact negativ asupra grupurilor de persoane vulnerabile sau copiilor.
Amendamentul 277
Propunere de regulament
Articolul 9 – alineatul 9
9.  În cazul instituțiilor de credit reglementate de Directiva 2013/36/UE, aspectele descrise la alineatele (1)(8) fac parte din procedurile de gestionare a riscurilor stabilite de instituțiile respective în temeiul articolului 74 din directiva respectivă.
9.  În cazul furnizorilor și a sistemelor de IA care fac deja obiectul dreptului Uniunii ce le impun să instituie o gestionare specifică a riscurilor, inclusiv instituțiile de credit reglementate de Directiva2013/36/UE, aspectele descrise la alineatele(1)-(8) fac parte din procedurile de gestionare a riscurilor stabilite de dreptul Uniunii relevant sau sunt combinate cu acestea.
Amendamentul 278
Propunere de regulament
Articolul 10 – alineatul 1
1.  Sistemele de IA cu grad ridicat de risc care utilizează tehnici ce implică antrenarea de modele cu date sunt dezvoltate pe baza unor seturi de date de antrenament, de validare și de testare care îndeplinesc criteriile de calitate menționate la alineatele (2) – (5).
1.  Sistemele de IA cu grad ridicat de risc care utilizează tehnici ce implică antrenarea de modele cu date sunt dezvoltate pe baza unor seturi de date de antrenament, de validare și de testare care îndeplinesc criteriile de calitate menționate la alineatele (2) – (5) în măsura în care acest lucru este fezabil din punct de vedere tehnic, în funcție de segmentul de piață sau de domeniul de aplicare specific.
Tehnicile care nu necesită date de intrare etichetate, cum ar fi învățarea nesupervizată și învățarea complementară, se elaborează pe baza unor seturi de date, cum ar fi pentru testare și verificare, care îndeplinesc criteriile de calitate menționate la alineatele (2)-(5).
Amendamentul 279
Propunere de regulament
Articolul 10 – alineatul 2 – partea introductivă
2.  Seturile de date de antrenament, de validare și de testare fac obiectul unor practici adecvate de guvernanță și gestionare a datelor. Practicile respective se referă în special la:
2.  Seturile de date de antrenament, de validare și de testare fac obiectul guvernanței datelor adecvate pentru contextul utilizării și pentru scopul preconizat al sistemului de IA. Aceste măsuri se referă în special la:
Amendamentul 280
Propunere de regulament
Articolul 10 – alineatul 2 – litera aa (nouă)
(aa)  transparența privind scopul inițial al colectării datelor;
Amendamentul 281
Propunere de regulament
Articolul 10 – alineatul 2 – litera b
(b)  colectarea datelor;
(b)  procesele de colectare a datelor;
Amendamentul 282
Propunere de regulament
Articolul 10 – alineatul 2 – litera c
(c)  operațiunile relevante de prelucrare a datelor, cum ar fi adnotarea, etichetarea, curățarea, îmbogățirea și agregarea;
(c)  operațiunile de prelucrare a datelor, cum ar fi adnotarea, etichetarea, curățarea, actualizarea, îmbogățirea și agregarea;
Amendamentul 283
Propunere de regulament
Articolul 10 – alineatul 2 – litera d
(d)  formularea unor ipoteze relevante, în special în ceea ce privește informațiile pe care datele ar trebui să le măsoare și să le reprezinte;
(d)  formularea unor ipoteze, în special în ceea ce privește informațiile pe care datele ar trebui să le măsoare și să le reprezinte;
Amendamentul 284
Propunere de regulament
Articolul 10 – alineatul 2 – litera e
(e)  o evaluare prealabilă a disponibilității, a cantității și a adecvării seturilor de date necesare;
(e)  o evaluare a disponibilității, a cantității și a adecvării seturilor de date necesare;
Amendamentul 285
Propunere de regulament
Articolul 10 – alineatul 2 – litera f
(f)  examinarea în vederea identificării unor posibile părtiniri;
(f)  examinarea în vederea identificării unor posibile părtiniri care sunt susceptibile să afecteze sănătatea și siguranța persoanelor, să aibă un impact negativ asupra drepturilor fundamentale sau să conducă la discriminare interzisă în temeiul dreptului Uniunii, în special în cazul în care datele de ieșire influențează datele de intrare pentru operațiunile viitoare („bucle de feedback”) și măsurile adecvate de detectare, prevenire și atenuare a posibilelor părtiniri;
Amendamentul 286
Propunere de regulament
Articolul 10 – alineatul 2 – litera fa (nouă)
(fa)  măsuri adecvate pentru detectarea, prevenirea și atenuarea posibilelor părtiniri;
Amendamentul 287
Propunere de regulament
Articolul 10 – alineatul 2 – litera g
(g)  identificarea eventualelor lacune sau deficiențe în materie de date și a modului în care acestea pot fi abordate.
(g)  identificarea lacunelor sau a deficiențelor relevante în materie de date care împiedică conformitatea cu prezentul regulament și a modului în care acestea pot fi abordate;
Amendamentul 288
Propunere de regulament
Articolul 10 – alineatul 3
3.  Seturile de date de antrenament, de validare și de testare trebuie să fie relevante, reprezentative, fără erori și complete. Acestea au proprietățile statistice corespunzătoare, inclusiv, după caz, în ceea ce privește persoanele sau grupurile de persoane în legătură cu care se intenționează să fie utilizat sistemul de IA cu grad ridicat de risc. Aceste caracteristici ale seturilor de date pot fi îndeplinite la nivelul seturilor de date individuale sau al unei combinații a acestora.
3.  Seturile de date de antrenament și, în cazul în care sunt utilizate, seturile de date de validare și de testare trebuie să fie relevante, suficiente, reprezentative, verificate în mod corespunzător în ceea ce privește erorile și pe cât de complete cu putință, având în vedere scopul preconizat. Acestea au proprietățile statistice corespunzătoare, inclusiv, după caz, în ceea ce privește persoanele sau grupurile de persoane în legătură cu care se intenționează să fie utilizat sistemul de IA cu grad ridicat de risc. Aceste caracteristici ale seturilor de date sunt îndeplinite la nivelul seturilor de date individuale sau al unei combinații a acestora.
Amendamentul 289
Propunere de regulament
Articolul 10 – alineatul 4
4.  Seturile de date de antrenament, de validare și de testare iau în considerare, în măsura impusă de scopul preconizat, caracteristicile sau elementele specifice cadrului geografic, comportamental sau funcțional specific în care este destinat să fie utilizat sistemul de IA cu grad ridicat de risc.
4.  Seturile de date iau în considerare, în măsura impusă de scopul preconizat și de utilizările necorespunzătoare previzibile și previzibile rezonabil ale sistemului de IA, caracteristicile sau elementele specifice cadrului geografic, comportamental contextual sau funcțional specific în care este destinat să fie utilizat sistemul de IA cu grad ridicat de risc.
Amendamentul 290
Propunere de regulament
Articolul 10 – alineatul 5
5.  În măsura în care acest lucru este strict necesar pentru a asigura monitorizarea, detectarea și corectarea erorilor sistematice în legătură cu sistemele de IA cu grad ridicat de risc, furnizorii de astfel de sisteme pot prelucra categoriile speciale de date cu caracter personal menționate la articolul 9 alineatul (1) din Regulamentul (UE) 2016/679, la articolul 10 din Directiva (UE) 2016/680 și la articolul 10 alineatul (1) din Regulamentul (UE) 2018/1725, sub rezerva unor garanții adecvate pentru drepturile și libertățile fundamentale ale persoanelor fizice, inclusiv pentru limitările tehnice privind reutilizarea și utilizarea măsurilor de securitate și de protejare a vieții private de ultimă generație, cum ar fi pseudonimizarea, sau criptarea în cazul în care anonimizarea poate afecta în mod semnificativ scopul urmărit.
5.  În măsura în care acest lucru este strict necesar pentru a asigura detectarea și corectarea negativă a erorilor sistematice în legătură cu sistemele de IA cu grad ridicat de risc, furnizorii de astfel de sisteme pot prelucra în mod excepțional categoriile speciale de date cu caracter personal menționate la articolul 9 alineatul (1) din Regulamentul (UE) 2016/679, la articolul 10 din Directiva (UE) 2016/680 și la articolul 10 alineatul (1) din Regulamentul (UE) 2018/1725, sub rezerva unor garanții adecvate pentru drepturile și libertățile fundamentale ale persoanelor fizice, inclusiv pentru limitările tehnice privind reutilizarea și utilizarea măsurilor de securitate și de protejare a vieții private de ultimă generație. În special, pentru ca această prelucrare să aibă loc, se aplică toate condițiile următoare: (a) detectarea și corectarea părtinirilor nu poate fi realizată în mod eficace prin prelucrarea datelor sintetice sau anonimizate;
(b)  datele sunt pseudonimizate;
(c)  furnizorul ia măsurile tehnice și organizatorice adecvate pentru a se asigura că datele prelucrate în sensul prezentului alineat sunt securizate, protejate, sub rezerva unor garanții adecvate și că numai persoanele autorizate au acces la aceste date cu obligații de confidențialitate adecvate;
(d)  datele prelucrate în sensul prezentului alineat nu trebuie transmise, transferate sau accesate în alt mod de către alte părți;
(e)  datele prelucrate în sensul prezentului alineat sunt protejate prin măsuri tehnice și organizatorice adecvate și sunt șterse după ce au fost corectate părtinirile sau datele cu caracter personal au ajuns la sfârșitul perioadei de păstrare;
(f)  există măsuri eficace și adecvate pentru a asigura disponibilitatea, securitatea și reziliența sistemelor și serviciilor de prelucrare împotriva incidentelor tehnice sau fizice;
(g)  există măsuri eficace și adecvate pentru a asigura securitatea fizică a locurilor în care sunt stocate și prelucrate datele, guvernanța și gestionarea internă a sistemelor informatice și a securității informatice, certificarea proceselor și a produselor;
furnizorii care recurg la această dispoziție întocmesc o documentație în care explică de ce a fost necesară prelucrarea unor categorii speciale de date cu caracter personal pentru a detecta și a corecta părtinirile.
Amendamentul 291
Propunere de regulament
Articolul 10 – alineatul 6 a (nou)
6a.  În cazul în care furnizorul nu poate respecta obligațiile prevăzute la prezentul articol deoarece furnizorul respectiv nu are acces la date, iar datele sunt deținute exclusiv de implementator, implementatorul poate fi tras la răspundere, pe baza unui contract, pentru orice încălcare a prezentului articol.
Amendamentul 292
Propunere de regulament
Articolul 11 – alineatul 1 – paragraful 1
Documentația tehnică se întocmește astfel încât să demonstreze că sistemul de IA cu grad ridicat de risc respectă cerințele prevăzute în prezentul capitol și să furnizeze autorităților naționale competente și organismelor notificate toate informațiile necesare pentru a evalua conformitatea sistemului de IA cu cerințele respective. Aceasta conține cel puțin elementele prevăzute în anexa IV.
Documentația tehnică se întocmește astfel încât să demonstreze că sistemul de IA cu grad ridicat de risc respectă cerințele prevăzute în prezentul capitol și să furnizeze autorităților naționale de supraveghere și organismelor notificate informațiile necesare pentru a evalua conformitatea sistemului de IA cu cerințele respective. Aceasta conține cel puțin elementele prevăzute în anexa IV sau, în cazul IMM-urilor și al întreprinderilor nou-înființate, orice documentație echivalentă care îndeplinește aceleași obiective, sub rezerva aprobării de către autoritatea națională competentă.
Amendamentul 293
Propunere de regulament
Articolul 11 – alineatul 2
2.  În cazul în care un sistem de IA cu grad ridicat de risc legat de un produs, căruia i se aplică actele juridice enumerate în anexa II secțiunea A, este introdus pe piață sau pus în funcțiune, se întocmește o singură documentație tehnică ce conține toate informațiile prevăzute în anexa IV, precum și informațiile solicitate în temeiul respectivelor acte juridice.
2.  În cazul în care un sistem de IA cu grad ridicat de risc legat de un produs, căruia i se aplică actele juridice enumerate în anexa II secțiunea A, este introdus pe piață sau pus în funcțiune, se întocmește o singură documentație tehnică ce conține toate informațiile prevăzute la alineatul (1), precum și informațiile solicitate în temeiul respectivelor acte juridice.
Amendamentul 294
Propunere de regulament
Articolul 11 – alineatul 3 a (nou)
3a.  Furnizorii care sunt instituții de credit reglementate de Directiva 2013/36/UE păstrează documentația tehnică ca parte a documentației privind guvernanța internă, modalitățile, procesele și mecanismele interne, în conformitate cu articolul 74 din directiva respectivă.
Amendamentul 295
Propunere de regulament
Articolul 12 – alineatul 1
1.  Sistemele de IA cu grad ridicat de risc sunt proiectate și dezvoltate cu capacități care permit înregistrarea automată a evenimentelor („fișiere de jurnalizare”) în timpul funcționării sistemelor de IA cu grad ridicat de risc. Aceste capacități de jurnalizare sunt conforme cu standardele recunoscute sau cu specificațiile comune.
1.  Sistemele de IA cu grad ridicat de risc sunt proiectate și dezvoltate cu capacități care permit înregistrarea automată a evenimentelor („fișiere de jurnalizare”) în timpul funcționării sistemelor de IA cu grad ridicat de risc. Aceste capacități de jurnalizare sunt conforme cu stadiul actual al tehnologiei și cu standardele recunoscute sau cu specificațiile comune.
Amendamentul 296
Propunere de regulament
Articolul 12 – alineatul 2
2.  Capacitățile de jurnalizare asigură un nivel de trasabilitate a funcționării sistemului de IA pe parcursul întregului său ciclu de viață, care este adecvat scopului preconizat al sistemului.
2.  Pentru a asigura un nivel de trasabilitate a funcționării sistemului de IA pe parcursul întregii sale durate de viață, care este adecvat scopului preconizat al sistemului, capacitățile de jurnalizare facilitează monitorizarea operațiunilor menționate la articolul 29 alineatul (4), precum și monitorizarea ulterioară introducerii pe piață menționată la articolul 61. În special, acestea permit înregistrarea evenimentelor relevante pentru identificarea situațiilor care pot:
(a)  avea ca urmare riscuri prezentate de sistemul de IA în sensul articolului 65 alineatul (1); sau
(b)  conduce la o modificare substanțială a sistemului de IA.
Amendamentul 297
Propunere de regulament
Articolul 12 – alineatul 2 a (nou)
2a.  Sistemele de IA cu grad ridicat de risc sunt proiectate și dezvoltate cu capacitățile de jurnalizare care permit înregistrarea consumului de energie, măsurarea sau calcularea utilizării resurselor și a impactului asupra mediului al sistemului de IA cu grad ridicat de risc în toate etapele ciclului de viață al sistemului.
Amendamentul 298
Propunere de regulament
Articolul 12 – alineatul 3
3.  În special, capacitățile de jurnalizare permit monitorizarea funcționării sistemului de IA cu grad ridicat de risc în ceea ce privește apariția situațiilor care pot avea ca rezultat un sistem de IA care prezintă un risc în sensul articolului 65 alineatul (1) sau care pot conduce la o modificare substanțială, și facilitează monitorizarea ulterioară introducerii pe piață menționată la articolul 61.
eliminat
Amendamentul 299
Propunere de regulament
Articolul 13 – titlu
Transparența și furnizarea de informații utilizatorilor
Transparența și furnizarea de informații
Amendamentul 300
Propunere de regulament
Articolul 13 – alineatul 1
1.  Sistemele de IA cu grad ridicat de risc sunt proiectate și dezvoltate astfel încât să se asigure că funcționarea lor este suficient de transparentă pentru a permite utilizatorilor să interpreteze rezultatele sistemului șile utilizeze în mod corespunzător. Se asigură un tip și un grad adecvat de transparență, în vederea respectării obligațiilor relevante ale utilizatorului și ale furnizorului prevăzute în capitolul 3 din prezentul titlu.
1.  Sistemele de IA cu grad ridicat de risc sunt proiectate și dezvoltate astfel încât să se asigure că funcționarea lor este suficient de transparentă pentru a le permite furnizorilor și utilizatorilorînțeleagă în mod rezonabil funcționarea sistemului. Se asigură o transparență adecvată în concordanță cu scopul preconizat al sistemului de IA, în vederea respectării obligațiilor relevante ale furnizorului și ale utilizatorului prevăzute în capitolul 3 din prezentul titlu.
Prin urmare, transparența înseamnă că, la momentul introducerii pe piață a sistemului de IA cu grad ridicat de risc, sunt folosite toate mijloacele tehnice disponibile în conformitate cu stadiul actual al tehnologiei general recunoscut pentru a se asigura faptul că rezultatul sistemului de IA poate fi interpretat de către furnizor și utilizator. Utilizatorul are posibilitatea de a înțelege și de a folosi sistemul de IA în mod corespunzător, cunoscând, în general, cum funcționează sistemul de IA și ce date prelucrează, permițându-i-se utilizatorului să explice persoanei afectate deciziile luate de sistemul de IA în temeiul articolului 68 litera (c).
Amendamentul 301
Propunere de regulament
Articolul 13 – alineatul 2
2.  Sistemele de IA cu grad ridicat de risc sunt însoțite de instrucțiuni de utilizare într-un format digital adecvat sau în alte moduri, care includ informații concise, complete, corecte și clare care sunt relevante, accesibile și ușor de înțeles pentru utilizatori.
2.  Sistemele de IA cu grad ridicat de risc sunt însoțite de instrucțiuni de utilizare inteligibile într-un format digital adecvat sau puse în alt fel la dispoziție pe un suport durabil, care includ informații concise, corecte, clare și, în măsura posibilului, complete, ce ajută la operarea și întreținerea sistemului de IA și ajută utilizatorii să ia decizii în cunoștință de cauză și, într-o măsură rezonabilă, sunt relevante, accesibile și ușor de înțeles pentru utilizatori.
Amendamentul 302
Propunere de regulament
Articolul 13 – alineatul 3 – partea introductivă
3.  Informațiile menționate la alineatul (2) precizează:
3.  Pentru a se obține rezultatele menționate la alineatul (1), informațiile menționate la alineatul(2) precizează:
Amendamentul 303
Propunere de regulament
Articolul 13 – alineatul 3 – litera a
(a)  identitatea și datele de contact ale furnizorului și, după caz, ale reprezentantului său autorizat;
(a)  identitatea și datele de contact ale furnizorului și, după caz, ale reprezentanților săi autorizați;
Amendamentul 304
Propunere de regulament
Articolul 13 – alineatul 3 – litera aa (nouă)
(aa)  în cazul în care aceasta nu este aceeași cu furnizorul, identitatea și datele de contact ale entității care a efectuat evaluarea conformității și, după caz, ale reprezentantului său autorizat;
Amendamentul 305
Propunere de regulament
Articolul 13 – alineatul 3 – litera b – partea introductivă
(b)  caracteristicile, capacitățile și limitările performanței sistemului de IA cu grad ridicat de risc, inclusiv:
(b)  caracteristicile, capacitățile și limitările performanței sistemului de IA cu grad ridicat de risc, inclusiv, după caz:
Amendamentul 306
Propunere de regulament
Articolul 13 – alineatul 3 – litera b – punctul ii
(ii)  nivelul de acuratețe, robustețe și securitate cibernetică menționat la articolul 15 în raport cu care sistemul de IA cu grad ridicat de risc a fost testat și validat și care poate fi preconizat, precum și orice circumstanță cunoscută și previzibilă care ar putea avea un impact asupra nivelului preconizat de acuratețe, robustețe și securitate cibernetică;
(ii)  nivelul de acuratețe, robustețe și securitate cibernetică menționat la articolul 15 în raport cu care sistemul de IA cu grad ridicat de risc a fost testat și validat și care poate fi preconizat, precum și orice circumstanță clar cunoscută și previzibilă care ar putea avea un impact asupra nivelului preconizat de acuratețe, robustețe și securitate cibernetică;
Amendamentul 307
Propunere de regulament
Articolul 13 – alineatul 3 – litera b – punctul iii
(iii)  orice circumstanță cunoscută sau previzibilă legată de utilizarea sistemului de IA cu grad ridicat de risc în conformitate cu scopul preconizat sau în condiții de utilizare necorespunzătoare previzibile în mod rezonabil, care poate conduce la riscuri pentru sănătate și siguranță sau pentru drepturile fundamentale;
(iii)  orice circumstanță clar cunoscută sau previzibilă legată de utilizarea sistemului de IA cu grad ridicat de risc în conformitate cu scopul preconizat sau în condiții de utilizare necorespunzătoare previzibile în mod rezonabil, care poate conduce la riscuri pentru sănătate și siguranță, pentru drepturile fundamentale sau pentru mediu, inclusiv, după caz, exemple ilustrative de astfel de limitări și de scenarii în care sistemul nu ar trebui să fie folosit;
Amendamentul 308
Propunere de regulament
Articolul 13 – alineatul 3 – litera b – punctul iii a (nou)
(iiia)  măsura în care sistemul de IA poate oferi o explicație pentru deciziile pe care le ia;
Amendamentul 309
Propunere de regulament
Articolul 13 – alineatul 3 – litera b – punctul v
(v)  după caz, specificațiile pentru datele de intrare sau orice altă informație relevantă în ceea ce privește seturile de date de antrenament, de validare și de testare utilizate, ținând seama de scopul preconizat al sistemului de IA.
(v)  informații relevante despre acțiunile utilizatorului care ar putea influența performanța sistemului, inclusiv tipul sau calitatea datelor de intrare sau orice altă informație relevantă în ceea ce privește seturile de date de antrenament, de validare și de testare utilizate, ținând seama de scopul preconizat al sistemului de IA.
Amendamentul 310
Propunere de regulament
Articolul 13 – alineatul 3 – litera e
(e)  durata de viață preconizată a sistemului de IA cu grad ridicat de risc și orice măsură de întreținere și de îngrijire necesară pentru a asigura funcționarea corespunzătoare a sistemului de IA respectiv, inclusiv în ceea ce privește actualizările software-ului.
(e)  orice măsură de întreținere și de îngrijire necesară pentru a asigura funcționarea corespunzătoare a sistemului de IA respectiv, inclusiv în ceea ce privește actualizările software-ului, pe durata sa de viață preconizată.
Amendamentul 311
Propunere de regulament
Articolul 13 – alineatul 3 – litera ea (nouă)
(ea)  o descriere a mecanismelor incluse în sistemul de IA care să permită utilizatorilor să colecteze, să stocheze și să interpreteze în mod corespunzător fișierele de jurnalizare în conformitate cu articolul 12 alineatul (1).
Amendamentul 312
Propunere de regulament
Articolul 13 – alineatul 3 – litera eb (nouă)
(eb)  Aceste informații sunt furnizate cel puțin în limba țării în care este folosit sistemul de IA.
Amendamentul 313
Propunere de regulament
Articolul 13 – alineatul 3 a (nou)
3a.  Pentru a respecta obligațiile prevăzute la prezentul articol, furnizorii și utilizatorii asigură un nivel suficient de alfabetizare în domeniul IA în conformitate cu articolul 4b.
Amendamentul 314
Propunere de regulament
Articolul 14 – alineatul 1
1.  Sistemele de IA cu grad ridicat de risc sunt proiectate și dezvoltate astfel încât, inclusiv cu instrumente adecvate de interfață om-mașină, să poată fi supravegheate în mod eficace de către persoanele fizice în perioada în care este utilizat sistemul de IA.
1.  Sistemele de IA cu grad ridicat de risc sunt proiectate și dezvoltate astfel încât, inclusiv cu instrumente adecvate de interfață om-mașină, să fie supravegheate în mod eficace de către persoanele fizice în mod proporțional cu riscurile asociate sistemelor în cauză. Persoanele fizice responsabile cu asigurarea supravegherii umane au un nivel suficient de alfabetizare în domeniul IA în conformitate cu articolul 4b și dispun de sprijinul și autoritatea necesare pentru a exercita această funcție, în perioada în care este utilizat sistemul de IA, și pentru a permite investigarea amănunțită după un incident.
Amendamentul 315
Propunere de regulament
Articolul 14 – alineatul 2
2.  Supravegherea umană are ca scop prevenirea sau reducerea la minimum a riscurilor pentru sănătate, siguranță sau pentru drepturile fundamentale, care pot apărea atunci când un sistem de IA cu grad ridicat de risc este utilizat în conformitate cu scopul său preconizat sau în condiții de utilizare necorespunzătoare previzibile în mod rezonabil, în special atunci când astfel de riscuri persistă în pofida aplicării altor cerințe prevăzute în prezentul capitol.
2.  Supravegherea umană are ca scop prevenirea sau reducerea la minimum a riscurilor pentru sănătate, siguranță, drepturile fundamentale sau mediu care pot apărea atunci când un sistem de IA cu grad ridicat de risc este utilizat în conformitate cu scopul său preconizat sau în condiții de utilizare necorespunzătoare previzibile în mod rezonabil, în special atunci când astfel de riscuri persistă în pofida aplicării altor cerințe prevăzute în prezentul capitol și în cazul în care deciziile bazate exclusiv pe prelucrarea automatizată de către sistemele de AI produc efecte juridice sau în alt mod semnificative asupra persoanelor sau grupurilor de persoane în legătură cu care urmează să fie folosit sistemul.
Amendamentul 316
Propunere de regulament
Articolul 14 – alineatul 3 – partea introductivă
3.  Supravegherea umană se asigură prin una dintre sau prin toate următoarele măsuri:
3.  Supravegherea umană ține seama de riscurile specifice, de nivelul de automatizare și de contextul sistemului de IA și se asigură prin una dintre sau prin toate următoarele tipuri de măsuri:
Amendamentul 317
Propunere de regulament
Articolul 14 – alineatul 4 – partea introductivă
4.  Măsurile menționate la alineatul (3) permit persoanelor cărora li se încredințează supravegherea umană următoarele acțiuni, în funcție de circumstanțe:
4.  În scopul punerii în aplicare a alineatelor (1)-(3), sistemul de IA cu grad ridicat de risc este pus la dispoziția utilizatorului astfel încât persoanelor fizice cărora li se încredințează supravegherea umană să li se permită, în funcție de circumstanțe și proporțional cu acestea, următoarele:
Amendamentul 318
Propunere de regulament
Articolul 14 – alineatul 4 – litera a
(a)  să înțeleagă pe deplin capacitățile și limitările sistemului de IA cu grad ridicat de risc și să fie în măsură să monitorizeze în mod corespunzător funcționarea acestuia, astfel încât semnele de anomalii, disfuncționalități și performanțe neașteptate să poată fi detectate și abordate cât mai curând posibil;
(a)  să conștientizeze și să înțeleagă într-o măsură suficientă capacitățile și limitările relevante ale sistemului de IA cu grad ridicat de risc și să fie în măsură să monitorizeze în mod corespunzător funcționarea acestuia, astfel încât semnele de anomalii, disfuncționalități și performanțe neașteptate să poată fi detectate și abordate cât mai curând posibil;
Amendamentul 319
Propunere de regulament
Articolul 14 – alineatul 4 – litera e
(e)  să poată interveni în funcționarea sistemului de IA cu grad ridicat de risc sau să întrerupă sistemul prin intermediul unui buton „stop” sau al unei proceduri similare.
(e)  să poată interveni în funcționarea sistemului de IA cu grad ridicat de risc sau să întrerupă sistemul prin intermediul unui buton „stop” sau al unei proceduri similare care să permită sistemului să se oprească în condiții de siguranță, cu excepția cazului în care intervenția umană crește riscurile sau ar avea un impact negativ asupra performanței, ținând seama de stadiul actual al tehnologiei general recunoscut.
Amendamentul 320
Propunere de regulament
Articolul 14 – alineatul 5
5.  În cazul sistemelor de IA cu grad ridicat de risc menționate în anexa III punctul 1 litera (a), măsurile menționate la alineatul (3) sunt de așa natură încât să asigure că, în plus, utilizatorul nu ia nicio măsură sau decizie pe baza identificării care rezultă din sistem, cu excepția cazului în care acest lucru a fost verificat și confirmat de cel puțin două persoane fizice.
5.  În cazul sistemelor de IA cu grad ridicat de risc menționate în anexa III punctul 1 litera (a), măsurile menționate la alineatul (3) sunt de așa natură încât să asigure că, în plus, utilizatorul nu ia nicio măsură sau decizie pe baza identificării care rezultă din sistem, cu excepția cazului în care acest lucru a fost verificat și confirmat de cel puțin două persoane fizice care au competența, pregătirea și autoritatea necesare.
Amendamentul 321
Propunere de regulament
Articolul 15 – alineatul 1
1.  Sistemele de IA cu grad ridicat de risc sunt concepute și dezvoltate astfel încât, având în vedere scopul lor preconizat, să atingă un nivel adecvat de acuratețe, robustețe și securitate cibernetică și să funcționeze în mod consecvent în aceste privințe pe parcursul întregului lor ciclu de viață.
1.  Sistemele de IA cu grad ridicat de risc sunt concepute și dezvoltate în conformitate cu principiul securității din faza de proiectare și în mod implicit. Având în vedere scopul lor preconizat, acestea ar trebui să atingă un nivel adecvat de acuratețe, robustețe, siguranță și securitate cibernetică și să funcționeze în mod consecvent în aceste privințe pe parcursul întregului lor ciclu de viață. Respectarea acestor cerințe include punerea în aplicare a unor măsuri de ultimă generație, în funcție de segmentul de piață sau de domeniul de aplicare specific.
Amendamentul 322
Propunere de regulament
Articolul 15 – alineatul 1 a (nou)
1a.  Pentru a aborda aspectele tehnice ale modului de măsurare a nivelurilor adecvate de acuratețe și robustețe prevăzute la alineatul (1) de la prezentul articol, Oficiul pentru IA reunește autorități naționale și internaționale din domeniul metrologiei și al analizei comparative și oferă orientări fără caracter obligatoriu cu privire la această chestiune, astfel cum se prevede la articolul 56 alineatul (2) litera (a).
Amendamentul 323
Propunere de regulament
Articolul 15 – alineatul 1 b (nou)
1b.  Pentru a aborda orice problemă emergentă în cadrul pieței interne în ceea ce privește securitatea cibernetică, Agenția Uniunii Europene pentru Securitate Cibernetică (ENISA) este implicată alături de Comitetul european pentru inteligența artificială, astfel cum se prevede la articolul 56 alineatul (2) litera (b).
Amendamentul 324
Propunere de regulament
Articolul 15 – alineatul 2
2.  Nivelurile de acuratețe și indicatorii de precizie relevanți ai sistemelor de IA cu grad ridicat de risc se declară în instrucțiunile de utilizare aferente.
2.  Nivelurile de acuratețe și indicatorii de precizie relevanți ai sistemelor de IA cu grad ridicat de risc se declară în instrucțiunile de utilizare aferente. Limbajul utilizat este clar, fără confuzii sau afirmații înșelătoare.
Amendamentul 325
Propunere de regulament
Articolul 15 – alineatul 3 – paragraful 1
Sistemele de IA cu grad ridicat de risc sunt reziliente în ceea ce privește erorile, defecțiunile sau incoerențele care pot apărea în cadrul sistemului sau în mediul în care funcționează sistemul, în special din cauza interacțiunii lor cu persoane fizice sau cu alte sisteme.
Se iau măsuri tehnice și organizatorice pentru a asigura că sistemele de IA cu grad ridicat de risc sunt cât mai reziliente posibil în ceea ce privește erorile, defecțiunile sau incoerențele care pot apărea în cadrul sistemului sau în mediul în care funcționează sistemul, în special din cauza interacțiunii lor cu persoane fizice sau cu alte sisteme.
Amendamentul 326
Propunere de regulament
Articolul 15 – alineatul 3 – paragraful 2
Robustețea sistemelor de IA cu grad ridicat de risc poate fi asigurată prin soluții tehnice redundante, care pot include planuri de rezervă sau de autoprotecție.
Robustețea sistemelor de IA cu grad ridicat de risc poate fi asigurată de către furnizorul corespunzător, cu contribuția utilizatorului, dacă este necesar, prin soluții tehnice redundante, care pot include planuri de rezervă sau de autoprotecție în caz de defecțiune.
Amendamentul 327
Propunere de regulament
Articolul 15 – alineatul 3 – paragraful 3
Sistemele de IA cu grad ridicat de risc care continuă să învețe după ce au fost introduse pe piață sau puse în funcțiune sunt dezvoltate astfel încât să se asigure că eventualele rezultate părtinitoare din cauza rezultatelor utilizate ca date de intrare pentru operațiunile viitoare („bucle de feedback”) sunt abordate în mod corespunzător prin măsuri de atenuare adecvate.
Sistemele de IA cu grad ridicat de risc care continuă să învețe după ce au fost introduse pe piață sau puse în funcțiune sunt dezvoltate astfel încât să se asigure că eventualele rezultate părtinitoare care influențează datele de intrare pentru operațiunile viitoare („bucle de feedback”) și manipularea răuvoitoare a datelor de intrare utilizate în învățarea în timpul funcționării sunt preîntâmpinate corespunzător prin măsuri de atenuare adecvate.
Amendamentul 328
Propunere de regulament
Articolul 15 – alineatul 4 – paragraful 1
Sistemele de IA cu grad ridicat de risc sunt reziliente în ceea ce privește încercările unor părți terțe neautorizate de a le modifica utilizarea sau performanța prin exploatarea vulnerabilităților sistemului.
Sistemele de IA cu grad ridicat de risc sunt rezistente la încercările unor părți terțe neautorizate de a le modifica utilizarea, comportamentul, rezultatele sau performanța prin exploatarea vulnerabilităților sistemului.
Amendamentul 329
Propunere de regulament
Articolul 15 – alineatul 4 – paragraful 3
Soluțiile tehnice pentru abordarea vulnerabilităților specifice ale IA includ, după caz, măsuri de prevenire și control al atacurilor ce vizează manipularea setului de date de antrenament („data poisoning”), date de intrare concepute să determine modelul să facă o greșeală („exemple contradictorii”) sau defecte ale modelului.
Soluțiile tehnice pentru abordarea vulnerabilităților specifice ale IA includ, după caz, măsuri de prevenire, detectare, răspuns, soluționare și control în legătură cu atacurile ce vizează manipularea setului de date de antrenament („data poisoning”) sau a componentelor antrenate în prealabil utilizate la antrenament („model poisoning”), cu datele de intrare concepute să determine modelul să facă o greșeală („exemple contradictorii” sau „eludarea modelelor”), cu atacurile la adresa confidențialității sau cu defectele modelului, care ar putea duce la un proces decizional dăunător.
Amendamentul 330
Propunere de regulament
Titlul III – capitolul 3 – titlu
OBLIGAȚIILE FURNIZORILOR ȘI UTILIZATORILOR DE SISTEME DE IA CU GRAD RIDICAT DE RISC și ale altor părți
OBLIGAȚIILE FURNIZORILOR ȘI OPERATORILOR DE SISTEME DE IA CU GRAD RIDICAT DE RISC ȘI ALE ALTOR PĂRȚI
Amendamentul 331
Propunere de regulament
Articolul 16 – titlu
Obligațiile furnizorilor de sisteme de IA cu grad ridicat de risc
Obligațiile furnizorilor și operatorilor de sisteme de IA cu grad ridicat de risc și ale altor părți
Amendamentul 332
Propunere de regulament
Articolul 16 – paragraful 1 – litera a
(a)  se asigură că sistemele lor de IA cu grad ridicat de risc respectă cerințele prevăzute în capitolul 2 din prezentul titlu;
(a)  se asigură că sistemele lor de IA cu grad ridicat de risc respectă cerințele prevăzute în capitolul 2 din prezentul titlu înainte de a le introduce pe piață sau de a le pune în funcțiune;
Amendamentul 333
Propunere de regulament
Articolul 16 – paragraful 1 – litera aa (nouă)
(aa)  își indică numele, denumirea comercială înregistrată sau marca înregistrată și adresa și informațiile de contact pe sistemul de IA cu grad ridicat de risc sau, dacă acest lucru nu este posibil, pe ambalaj sau în documentele care îl însoțesc, după caz;
Amendamentul 334
Propunere de regulament
Articolul 16 – paragraful 1 – litera ab (nouă)
(ab)  se asigură că persoanele fizice cărora li se încredințează supravegherea umană a sistemelor de IA cu grad ridicat de risc sunt informate special de riscul de încredere oarbă în automatizare și de prejudecata de confirmare;
Amendamentul 335
Propunere de regulament
Articolul 16 – paragraful 1 – litera ac (nouă)
(ac)  furnizează specificații pentru datele de intrare sau orice altă informație relevantă pentru seturile de date utilizate, inclusiv limitările și ipotezele de lucru ale acestora, ținând seama de scopul urmărit și de utilizările necorespunzătoare previzibile și previzibile rezonabil ale sistemului de IA;
Amendamentul 336
Propunere de regulament
Articolul 16 – paragraful 1 – litera c
(c)  întocmesc documentația tehnică a sistemului de IA cu grad ridicat de risc;
(c)  întocmesc și păstrează documentația tehnică a sistemului de IA cu grad ridicat de risc menționată la articolul 11;
Amendamentul 337
Propunere de regulament
Articolul 16 – paragraful 1 – litera d
(d)  atunci când acest lucru este sub controlul lor, păstrează fișierele de jurnalizare generate automat de sistemele lor de IA cu grad ridicat de risc;
(d)  atunci când acest lucru este sub controlul lor, păstrează fișierele de jurnalizare generate automat de sistemele lor de IA cu grad ridicat de risc care sunt necesare pentru a asigura și demonstra conformitatea cu prezentul regulament, în conformitate cu articolul 20;
Amendamentul 338
Propunere de regulament
Articolul 16 – paragraful 1 – litera e
(e)  se asigură că sistemul de IA cu grad ridicat de risc este supus procedurii relevante de evaluare a conformității, înainte de introducerea sa pe piață sau de punerea sa în funcțiune;
(e)  se asigură că sistemul de IA cu grad ridicat de risc este supus procedurii relevante de evaluare a conformității, înainte de a fi introdus pe piață sau pus în funcțiune, în conformitate cu articolul 43;
Amendamentul 339
Propunere de regulament
Articolul 16 – paragraful 1 – litera ea (nouă)
(ea)  elaborează o declarație de conformitate UE în conformitate cu articolul 48;
Amendamentul 340
Propunere de regulament
Articolul 16 – paragraful 1 – litera eb (nouă)
(eb)  aplică marcajul CE pe sistemul lor de IA cu risc ridicat pentru a indica conformitatea cu prezentul regulament în conformitate cu articolul 49;
Amendamentul 341
Propunere de regulament
Articolul 16 – paragraful 1 – litera g
(g)  iau măsurile corective necesare, în cazul în care sistemul de IA cu grad ridicat de risc nu este în conformitate cu cerințele stabilite în capitolul 2 din prezentul titlu;
(g)  ia măsurile corective necesare menționate la articolul 21 și furnizează informații în acest sens;
Amendamentul 342
Propunere de regulament
Articolul 16 – paragraful 1 – litera h
(h)  informează autoritățile naționale competente ale statelor membre în care au pus la dispoziție sau au pus în funcțiune sistemul de IA și, după caz, organismul notificat cu privire la neconformitate și la orice măsură corectivă luată;
eliminat
Amendamentul 343
Propunere de regulament
Articolul 16 – paragraful 1 – litera i
(i)  aplică marcajul CE pe sistemele lor de IA cu risc ridicat pentru a indica conformitatea cu prezentul regulament în conformitate cu articolul 49;
eliminat
Amendamentul 344
Propunere de regulament
Articolul 16 – paragraful 1 – litera j
(j)  la cererea unei autorități naționale competente, demonstrează conformitatea sistemului de IA cu grad ridicat de risc cu cerințele prevăzute în capitolul 2 din prezentul titlu.
(j)  la cererea motivată a unei autorități naționale de supraveghere, demonstrează conformitatea sistemului de IA cu grad ridicat de risc cu cerințele prevăzute în capitolul 2 din prezentul titlu.
Amendamentul 345
Propunere de regulament
Articolul 16 – paragraful 1 – litera ja (nouă)
(ja)  garantează că sistemul de IA cu grad ridicat de risc respectă cerințele de accesibilitate.
Amendamentul 346
Propunere de regulament
Articolul 17 – alineatul 1 – partea introductivă
1.  Furnizorii de sisteme de IA cu grad ridicat de risc instituie un sistem de management al calității care asigură conformitatea cu prezentul regulament. Acest sistem este documentat în mod sistematic și ordonat sub formă de politici, proceduri și instrucțiuni scrise și include cel puțin următoarele aspecte:
1.  Furnizorii de sisteme de IA cu grad ridicat de risc dispun de un sistem de management al calității care asigură conformitatea cu prezentul regulament. Acesta ține evidențe documentare sistematic și ordonat sub formă de politici, proceduri sau instrucțiuni scrise și poate fi incorporat într-un sistem existent de management al calității, conform cu actele legislative ale Uniunii în domeniu. Sistemul cuprinde cel puțin următoarele elemente:
Amendamentul 347
Propunere de regulament
Articolul 17 – alineatul 1 – litera a
(a)  o strategie pentru conformitatea cu reglementările, inclusiv conformitatea cu procedurile de evaluare a conformității și cu procedurile de gestionare a modificărilor aduse sistemului de IA cu grad ridicat de risc;
eliminat
Amendamentul 348
Propunere de regulament
Articolul 17 – alineatul 1 – litera e
(e)  specificațiile tehnice, inclusiv standardele, care urmează să fie aplicate și, în cazul în care normele armonizate relevante nu sunt aplicate integral, mijloacele care trebuie utilizate pentru a se asigura că sistemul de IA cu grad ridicat de risc respectă cerințele prevăzute în capitolul 2 din prezentul titlu;
(e)  specificațiile tehnice, inclusiv standardele, care urmează să fie aplicate și, în cazul în care normele armonizate relevante nu sunt aplicate integral sau nu acoperă toate cerințele relevante, mijloacele care trebuie utilizate pentru a se asigura că sistemul de IA cu grad ridicat de risc respectă cerințele prevăzute în capitolul 2 din prezentul titlu;
Amendamentul 349
Propunere de regulament
Articolul 17 – alineatul 1 – litera f
(f)  sisteme și proceduri pentru gestionarea datelor, inclusiv colectarea datelor, analiza datelor, etichetarea datelor, stocarea datelor, filtrarea datelor, extragerea datelor, agregarea datelor, păstrarea datelor și orice altă operațiune privind datele care este efectuată înainte și în scopul introducerii pe piață sau al punerii în funcțiune a sistemelor de IA cu grad ridicat de risc;
(f)  sisteme și proceduri pentru gestionarea datelor, inclusiv obținerea datelor, colectarea datelor, analiza datelor, etichetarea datelor, stocarea datelor, filtrarea datelor, extragerea datelor, agregarea datelor, păstrarea datelor și orice altă operațiune privind datele care este efectuată înainte și în scopul introducerii pe piață sau al punerii în funcțiune a sistemelor de IA cu grad ridicat de risc;
Amendamentul 350
Propunere de regulament
Articolul 17 – alineatul 1 – litera j
(j)  gestionarea comunicării cu autoritățile naționale competente, cu autoritățile competente, inclusiv cu cele sectoriale, care furnizează sau sprijină accesul la date, cu organismele notificate, cu alți operatori, cu clienți sau cu alte părți interesate;
(j)  gestionarea comunicării cu autoritățile naționale competente în domeniu, inclusiv cu cele sectoriale;
Amendamentul 351
Propunere de regulament
Articolul 17 – alineatul 2
2.  Punerea în aplicare a aspectelor menționate la alineatul (1) este proporțională cu dimensiunea organizației furnizorului.
2.  Punerea în aplicare a aspectelor menționate la alineatul (1) este proporțională cu dimensiunea organizației furnizorului. Furnizorii respectă, indiferent de situație, gradul de rigoare și nivelul de protecție necesar pentru a avea siguranța că sistemele lor de IA sunt conforme cu prezentul regulament.
Amendamentul 352
Propunere de regulament
Articolul 18 – titlu
Obligația de a întocmi documentația tehnică
eliminat
Amendamentul 353
Propunere de regulament
Articolul 18 – alineatul 1
1.  Furnizorii de sisteme de IA cu grad ridicat de risc întocmesc documentația tehnică menționată la articolul 11 în conformitate cu anexa IV.
eliminat
Amendamentul 354
Propunere de regulament
Articolul 18 – alineatul 2
2.  Furnizorii care sunt instituții de credit reglementate de Directiva 2013/36/UE păstrează documentația tehnică ca parte a documentației privind guvernanța internă, modalitățile, procesele și mecanismele interne, în conformitate cu articolul 74 din directiva respectivă.
eliminat
Amendamentul 355
Propunere de regulament
Articolul 19
Articolul 19
eliminat
Evaluarea conformității
1.  Furnizorii de sisteme de IA cu grad ridicat de risc se asigură că sistemele lor sunt supuse procedurii relevante de evaluare a conformității potrivit articolului 43, înainte de introducerea lor pe piață sau de punerea lor în funcțiune. În cazul în care conformitatea sistemelor de IA cu cerințele prevăzute în capitolul 2 din prezentul titlu a fost demonstrată în urma respectivei evaluări a conformității, furnizorii întocmesc o declarație de conformitate UE potrivit articolului 48 și aplică marcajul CE de conformitate potrivit articolului 49.
2.  Pentru sistemele de IA cu grad ridicat de risc menționate la punctul 5 litera (b) din anexa III care sunt introduse pe piață sau puse în funcțiune de furnizori care sunt instituții de credit reglementate de Directiva 2013/36/UE, evaluarea conformității se efectuează în cadrul procedurii menționate la articolele 97-101 din directiva respectivă.
Amendamentul 356
Propunere de regulament
Articolul 20 – alineatul 1
1.  Furnizorii de sisteme de IA cu grad ridicat de risc păstrează fișierele de jurnalizare generate automat de sistemele lor de IA cu grad ridicat de risc, în măsura în care astfel de fișiere de jurnalizare se află sub controlul lor în temeiul unui acord contractual cu utilizatorul sau în alt mod în temeiul legii. Fișierele de jurnalizare se păstrează pentru o perioadă adecvată având în vedere scopul preconizat al sistemului de IA cu grad ridicat de risc și obligațiile legale aplicabile în temeiul dreptului Uniunii sau al dreptului intern.
1.  Furnizorii de sisteme de IA cu grad ridicat de risc păstrează fișierele de jurnalizare generate automat de sistemele lor de IA cu grad ridicat de risc, în măsura în care astfel de fișiere de jurnalizare se află sub controlul lor. Fără a aduce atingere dreptului unional sau național aplicabil, înregistrările se păstrează o perioadă de cel puțin 6 luni. Perioada de păstrare este în conformitate cu standardele sectoriale și este adecvată scopului urmărit de sistemul de IA cu grad ridicat de risc.
Amendamentul 357
Propunere de regulament
Articolul 21 – paragraful 1
Furnizorii de sisteme de IA cu grad ridicat de risc care consideră sau au motive să considere că un sistem de IA cu grad ridicat de risc pe care l-au introdus pe piață ori pe care l-au pus în funcțiune nu este în conformitate cu prezentul regulament întreprind imediat acțiunile corective necesare pentru ca sistemul să fie adus în conformitate sau să fie retras sau rechemat, după caz. Aceștia informează în acest sens distribuitorii sistemului de IA cu grad ridicat de risc respectiv și, dacă este cazul, reprezentantul autorizat și importatorii.
Furnizorii de sisteme de IA cu grad ridicat de risc care consideră sau au motive să considere că un sistem de IA cu grad ridicat de risc pe care l-au introdus pe piață ori pe care l-au pus în funcțiune nu este în conformitate cu prezentul regulament întreprind imediat acțiunile corective necesare pentru ca sistemul să fie adus în conformitate sau să fie retras, dezactivat sau rechemat, după caz.
În cazurile menționate la primul paragraf, furnizorii informează imediat:
(a)  distribuitorii;
(b)  importatorii;
(c)  autoritățile naționale competente ale statelor membre în care au pus la dispoziție sau în funcțiune sistemul de IA; și
(d)  dacă se poate, operatorul
Amendamentul 358
Propunere de regulament
Articolul 21 – paragraful 1 a (nou)
Furnizorii informează și eventualul reprezentant autorizat, dacă a fost desemnat în conformitate cu articolul 25, și organismul notificat dacă sistemul de IA cu grad ridicat de risc a trebuit să treacă printr-o evaluare a conformității făcută de o parte terță în conformitate cu articolul 43. După caz, investighează și cauzele în colaborare cu operatorul.
Amendamentul 359
Propunere de regulament
Articolul 22 – paragraful 1
În cazul în care sistemul de IA cu grad ridicat de risc prezintă un risc în sensul articolului 65 alineatul (1), iar riscul respectiv este cunoscut de furnizorul sistemului, furnizorul respectiv informează imediat autoritățile naționale competente din statele membre în care a pus la dispoziție sistemul și, după caz, organismul notificat care a eliberat un certificat pentru sistemul de IA cu grad ridicat de risc, în special cu privire la neconformitate și la orice acțiune corectivă întreprinsă.
În cazul în care sistemul de IA cu grad ridicat de risc prezintă un risc în sensul articolului 65 alineatul (1), iar furnizorul sistemului ia cunoștință de riscul respectiv, furnizorul respectiv informează imediat autoritățile naționale de supraveghere din statele membre în care a pus la dispoziție sistemul și, după caz, organismul notificat care a eliberat un certificat pentru sistemul de IA cu grad ridicat de risc, în special cu privire la natura neconformității și la orice acțiune corectivă de substanță întreprinsă.
Amendamentul 360
Propunere de regulament
Articolul 22 – paragraful 1 a (nou)
În cazurile menționate la primul paragraf, furnizorii de sisteme IA cu grad ridicat de risc informează imediat:
(a)  distribuitorii;
(b)  importatorii;
(c)  autoritățile naționale competente ale statelor membre în care au pus la dispoziție sau în funcțiune sistemul de IA; și
(d)  în măsura posibilităților, operatorii.
Amendamentul 361
Propunere de regulament
Articolul 22 – paragraful 1 b (nou)
Furnizorii informează și reprezentantul autorizat dacă a fost desemnat un astfel de reprezentant în conformitate cu articolul 25.
Amendamentul 362
Propunere de regulament
Articolul 23 – titlu
Cooperarea cu autoritățile competente
Cooperarea cu autoritățile competente, cu Oficiul și cu Comisia
Amendamentul 363
Propunere de regulament
Articolul 23 – paragraful 1
La cererea unei autorități naționale competente, furnizorii de sisteme de IA cu grad ridicat de risc furnizează autorității respective toate informațiile și documentația necesară pentru a demonstra conformitatea sistemului de IA cu grad ridicat de risc cu cerințele prevăzute în capitolul 2 din prezentul titlu, într-o limbă oficială a Uniunii stabilită de statul membru în cauză. Pe baza unei cereri motivate a unei autorități naționale competente, furnizorii oferă, de asemenea, autorității respective acces la fișierele de jurnalizare generate automat de sistemul de IA cu grad ridicat de risc, în măsura în care astfel de fișiere de jurnalizare se află sub controlul lor în temeiul unui acord contractual cu utilizatorul sau în alt mod în temeiul legii.
La cererea motivată a unei autorități naționale competente sau, dacă este cazul, a Oficiului pentru IA sau a Comisiei, furnizorii și, dacă este cazul, operatorii de sisteme de IA cu grad ridicat de risc le furnizează toate informațiile și documentația necesară pentru a demonstra conformitatea sistemului de IA cu grad ridicat de risc cu cerințele prevăzute în capitolul 2 din prezentul titlu, într-o limbă oficială a Uniunii stabilită de statul membru în cauză.
Amendamentul 364
Propunere de regulament
Articolul 23 – paragraful 1 a (nou)
La cererea motivată a unei autorități naționale competente sau, dacă este cazul, a Comisiei, furnizorii și, dacă este cazul, utilizatorii oferă, de asemenea, autorității naționale competente care a făcut cererea sau Comisiei, după caz, acces la jurnalele generate automat de sistemul de IA cu grad ridicat de risc, în măsura în care jurnalele respective se află sub controlul lor.
Amendamentul 365
Propunere de regulament
Articolul 23 – paragraful 1 b (nou)
Toate informațiile obținute de o autoritate națională competentă sau de Comisie în temeiul dispozițiilor de la prezentul articol sunt considerate secret comercial și tratate în conformitate cu obligațiile de confidențialitate prevăzute la articolul 70.
Amendamentul 366
Propunere de regulament
Articolul 25 – alineatul 1
1.  Înainte de a-și pune la dispoziție sistemele pe piața Uniunii, în cazul în care un importator nu poate fi identificat, furnizorii stabiliți în afara Uniunii desemnează, prin mandat scris, un reprezentant autorizat stabilit în Uniune.
1.  Înainte de a-și pune la dispoziție sistemele pe piața Uniunii, furnizorii stabiliți în afara Uniunii desemnează, prin mandat scris, un reprezentant autorizat stabilit în Uniune.
Amendamentul 367
Propunere de regulament
Articolul 25 – alineatul 1 a (nou)
1a.  Reprezentantul legal are reședința sau este stabilit în unul dintre statele membre în care se desfășoară activitățile în temeiul articolului 2 alineatele (1cb).
Amendamentul 368
Propunere de regulament
Articolul 25 – alineatul 1 b (nou)
1b.  Operatorul îl mandatează pe reprezentantul său legal cu prerogativele și resursele necesare pentru a-și îndeplini sarcinile în temeiul prezentului regulament.
Amendamentul 369
Propunere de regulament
Articolul 25 – alineatul 2 – partea introductivă
2.  Reprezentantul autorizat îndeplinește sarcinile prevăzute în mandatul primit de la furnizor. Mandatul autorizează reprezentantul autorizat să îndeplinească următoarele sarcini:
2.  Reprezentantul autorizat îndeplinește sarcinile prevăzute în mandatul primit de la furnizor. Acesta furnizează autorităților de supraveghere a pieței, la cerere, o copie a mandatului, într-una din limbile oficiale ale Uniunii stabilită de autoritatea națională competentă. În scopul prezentului regulament, mandatul îl autorizează pe reprezentantul autorizat să îndeplinească următoarele sarcini:
Amendamentul 370
Propunere de regulament
Articolul 25 – alineatul 2 – litera a
(a)  să păstreze o copie a declarației de conformitate UE și a documentației tehnice la dispoziția autorităților naționale competente și a autorităților naționale menționate la articolul 63 alineatul (7);
(a)  să se asigure că au fost întocmite declarația de conformitate UE și documentația tehnică și că furnizorul a efectuat o procedură corespunzătoare de evaluare a conformității;
Amendamentul 371
Propunere de regulament
Articolul 25 – alineatul 2 – litera aa (nouă)
(aa)  să țină la dispoziția autorităților naționale competente și a autorităților naționale menționate la articolul 63 alineatul (7), o copie a declarației de conformitate UE, a documentației tehnice și, dacă este cazul, a certificatului eliberat de organismul notificat;
Amendamentul 372
Propunere de regulament
Articolul 25 – alineatul 2 – litera b
(b)  să furnizeze unei autorități naționale competente, pe baza unei cereri motivate, toate informațiile și documentele necesare pentru a demonstra conformitatea unui sistem de IA cu grad ridicat de risc cu cerințele prevăzute în capitolul 2 din prezentul titlu, inclusiv accesul la fișierele de jurnalizare generate automat de sistemul de IA cu grad ridicat de risc, în măsura în care aceste fișiere de jurnalizare se află sub controlul furnizorului în temeiul unui acord contractual cu utilizatorul sau în alt mod în temeiul legii;
(b)  să furnizeze la cererea motivată a unei autorități naționale competente toate informațiile și documentele necesare pentru a demonstra conformitatea unui sistem de IA cu grad ridicat de risc cu cerințele prevăzute în capitolul 2 din prezentul titlu, inclusiv accesul la fișierele de jurnalizare generate automat de sistemul de IA cu grad ridicat de risc, în măsura în care aceste fișiere de jurnalizare se află sub controlul furnizorului;
Amendamentul 373
Propunere de regulament
Articolul 25 – alineatul 2 – litera c
(c)  să coopereze cu autoritățile naționale competente, pe baza unei cereri motivate, cu privire la orice acțiune întreprinsă de acestea din urmă în legătură cu sistemul de IA cu grad ridicat de risc.
(c)  să coopereze cu autoritățile naționale de supraveghere, dacă i se adresează o cerere motivată în acest sens, la orice acțiune întreprinsă de autoritate pentru a reduce și a atenua riscurile reprezentate de sistemul de IA cu grad ridicat de risc.
Amendamentul 374
Propunere de regulament
Articolul 25 – alineatul 2 – litera ca (nouă)
(ca)  după caz, să respecte obligațiile de înregistrare menționate la articolul 51 sau, dacă înregistrarea este făcută chiar de furnizor, să verifice că informațiile menționate la punctul 3 din anexa VIII sunt corecte.
Amendamentul 375
Propunere de regulament
Articolul 25 – alineatul 2 a (nou)
2a.  În afara sau în locul operatorului, autoritatea națională de supraveghere sau autoritățile naționale competente pot să se adreseze reprezentantului legal mandatat cu referire la toate aspectele legate de asigurarea conformității cu prezentul regulament.
Amendamentul 376
Propunere de regulament
Articolul 25 – alineatul 2 b (nou)
2b.  Reprezentantul autorizat își reziliază mandatul dacă consideră sau are motive să considere că furnizorul acționează contrar obligațiilor care îi revin în temeiul prezentului regulament. Într-un astfel de caz, el informează imediat autoritatea națională de supraveghere din statul membru în care este stabilit, precum și, după caz, organismul notificat relevant, că și-a reziliat mandatul și din ce motive.
Amendamentul 377
Propunere de regulament
Articolul 26 – alineatul 1 – partea introductivă
1.  Înainte de introducerea pe piață a unui sistem de IA cu grad ridicat de risc, importatorii unui astfel de sistem se asigură că:
1.  Înainte de introducerea pe piață a unui sistem de IA cu grad ridicat de risc, importatorii unui astfel de sistem veghează ca respectivul sistem să fie conform prezentului regulament, asigurându-se că:
Amendamentul 378
Propunere de regulament
Articolul 26 – alineatul 1 – litera a
(a)  procedura corespunzătoare de evaluare a conformității a fost efectuată de furnizorul sistemului de IA respectiv;
(a)  procedura aplicabilă de evaluare a conformității prevăzută la articolul 43 a fost efectuată de furnizorul sistemului de IA;
Amendamentul 379
Propunere de regulament
Articolul 26 – alineatul 1 – litera b
(b)  furnizorul a întocmit documentația tehnică în conformitate cu anexa IV;
(b)  furnizorul a întocmit documentația tehnică în conformitate cu articolul 11 și cu anexa IV;
Amendamentul 380
Propunere de regulament
Articolul 26 – alineatul 1 – litera ca (nouă)
(ca)  dacă este cazul, furnizorul a desemnat un reprezentant autorizat în conformitate cu articolul 25 alineatul (1).
Amendamentul 381
Propunere de regulament
Articolul 26 – alineatul 2
2.  În cazul în care un importator consideră sau are motive să considere că un sistem de IA cu grad ridicat de risc nu este în conformitate cu prezentul regulament, acesta nu introduce sistemul respectiv pe piață înainte ca sistemul de IA respectiv să devină conform. În cazul în care sistemul de IA cu grad ridicat de risc prezintă un risc în sensul articolului 65 alineatul (1), importatorul informează în acest sens furnizorul sistemului de IA și autoritățile de supraveghere a pieței.
2.  În cazul în care un importator consideră sau are motive să considere că un sistem de IA cu grad ridicat de risc nu este în conformitate cu prezentul regulament sau că este contrafăcut ori însoțit de documentație falsificată, nu introduce sistemul respectiv pe piață înainte ca sistemul de IA respectiv să reintre în conformitate. În cazul în care sistemul de IA cu grad ridicat de risc prezintă un risc în sensul articolului 65 alineatul (1), importatorul informează în acest sens furnizorul sistemului de IA și autoritățile de supraveghere a pieței.
Amendamentul 382
Propunere de regulament
Articolul 26 – alineatul 3
3.  Importatorii indică pe sistemul de IA cu grad ridicat de risc numele lor, denumirea lor comercială înregistrată sau marca lor înregistrată și adresa la care pot fi contactați sau, dacă acest lucru nu este posibil, pe ambalaj sau în documentele care îl însoțesc, după caz.
3.  Importatorii indică pe sistemul de IA cu grad ridicat de risc și pe ambalaj sau în documentele care îl însoțesc, după caz, numele lor, denumirea lor comercială înregistrată sau marca lor înregistrată și adresa la care pot fi contactați.
Amendamentul 383
Propunere de regulament
Articolul 26 – alineatul 5
5.  Importatorii furnizează autorităților naționale competente, pe baza unei cereri motivate, toate informațiile și documentația necesare pentru a demonstra conformitatea unui sistem de IA cu grad ridicat de risc cu cerințele prevăzute în capitolul 2 din prezentul titlu, într-o limbă care poate fi ușor înțeleasă de autoritatea națională competentă respectivă, inclusiv accesul la fișierele de jurnalizare generate automat de sistemul de IA cu grad ridicat de risc, în măsura în care aceste fișiere de jurnalizare se află sub controlul furnizorului în temeiul unui acord contractual cu utilizatorul sau în alt mod în temeiul legii. De asemenea, aceștia cooperează cu autoritățile respective cu privire la orice acțiune întreprinsă de autoritatea națională competentă în legătură cu sistemul respectiv.
5.  Importatorii furnizează la cererea motivată a autorităților naționale competente, toate informațiile și documentația necesare pentru a demonstra conformitatea unui sistem de IA cu grad ridicat de risc cu cerințele prevăzute în capitolul 2 din prezentul titlu, într-o limbă care poate fi ușor înțeleasă de autoritățile respective, inclusiv accesul la fișierele de jurnalizare generate automat de sistemul de IA cu grad ridicat de risc, în măsura în care aceste fișiere de jurnalizare se află sub controlul furnizorului în conformitate cu articolul 20.
Amendamentul 384
Propunere de regulament
Articolul 26 – alineatul 5 a (nou)
5a.  Importatorii cooperează cu autoritățile naționale competente la orice acțiune întreprinsă de autoritățile respective pentru a reduce și atenua riscurile reprezentate de sistemul de IA cu grad ridicat de risc.
Amendamentul 385
Propunere de regulament
Articolul 27 – alineatul 1
1.  Înainte de a pune la dispoziție pe piață un sistem de IA cu grad ridicat de risc, distribuitorii verifică dacă sistemul de IA cu grad ridicat de risc poartă marcajul CE de conformitate necesar, dacă este însoțit de documentația și instrucțiunile de utilizare necesare și dacă furnizorul și importatorul sistemului, după caz, au respectat obligațiile prevăzute în prezentul regulament.
1.  Înainte de a pune la dispoziție pe piață un sistem de IA cu grad ridicat de risc, distribuitorii verifică dacă sistemul de IA cu grad ridicat de risc poartă marcajul CE de conformitate necesar, dacă este însoțit de documentația și instrucțiunile de utilizare necesare și dacă furnizorul și importatorul sistemului, după caz, și-au respectat obligațiile prevăzute în prezentul regulament, la articolele 16 și, respectiv, 26.
Amendamentul 386
Propunere de regulament
Articolul 27 – alineatul 2
2.  În cazul în care un distribuitor consideră sau are motive să considere că un sistem de IA cu grad ridicat de risc nu este în conformitate cu cerințele prevăzute în capitolul 2 din prezentul titlu, acesta nu pune la dispoziție pe piață sistemul de IA cu grad ridicat de risc înainte ca sistemul respectiv să fie adus în conformitate cu cerințele respective. În plus, în cazul în care sistemul prezintă un risc în sensul articolului 65 alineatul (1), distribuitorul informează furnizorul sau importatorul sistemului, după caz, în acest sens.
2.  În cazul în care consideră sau are motive să considere, pe baza informațiilor pe care le deține, că un sistem de IA cu grad ridicat de risc nu este în conformitate cu cerințele prevăzute în capitolul 2 din prezentul titlu, un distribuitor nu pune la dispoziție pe piață sistemul de IA cu grad ridicat de risc înainte ca sistemul respectiv să fie adus în conformitate cu cerințele respective. În plus, în cazul în care sistemul prezintă un risc în sensul articolului 65 alineatul (1), distribuitorul informează furnizorul sau importatorul sistemului și autoritatea națională competentă de resort, după caz, în acest sens.
Amendamentul 387
Propunere de regulament
Articolul 27 – alineatul 4
4.  Un distribuitor care consideră sau are motive să considere că un sistem de IA cu grad ridicat de risc pe care l-a pus la dispoziție pe piață nu este în conformitate cu cerințele prevăzute în capitolul 2 din prezentul titlu ia măsurile corective necesare pentru a aduce sistemul în conformitate cu cerințele respective, pentru a-l retrage sau pentru a-l rechema sau se asigură că furnizorul, importatorul sau orice operator relevant, după caz, ia măsurile corective respective. În cazul în care sistemul de IA cu grad ridicat de risc prezintă un risc în sensul articolului 65 alineatul (1), distribuitorul informează imediat în acest sens autoritățile naționale competente din statele membre în care a pus la dispoziție pe piață produsul, indicând detaliile, în special cu privire la neconformitate și la orice măsură corectivă luată.
4.  Un distribuitor care consideră sau are motive să considere, pe baza informațiilor pe care le deține, că un sistem de IA cu grad ridicat de risc pe care l-a pus la dispoziție pe piață nu este în conformitate cu cerințele prevăzute în capitolul 2 din prezentul titlu ia măsurile corective necesare pentru a aduce sistemul în conformitate cu cerințele respective, pentru a-l retrage sau pentru a-l rechema sau se asigură că furnizorul, importatorul sau orice operator relevant, după caz, ia măsurile corective respective. În cazul în care sistemul de IA cu grad ridicat de risc prezintă un risc în sensul articolului 65 alineatul (1), distribuitorul informează imediat în acest sens furnizorul sau importatorul sistemului și autoritățile naționale competente din statele membre în care a pus la dispoziție pe piață produsul, oferind informații detaliate, în special despre neconformitate și orice măsură corectivă luată.
Amendamentul 388
Propunere de regulament
Articolul 27 – alineatul 5
5.  Pe baza unei cereri motivate a unei autorități naționale competente, distribuitorii de sisteme de IA cu grad ridicat de risc furnizează autorității respective toate informațiile și documentația necesare pentru a demonstra conformitatea unui sistem cu risc ridicat cu cerințele prevăzute în capitolul 2 din prezentul titlu. Distribuitorii cooperează, de asemenea, cu autoritatea națională competentă respectivă cu privire la orice acțiune întreprinsă de autoritatea respectivă.
5.  La cererea motivată a unei autorități naționale competente, distribuitorii sistemului de IA cu grad ridicat de risc furnizează autorității respective toate informațiile și documentația aflate în posesia sau la dispoziția lor, în conformitate cu obligațiile distribuitorilor, prevăzute la alineatul (1), care sunt necesare pentru a demonstra conformitatea unui sistem cu risc ridicat cu cerințele prevăzute în capitolul 2 din prezentul titlu.
Amendamentul 389
Propunere de regulament
Articolul 27 – alineatul 5 a (nou)
5a.  Importatorii cooperează cu autoritățile naționale competente la orice acțiune întreprinsă de autoritățile respective pentru a reduce și atenua riscurile reprezentate de sistemul de IA cu grad ridicat de risc.
Amendamentul 390
Propunere de regulament
Articolul 28 – titlu
Obligațiile distribuitorilor, importatorilor, utilizatorilor sau ale oricărei alte părți terțe
Responsabilitățile de-a lungul lanțului valoric al IA de furnizori, distribuitori, importatori, operatori sau alte părți terțe
Amendamentul 391
Propunere de regulament
Articolul 28 – alineatul 1 – partea introductivă
1.  Se consideră că orice distribuitor, importator, utilizator sau altă parte terță este furnizor în sensul prezentului regulament și este supus obligațiilor care revin furnizorului în temeiul articolului 16, în oricare dintre următoarele situații:
1.  Se consideră că orice distribuitor, importator, operator sau altă parte terță este furnizor al unui sistem de IA cu grad ridicat de risc în sensul prezentului regulament și este supus obligațiilor care îi revin furnizorului în temeiul articolului 16, în oricare dintre următoarele situații:
Amendamentul 392
Propunere de regulament
Articolul 28 – alineatul 1 – litera a
(a)  introduc pe piață sau pun în funcțiune un sistem de IA cu grad ridicat de risc sub denumirea sau marca lor comercială;
(a)  își pun numele sau marca comercială pe un sistem de IA cu grad ridicat de risc deja introdus pe piață sau pus în funcțiune;
Amendamentul 393
Propunere de regulament
Articolul 28 – alineatul 1 – litera b
(b)  modifică scopul preconizat al unui sistem de IA cu grad ridicat de risc deja introdus pe piață sau pus în funcțiune;
(b)  modifică substanțial un sistem de IA cu grad ridicat de risc care a fost deja introdus pe piață sau pus în funcțiune, astfel încât rămâne un sistem de IA cu grad ridicat de risc în conformitate cu articolul 6;
Amendamentul 394
Propunere de regulament
Articolul 28 – alineatul 1 – litera ba (nouă)
(ba)  modifică substanțial un sistem de IA, inclusiv un sistem IA de uz general, care nu a fost clasificat ca fiind cu risc ridicat și a fost deja introdus pe piață sau pus în funcțiune, astfel încât sistemul de IA să devină un sistem IA cu risc ridicat în conformitate cu articolul 6;
Amendamentul 395
Propunere de regulament
Articolul 28 – alineatul 2
2.  În cazul în care se produc circumstanțele menționate la alineatul (1) litera (b) sau (c), furnizorul care a introdus inițial pe piață sau a pus în funcțiune sistemul de IA cu grad ridicat de risc nu mai este considerat furnizor în sensul prezentului regulament.
2.  În cazul în care se produc circumstanțele menționate la alineatul (1) literele (a)-(ba), furnizorul care a introdus inițial pe piață sau a pus în funcțiune sistemul de IA nu mai este considerat furnizorul acelui sistem IA anume în sensul prezentului regulament. Acest fost furnizor furnizează noului furnizor documentația tehnică și toate celelalte materiale informative relevante care pot fi rezonabil pretinse despre sistemul de IA, accesul tehnic sau alte tipuri de asistență pe baza stadiului actual al tehnologiei general recunoscut care sunt necesare pentru a îndeplini obligațiile prevăzute în prezentul regulament.
Prezentul alineat se aplică, de asemenea, furnizorilor de modele de bază, definite la articolul 3, atunci când modelul de bază este integrat direct într-un sistem de IA cu grad ridicat de risc.
Amendamentul 396
Propunere de regulament
Articolul 28 – alineatul 2 a (nou)
2a.  Furnizorul unui sistem de IA cu grad ridicat de risc și partea terță care furnizează instrumente, servicii, componente sau procese care sunt utilizate sau integrate în sistemul de IA cu grad ridicat de risc specifică, printr-un acord scris, pe baza tehnologiei de ultimă oră general recunoscute, informațiile, capacitățile, accesul tehnic și sau alte tipuri de asistență pe care partea terță trebuie să le furnizeze pentru a permite furnizorului sistemului de IA cu risc ridicat să respecte întru totul obligațiile prevăzute în prezentul regulament.
Comisia elaborează și recomandă clauze contractuale model fără caracter obligatoriu între furnizorii de sisteme de IA cu grad ridicat de risc și părțile terțe care furnizează instrumente, servicii, componente sau procese care sunt utilizate sau integrate în sisteme de IA cu grad ridicat de risc, pentru a ajuta ambele părți să redacteze și să negocieze contracte cu drepturi și obligații contractuale echilibrate, în concordanță cu nivelul de control al fiecărei părți. Atunci când elaborează modele de clauze contractuale fără caracter obligatoriu, Comisia ia în considerare eventualele cerințe contractuale aplicabile în anumite sectoare sau situații economice. Clauzele contractuale fără caracter obligatoriu se publică și sunt disponibile gratuit, într-un format electronic ușor de utilizat, pe site-ul web al oficiului pentru IA.
Amendamentul 397
Propunere de regulament
Articolul 28 – alineatul 2 b (nou)
2b.  În sensul prezentului articol, secretele comerciale sunt protejate și se divulgă numai dacă se iau înainte toate măsurile speciale necesare în temeiul Directivei (UE) 2016/943 pentru a le păstra confidențialitatea, în special față de părți terțe. La nevoie, pot fi convenite acorduri tehnice și organizatorice adecvate pentru a proteja drepturile de proprietate intelectuală sau secretele comerciale.
Amendamentul 398
Propunere de regulament
Articolul 28 a (nou)
Articolul 28a
Clauze contractuale abuzive impuse unilateral unui IMM sau unei întreprinderi nou înființate
1.  O clauză contractuală privind furnizarea de instrumente, servicii, componente sau procese care sunt utilizate sau integrate într-un sistem de IA cu grad ridicat de risc sau măsurile reparatorii pentru încălcarea sau rezilierea obligațiilor conexe impuse unilateral de o întreprindere unui IMM sau unei întreprinderi nou-înființate nu sunt obligatorii pentru acesta/aceasta din urmă dacă sunt abuzive.
2.  O clauză contractuală nu este considerată abuzivă dacă decurge din dreptul aplicabil al Uniunii.
3.  O clauză contractuală este abuzivă dacă este de așa natură încât afectează obiectiv capacitatea părții căreia i-a fost impusă unilateral de a-și proteja interesul comercial legitim față de informațiile în cauză sau aplicarea sa se abate grosolan de la bunele practici comerciale în furnizarea de instrumente, servicii, componente sau procese care sunt utilizate sau integrate într-un sistem de IA cu grad ridicat de risc, contravine bunei-credințe și comportamentului onest sau creează un dezechilibru semnificativ între drepturile și obligațiile părților la contract. O clauză contractuală este abuzivă și dacă are ca efect transferarea sancțiunilor menționate la articolul 71 sau a cheltuielilor de judecată aferente între părțile la contract, așa cum se menționează la articolul 71 alineatul (8).
4.  O clauză contractuală este abuzivă în sensul prezentului articol dacă obiectul sau efectul său este:
(a)  să excludă sau să limiteze răspunderea părții care a impus-o unilateral în caz de acte intenționate sau neglijență gravă;
(b)  să excludă măsurile reparatorii de care dispune partea căreia i-a fost impusă unilateral în caz de neexecutare a obligațiilor contractuale sau să excludă răspunderea părții care a impus-o unilateral în caz de încălcare a respectivelor obligații;
(c)  să acorde părții care a impus-o unilateral dreptul exclusiv de a stabili dacă datele furnizate sunt conforme cu contractul sau de a interpreta orice clauză a contractului.
5.  Se consideră că o clauză contractuală este impusă unilateral în înțelesul prezentului articol dacă a fost propusă de o parte contractantă, fără ca cealaltă parte contractantă să fi fost în măsură să îi influențeze conținutul, cu toate că a încercat să o negocieze. Sarcina de a dovedi că o clauză nu a fost impusă unilateral îi revine părții contractante care a propus clauza contractuală respectivă.
6.  În cazul în care clauza contractuală abuzivă poate fi disociată de celelalte clauze ale contractului, acestea din urmă rămân obligatorii. Partea care a propus clauza contestată nu poate invoca caracterul abuziv al clauzei respective.
7.  Prezentul articol se aplică tuturor contractelor noi încheiate după ... [data intrării în vigoare a prezentului regulament]. Companiile revizuiesc obligațiile contractuale existente care intră sub incidența prezentului regulament în termen de ...[trei ani de la data intrării în vigoare a prezentului regulament].
8.  Având în vedere rapiditatea cu care apar inovații pe piețe, lista clauzelor contractuale abuzive prevăzută la articolul 28a este revizuită periodic de Comisie și, dacă este necesar, adaptată la noile practici comerciale.
Amendamentul 399
Propunere de regulament
Articolul 28 b (nou)
Articolul 28b
Obligațiile furnizorului unui model de bază
1.  Înainte de a-l pune la dispoziție pe piață sau de a-l pune în funcțiune, furnizorul unui model de bază verifică că modelul este conform cu cerințele prevăzute la prezentul articol, indiferent dacă este furnizat ca model de sine stătător sau încorporat într-un sistem de IA sau într-un produs sau furnizat sub licențe gratuite și cu sursă deschisă, ca serviciu, precum și alte canale de distribuție.
2.  În sensul alineatului (1), furnizorul unui model de bază:
(a)  demonstrează, prin proiectare, testare și analiză corespunzătoare, că a identificat, redus și atenuat riscurile care se pot prevedea în mod rezonabil pentru sănătate, siguranță, drepturile fundamentale, mediu, democrație și statul de drept, înainte și pe tot parcursul dezvoltării, cu metode adecvate, ca, de pildă, implicarea experților independenți, și că a indicat în documentație riscurile rămase care nu pot fi atenuate după dezvoltare;
(b)  prelucrează și încorporează numai seturi de date care fac obiectul unor măsuri adecvate de guvernanță a datelor pentru modelele de bază, în special măsuri care examinează cât de adecvate sunt sursele de date, dacă prezintă riscuri de părtinire și dacă aceste riscuri sunt atenuate corespunzător;
(c)  proiectează și dezvoltă modelul de bază astfel încât să obțină, pe parcursul întregului său ciclu de viață, niveluri adecvate de performanță, previzibilitate, interpretare, corectabilitate, siguranță și securitate cibernetică evaluate prin metode adecvate, ca, de pildă, evaluarea modelului cu implicarea unor experți independenți, analize documentate și serii lungi de teste pe perioada de conceptualizare, proiectare și dezvoltare;
(d)  proiectează și dezvoltă modelul de bază, utilizând standarde aplicabile pentru a reduce consumul de energie și cantitate de resurse și deșeuri și pentru a mări eficiența energetică și eficiența generală a sistemului, fără a aduce atingere legislației relevante existente la nivelul Uniunii și la nivel național. Această obligație nu se aplică înainte de a se publica standardele menționate la articolul 40. Modelele de bază sunt proiectate cu capacități care permit măsurarea și înregistrarea consumului de energie și de resurse și, în măsura posibilităților tehnice, a altor efecte asupra mediului pe care le-ar putea avea implementarea și utilizarea sistemelor pe întreaga lor durată de viață.
(e)  elaborează o documentație tehnică cuprinzătoare și instrucțiuni de utilizare inteligibile, pentru ca furnizorii din aval să își poată respecta obligațiile care le revin în temeiul articolului 16 și al articolului 28 alineatul (1);
(f)  instaurează un sistem de management al calității pentru a asigura și a atesta cu documente conformitatea cu prezentul articol, cu posibilitatea de a testa diferite metode pentru îndeplinirea acestei cerințe;
(g)  înregistrează modelul de bază respectiv în baza de date a UE menționată la articolul 60, în conformitate cu instrucțiunile prevăzute în anexa VIII litera C.
La îndeplinirea acestor cerințe, se ține seama de stadiul actual al tehnologiei general recunoscut, care se reflectă inclusiv în standarde armonizate sau în specificații comune aplicabile, dar și de metodele de ultimă oră de evaluare și măsurare, reflectate în special în instrucțiunile și capacitățile de evaluare comparativă menționate la articolul 58a;
3.  O perioadă de 10 ani după ce a fost introdus pe piață sau pus în funcțiune sistemul lor de IA, furnizorii păstrează documentația tehnică menționată la alineatul (2) litera (e) la dispoziția autorităților naționale competente:
4.  Furnizorii de modele de bază folosite în sistemele de IA destinate expres să genereze, cu diferite niveluri de autonomie, conținut precum texte, imagini, materiale audio sau video complexe („IA generativă”) și furnizorii care specializează un model de bază într-un sistem de IA generativ trebuie, în plus:
(a)  să respecte obligațiile de transparență prevăzute la articolul 52 alineatul (1);
(b)  să antreneze și, după caz, să proiecteze și să dezvolte modelul de bază astfel încât să ofere garanții adecvate că nu produce conținut care încalcă dreptul Uniunii, în conformitate cu stadiul actual al tehnologiei general recunoscut și fără a aduce atingere drepturilor fundamentale, inclusiv libertății de exprimare;
(c)  fără a aduce atingere legislației unionale sau naționale privind drepturile de autor, documentează și pun la dispoziția publicului un rezumat suficient de detaliat al modului în care sunt utilizate datele de antrenament protejate în virtutea legislației privind drepturile de autor.
Amendamentul 400
Propunere de regulament
Articolul 29 – alineatul 1
1.  Utilizatorii sistemelor de IA cu grad ridicat de risc utilizează astfel de sisteme în conformitate cu instrucțiunile de utilizare care însoțesc sistemele, în temeiul alineatelor (2) și (5).
1.  Operatorii sistemelor de IA cu grad ridicat de risc iau măsuri tehnice și organizatorice corespunzătoare pentru a oferi siguranța că utilizează astfel de sisteme în conformitate cu instrucțiunile de utilizare care însoțesc sistemele, în temeiul alineatelor (2) și (5) de la prezentul articol.
Amendamentul 401
Propunere de regulament
Articolul 29 – alineatul 1 a (nou)
1a.  În măsura în care exercită controlul asupra sistemului de IA cu grad ridicat de risc, operatorii
(i)  asigură supraveghere umană în acord cu cerințele stabilite în prezentul regulament;
(ii)  se asigură că persoanele fizice însărcinate cu supravegherea umană a sistemelor IA cu grad ridicat de risc sunt competente, calificate și instruite corespunzător și dispun de resursele necesare pentru a asigura supravegherea riguroasă a sistemului de IA în conformitate cu articolul 14.
(iii)  dispun să se monitorizeze periodic cât sunt de eficiente, relevante și potrivite măsurile luate pentru robustețea și securitatea cibernetică a sistemului și le ajustează sau actualizează periodic.
Amendamentul 402
Propunere de regulament
Articolul 29 – alineatul 2
2.  Obligațiile de la alineatul (1) nu aduc atingere altor obligații ale utilizatorilor în temeiul dreptului Uniunii sau al dreptului intern și nici libertății utilizatorului de a-și organiza propriile resurse și activități în scopul punerii în aplicare a măsurilor de supraveghere umană indicate de furnizor.
2.  Obligațiile de la alineatele (1) și (1a) nu aduc atingere altor obligații ale operatorilor în temeiul dreptului Uniunii sau al dreptului intern și nici libertății operatorului de a-și organiza propriile resurse și activități în scopul punerii în aplicare a măsurilor de supraveghere umană indicate de furnizor.
Amendamentul 403
Propunere de regulament
Articolul 29 – alineatul 3
3.  Fără a aduce atingere alineatului (1), în măsura în care utilizatorul exercită controlul asupra datelor de intrare, utilizatorul respectiv se asigură că datele de intrare sunt relevante având în vedere scopul preconizat al sistemului de IA cu grad ridicat de risc.
3.  Fără a aduce atingere alineatelor (1) și (2a), în măsura în care exercită controlul asupra datelor de intrare, operatorul se asigură că datele de intrare sunt relevante și suficient de reprezentative în raport cu scopul preconizat al sistemului de IA cu grad ridicat de risc.
Amendamentul 404
Propunere de regulament
Articolul 29 – alineatul 4 – partea introductivă
4.  Utilizatorii monitorizează funcționarea sistemului de IA cu grad ridicat de risc pe baza instrucțiunilor de utilizare. În cazul în care au motive să considere că utilizarea în conformitate cu instrucțiunile de utilizare poate avea ca rezultat un sistem de IA care prezintă un risc în sensul articolului 65 alineatul (1), aceștia informează furnizorul sau distribuitorul și suspendă utilizarea sistemului. De asemenea, aceștia informează furnizorul sau distribuitorul atunci când au identificat orice incident grav sau orice funcționare defectuoasă în sensul articolului 62 și întrerup utilizarea sistemului de IA. În cazul în care utilizatorul nu poate comunica cu furnizorul, articolul 62 se aplică mutatis mutandis.
4.  Operatorii monitorizează funcționarea sistemului de IA cu grad ridicat de risc pe baza instrucțiunilor de utilizare și, dacă este cazul, informează furnizorii în conformitate cu articolul 61. Dacă au motive să considere că utilizarea în conformitate cu instrucțiunile de utilizare poate atrage după sine un risc în funcționarea sistemului de IA în sensul articolului 65 alineatul (1), operatorii informează fără întârzieri nejustificate furnizorul sau distribuitorul și autoritățile naționale de supraveghere de resort și suspendă utilizarea sistemului. De asemenea, ei informează imediat mai întâi furnizorul, și apoi importatorul sau distribuitorul și autoritățile naționale de supraveghere de resort atunci când identifică orice incident grav sau orice funcționare defectuoasă în sensul articolului 62 și întrerup utilizarea sistemului de IA. În cazul în care operatorul nu poate intra în contact cu furnizorul, articolul 62 se aplică mutatis mutandis.
Amendamentul 405
Propunere de regulament
Articolul 29 – alineatul 4 – paragraful 1
În cazul utilizatorilor care sunt instituții de credit reglementate prin Directiva 2013/36/UE, se consideră că obligația de monitorizare prevăzută la primul paragraf este îndeplinită prin respectarea normelor privind mecanismele, procesele și măsurile de guvernanță internă în temeiul articolului 74 din directiva respectivă.
În cazul operatorilor care sunt instituții de credit reglementate prin Directiva 2013/36/UE, se consideră că obligația de monitorizare prevăzută la primul paragraf este îndeplinită prin respectarea normelor privind mecanismele, procesele și măsurile de guvernanță internă în temeiul articolului 74 din directiva respectivă.
Amendamentul 406
Propunere de regulament
Articolul 29 – alineatul 5 – partea introductivă
5.  Utilizatorii sistemelor de IA cu grad ridicat de risc păstrează fișierele de jurnalizare generate automat de respectivul sistem de IA cu grad ridicat de risc, în măsura în care astfel de fișiere de jurnalizare se află sub controlul lor. Fișierele de jurnalizare se păstrează pentru o perioadă adecvată având în vedere scopul preconizat al sistemului de IA cu grad ridicat de risc și obligațiile legale aplicabile în temeiul dreptului Uniunii sau al dreptului intern.
5.  Operatorii sistemelor de IA cu grad ridicat de risc păstrează fișierele de jurnalizare generate automat de respectivul sistem de IA cu grad ridicat de risc, în măsura în care astfel de fișiere de jurnalizare se află sub controlul lor și sunt necesare pentru asigurarea și demonstrarea conformității cu prezentul regulament, pentru auditurile ex post ale oricărei defecțiuni, oricărui incident sau oricărei utilizări necorespunzătoare ale sistemului previzibile rezonabil sau pentru asigurarea și monitorizarea funcționării corespunzătoare a sistemului pe parcursul întregului său ciclu de viață. Fără a aduce atingere dreptului unional sau național aplicabil, înregistrările se păstrează o perioadă de cel puțin șase luni. Perioada de păstrare este în conformitate cu standardele sectoriale și corespunde scopului urmărit de sistemul de IA cu grad ridicat de risc.
Amendamentul 407
Propunere de regulament
Articolul 29 – alineatul 5 – paragraful 1
Utilizatorii care sunt instituții de credit reglementate de Directiva 2013/36/UE păstrează fișierele de jurnalizare ca parte a documentației privind mecanismele, procesele și măsurile de guvernanță interne, în conformitate cu articolul 74 din directiva respectivă.
Operatorii care sunt instituții de credit reglementate de Directiva 2013/36/UE păstrează fișierele de jurnalizare ca parte a documentației privind mecanismele, procesele și măsurile de guvernanță interne, în conformitate cu articolul 74 din directiva respectivă.
Amendamentul 408
Propunere de regulament
Articolul 29 – alineatul 5 a (nou)
5a.  Înainte de a pune în funcțiune sau de a utiliza un sistem de IA la locul de muncă, operatorii se consultă cu reprezentanții lucrătorilor cu intenția de a ajunge la un acord în conformitate cu Directiva 2002/14/CE și informează angajații afectați că vor face obiectul sistemului.
Amendamentul 409
Propunere de regulament
Articolul 29 – alineatul 5 b (nou)
5b.  Operatorii sistemelor de IA cu grad ridicat de risc care sunt autorități publice sau instituții, organe, oficii și agenții ale Uniunii sau întreprinderi la care se face trimitere la articolul 51 alineatul (1a) litera (b) respectă obligațiile de înregistrare menționate la articolul 51.
Amendamentul 410
Propunere de regulament
Articolul 29 – alineatul 6
6.  Utilizatorii de sisteme de IA cu grad ridicat de risc utilizează informațiile furnizate în temeiul articolului 13 pentru a-și respecta obligația de a efectua o evaluare a impactului asupra protecției datelor în temeiul articolului 35 din Regulamentul (UE) 2016/679 sau al articolului 27 din Directiva (UE) 2016/680, după caz.
6.  După caz, operatorii de sisteme de IA cu grad ridicat de risc utilizează informațiile furnizate în temeiul articolului 13 pentru a-și respecta obligația de a efectua o evaluare a impactului asupra protecției datelor în temeiul articolului 35 din Regulamentul (UE) 2016/679 sau al articolului 27 din Directiva (UE) 2016/680, și publică un rezumat al evaluării respective, ținând cont de utilizarea dată și de contextul specific în care sistemul de IA este prevăzut să funcționeze. Operatorii pot reveni parțial la respectivele evaluări ale impactului asupra protecției datelor pentru a-și îndeplini unele dintre obligațiile prevăzute la prezentul articol, în măsura în care evaluarea impactului asupra protecției datelor îndeplinește obligațiile respective.
Amendamentul 411
Propunere de regulament
Articolul 29 – alineatul 6 a (nou)
6a.  Fără a afecta dispozițiile de la articolul 52, operatorii de sisteme de IA cu grad ridicat de risc menționate în anexa III, care iau decizii sau contribuie la luarea deciziilor referitoare la persoane fizice, informează persoanele fizice că fac obiectul utilizării sistemului de IA cu grad ridicat de risc. Aceste informații includ tipul de sistem de IA utilizat, scopul urmărit și tipul de decizii pe care le ia. Operatorul informează persoana fizică și despre dreptul său la o explicație menționat la articolul 68c.
Amendamentul 412
Propunere de regulament
Articolul 29 – alineatul 6 b (nou)
6b.  Operatorii cooperează cu autoritățile naționale competente de resort la orice acțiune întreprinsă de respectivele autorități în legătură cu un sistem de IA cu grad ridicat de risc pentru a pune în aplicare prezentul regulament.
Amendamentul 413
Propunere de regulament
Articolul 29 a (nou)
Articolul 29a
Evaluarea impactului sistemelor de IA cu grad ridicat de risc asupra drepturilor fundamentale
Înainte de a pune în funcțiune un sistem de IA cu grad ridicat de risc, definit la articolul 6 alineatul (2), exceptând sistemele de IA destinate a fi utilizate în domeniul 2 de la Anexa III, operatorii evaluează impactul sistemului în contextul specific al utilizării. Această evaluare cuprinde cel puțin următoarele elemente:
(a)  o descriere clară a scopului urmărit în care va fi utilizat sistemul;
(b)  o descriere clară a ariei de cuprindere geografice și temporale în care va fi utilizat sistemul;
(c)  categoriile de persoane fizice și grupuri susceptibile de a fi afectate de utilizarea sistemului;
(d)  verificarea conformității utilizării sistemului cu dreptul Uniunii și cu dreptul național aplicabil, precum și cu legislația privind drepturile fundamentale;
(e)  impactul previzibil în mod rezonabil al utilizării sistemului de IA cu grad ridicat de risc asupra drepturilor fundamentale;
(f)  orice potențial prejudiciu care riscă să afecteze persoanele marginalizate sau grupurile vulnerabile;
(g)  efectul negativ previzibil în mod rezonabil al utilizării sistemului asupra mediului;
(h)  un plan detaliat privind modul în care vor fi atenuate prejudiciile sau impactul negativ identificate asupra drepturilor fundamentale.
(j)  sistemul de guvernanță pe care îl va instaura operatorul, inclusiv supravegherea umană, soluționarea plângerilor și măsurile reparatorii.
2.  În cazul în care nu poate fi identificat un plan detaliat de atenuare a riscurilor prezentate în cursul evaluării menționate la alineatul (1), operatorul nu pune în funcțiune sistemul de IA cu grad ridicat de risc și informează fără întârzieri nejustificate și autoritatea națională de supraveghere. Autoritățile naționale de supraveghere, în temeiul articolelor 65 și 67, iau în considerare aceste informații când investighează sisteme care atrag după sine un risc la nivel național.
3.  Obligația prevăzută la alineatul (1) se aplică primei utilizări a sistemului de IA cu grad ridicat de risc. În cazuri similare, operatorul poate să se bazeze pe o evaluare a impactului asupra drepturilor fundamentale efectuată anterior sau pe o evaluare existentă efectuată de furnizori. Dacă, în timpul utilizării sistemului de IA cu grad ridicat de risc, operatorul consideră că criteriile enumerate la alineatul (1) nu mai sunt îndeplinite, efectuează o nouă evaluare a impactului asupra drepturilor fundamentale.
4.  În cursul evaluării impactului, operatorul, cu excepția IMM-urilor, notifică autoritatea națională de supraveghere și părțile interesate relevante și implică cât se poate de mult reprezentanți ai persoanelor sau ai grupurilor de persoane care este probabil să fie afectate de sistemul de IA cu grad ridicat de risc, identificate la alineatul (1), inclusiv, dar fără a se limita la: organisme de promovare a egalității, agenții de protecție a consumatorilor, parteneri sociali și agenții de protecție a datelor, care să își aducă aportul la evaluarea impactului. Operatorul le lasă organismelor o perioadă de șase săptămâni în care să răspundă. IMM-urile pot aplica voluntar dispozițiile prevăzute la prezentul alineat.
În cazul menționat la articolul 47 alineatul (1), autoritățile publice pot fi scutite de aceste obligații.
5.  Operatorul care este autoritate publică sau o întreprindere de tipul celor menționate la articolul 51 alineatul (1a) litera (b) publică un rezumat al rezultatelor evaluării impactului ca parte a înregistrării utilizării făcute pentru a-și onora obligația care îi revine în temeiul articolului 51 alineatul (2).
6.  Dacă operatorului i se solicită deja să efectueze o evaluare a impactului asupra protecției datelor în temeiul articolului 35 din Regulamentul (UE) 2016/679 sau al articolului 27 din Directiva (UE) 2016/680, evaluarea impactului asupra drepturilor fundamentale menționată la alineatul (1) se efectuează împreună cu evaluarea impactului asupra protecției datelor. Evaluarea impactului asupra protecției datelor se publică ca addendum.
Amendamentul 414
Propunere de regulament
Articolul 30 – alineatul 1
1.  Fiecare stat membru desemnează sau instituie o autoritate de notificare responsabilă cu instituirea și îndeplinirea procedurilor necesare pentru evaluarea, desemnarea și notificarea organismelor de evaluare a conformității și pentru monitorizarea acestora.
1.  Fiecare stat membru desemnează sau instituie o autoritate de notificare responsabilă cu instituirea și îndeplinirea procedurilor necesare pentru evaluarea, desemnarea și notificarea organismelor de evaluare a conformității și pentru monitorizarea acestora. Aceste proceduri sunt elaborate în cooperare între autoritățile de notificare ale tuturor statelor membre.
Amendamentul 415
Propunere de regulament
Articolul 30 – alineatul 7
7.  Autoritățile de notificare au la dispoziție personal competent suficient în vederea îndeplinirii corespunzătoare a sarcinilor lor.
7.  Autoritățile de notificare au la dispoziție personal competent suficient în vederea îndeplinirii corespunzătoare a sarcinilor lor. După caz, personalul competent dispune de expertiza necesară, de pildă diplomă de studii într-un domeniu juridic aplicabil, în supravegherea drepturilor fundamentale consacrate în Carta drepturilor fundamentale a Uniunii Europene.
Amendamentul 416
Propunere de regulament
Articolul 30 – alineatul 8
8.  Autoritățile de notificare se asigură că evaluările conformității sunt efectuate în mod proporțional, evitând sarcinile inutile pentru furnizori și că organismele notificate își îndeplinesc activitățile ținând seama în mod corespunzător de dimensiunea unei întreprinderi, de sectorul în care aceasta își desfășoară activitatea, de structura sa și de gradul de complexitate al sistemului de IA în cauză.
8.  Autoritățile de notificare se asigură că evaluările conformității sunt efectuate în mod proporțional și la timp, evitând sarcinile inutile pentru furnizori și că organismele notificate își îndeplinesc activitățile ținând seama în mod corespunzător de dimensiunea unei întreprinderi, de sectorul în care aceasta își desfășoară activitatea, de structura sa și de gradul de complexitate al sistemului de IA în cauză. Se acordă o atenție deosebită reducerii la minimum a sarcinilor administrative și a costurilor cu asigurarea conformității pentru microîntreprinderi și întreprinderile mici, potrivit definiției din anexa la Recomandarea 2003/361/CE a Comisiei.
Amendamentul 417
Propunere de regulament
Articolul 32 – alineatul 1
1.  Autoritățile de notificare pot notifica numai organismele de evaluare a conformității care au satisfăcut cerințele prevăzute la articolul 33.
1.  Autoritățile de notificare notifică numai organismele de evaluare a conformității care au satisfăcut cerințele prevăzute la articolul 33.
Amendamentul 418
Propunere de regulament
Articolul 32 – alineatul 2
2.  Autoritățile de notificare înștiințează Comisia și celelalte state membre folosind instrumentul de notificare electronică dezvoltat și administrat de Comisie.
2.  Autoritățile de notificare înștiințează Comisia și celelalte state membre folosind instrumentul de notificare electronică dezvoltat și administrat de Comisie cu privire la fiecare organism de evaluare a conformității menționat la alineatul (1).
Amendamentul 419
Propunere de regulament
Articolul 32 – alineatul 3
3.  Notificarea include detalii complete ale activităților de evaluare a conformității, ale modulului sau modulelor de evaluare a conformității și ale tehnologiilor din domeniul inteligenței artificiale în cauză.
3.  Notificarea menționată la alineatul (2) include detalii complete ale activităților de evaluare a conformității, ale modulului sau modulelor de evaluare a conformității și ale tehnologiilor din domeniul inteligenței artificiale în cauză, precum și o atestare corespunzătoare a competenței.
Amendamentul 420
Propunere de regulament
Articolul 32 – alineatul 4
4.  Organismul de evaluare a conformității în cauză poate exercita activitățile unui organism notificat numai în cazul în care nu există obiecții din partea Comisiei sau a celorlalte state membre, transmise în termen de o lună de la notificare.
4.  Organismul de evaluare a conformității în cauză poate exercita activitățile unui organism notificat numai în cazul în care nu există obiecții din partea Comisiei sau a celorlalte state membre, transmise în termen de două săptămâni de la validarea notificării, în cazul în care cuprinde un certificat de acreditare de tipul menționat la articolul 31 alineatul (2), sau în termen de două luni de la notificare, în cazul în care se includ documentele justificative menționate la articolul 31 alineatul (3).
Amendamentul 421
Propunere de regulament
Articolul 32 – alineatul 4 a (nou)
4a.  În cazul în care se ridică obiecții, Comisia se consultă fără întârziere cu statele membre relevante și cu organismul de evaluare a conformității. În acest sens, Comisia decide dacă autorizația este justificată sau nu. Comisia comunică decizia luată statului membru în cauză și organismului relevant de evaluare a conformității.
Amendamentul 422
Propunere de regulament
Articolul 32 – alineatul 4 b (nou)
4b.  Statele membre notifică Comisia și celelalte state membre, specificând organismele de evaluare a conformității.
Amendamentul 423
Propunere de regulament
Articolul 33 – alineatul 2
2.  Organismele notificate satisfac cerințele organizatorice, de management al calității, de resurse și de proces care sunt necesare pentru îndeplinirea sarcinilor lor.
2.  Organismele notificate îndeplinesc cerințele organizatorice, de management al calității, de resurse și de procese care sunt necesare pentru a-și îndeplini sarcinile, precum și cerințele minime de securitate cibernetică stabilite pentru entitățile administrației publice identificate ca operatori de servicii esențiale în temeiul Directivei (UE) 2022/2555.
Amendamentul 424
Propunere de regulament
Articolul 33 – alineatul 4
4.  Organismele notificate sunt independente de furnizorul unui sistem de IA cu grad ridicat de risc în legătură cu care efectuează activități de evaluare a conformității. Organismele notificate sunt, de asemenea, independente de orice alt operator care are un interes economic în legătură cu sistemul de IA cu grad ridicat de risc care este evaluat, precum și de orice concurent al furnizorului.
4.  Organismele notificate sunt independente de furnizorul unui sistem de IA cu grad ridicat de risc în legătură cu care efectuează activități de evaluare a conformității. Organismele notificate sunt, de asemenea, independente de orice alt operator care are un interes economic în legătură cu sistemul de IA cu grad ridicat de risc care este evaluat, precum și de orice concurent al furnizorului. Acest lucru nu împiedică utilizarea sistemelor de IA evaluate care sunt necesare pentru operațiunile organismului de evaluare a conformității sau utilizarea sistemelor respective în scopuri personale.
Amendamentul 425
Propunere de regulament
Articolul 33 – alineatul 4 a (nou)
4a.  O evaluare a conformității în temeiul alineatului (1) se efectuează de angajații organismelor notificate care în afară de evaluarea conformității nu au furnizat niciun alt serviciu legat de aspectul evaluat furnizorului unui sistem de IA cu grad ridicat de risc sau oricărei alte persoane juridice cu legături cu furnizorul respectiv în perioada de 12 luni anterioară evaluării și s-au angajat să nu le furnizeze astfel de servicii în perioada de 12 luni de după finalizarea evaluării.
Amendamentul 426
Propunere de regulament
Articolul 33 – alineatul 6
6.  Organismele notificate dispun de proceduri documentate care să asigure că personalul său, comitetele, filialele, subcontractanții săi, precum și orice organism asociat sau membru al personalului organismelor externe respectă confidențialitatea informațiilor care le parvin în timpul derulării activităților de evaluare a conformității, cu excepția cazurilor în care divulgarea este cerută prin lege. Personalul organismelor notificate este obligat să păstreze secretul profesional referitor la toate informațiile obținute în cursul îndeplinirii sarcinilor sale în temeiul prezentului regulament, excepție făcând relația cu autoritățile de notificare ale statului membru în care se desfășoară activitățile sale.
6.  Organismele notificate dispun de proceduri documentate care să asigure că personalul său, comitetele, filialele, subcontractanții săi, precum și orice organism asociat sau membru al personalului organismelor externe respectă confidențialitatea informațiilor care le parvin în timpul derulării activităților de evaluare a conformității, cu excepția cazurilor în care divulgarea este cerută prin lege. Personalul organismelor notificate este obligat să păstreze secretul profesional referitor la toate informațiile obținute în cursul îndeplinirii sarcinilor sale în temeiul prezentului regulament, excepție făcând relația cu autoritățile de notificare ale statului membru în care se desfășoară activitățile sale. Toate informațiile și documentele obținute de organismele notificate în temeiul dispozițiilor prezentului articol sunt tratate în conformitate cu obligațiile de confidențialitate prevăzute la articolul 70.
Amendamentul 427
Propunere de regulament
Articolul 34 – alineatul 3
3.  Activitățile pot fi subcontractate sau îndeplinite de o filială doar cu acordul furnizorului.
3.  Activitățile pot fi subcontractate sau îndeplinite de o filială doar cu acordul furnizorului. Organismele notificate pun la dispoziția publicului o listă a filialelor acestora.
Amendamentul 428
Propunere de regulament
Articolul 34 – alineatul 4
4.  Organismele notificate pun la dispoziția autorității de notificare documentele relevante privind evaluarea calificărilor subcontractantului sau ale filialei și privind activitățile îndeplinite de aceștia în temeiul prezentului regulament.
4.  Organismele notificate pun la dispoziția autorității de notificare documentele relevante privind verificarea calificărilor subcontractantului sau ale filialei și privind activitățile îndeplinite de aceștia în temeiul prezentului regulament.
Amendamentul 429
Propunere de regulament
Articolul 35 – titlu
Numerele de identificare și listele organismelor notificate desemnate în temeiul prezentului Regulament
Numerele de identificare și listele organismelor notificate
Amendamentul 430
Propunere de regulament
Articolul 36 – alineatul 1
1.  În cazul în care o autoritate de notificare are suspiciuni sau a fost informată că un organism notificat nu mai îndeplinește cerințele prevăzute la articolul 33 sau că acesta nu își îndeplinește obligațiile, autoritatea respectivă investighează fără întârziere chestiunea, cu cea mai mare diligență. În acest context, aceasta informează organismul notificat în cauză cu privire la obiecțiile ridicate și îi oferă posibilitatea de a-și face cunoscute punctele de vedere. În cazul în care autoritatea de notificare ajunge la concluzia că organismul notificat investigat nu mai îndeplinește cerințele prevăzute la articolul 33 sau că nu își îndeplinește obligațiile, aceasta restricționează, suspendă sau retrage notificarea, după caz, în funcție de gravitatea încălcării. De asemenea, autoritatea de notificare informează de îndată Comisia și celelalte state membre în consecință.
1.  În cazul în care o autoritate de notificare are suspiciuni sau a fost informată că un organism notificat nu mai îndeplinește cerințele prevăzute la articolul 33 sau că acesta nu își îndeplinește obligațiile, autoritatea respectivă investighează fără întârziere chestiunea, cu cea mai mare diligență. În acest context, aceasta informează organismul notificat în cauză cu privire la obiecțiile ridicate și îi oferă posibilitatea de a-și face cunoscute punctele de vedere. În cazul în care autoritatea de notificare ajunge la concluzia că organismul notificat nu mai îndeplinește cerințele prevăzute la articolul 33 sau că nu își îndeplinește obligațiile, aceasta restricționează, suspendă sau retrage notificarea, după caz, în funcție de gravitatea încălcării. De asemenea, autoritatea de notificare informează de îndată Comisia și celelalte state membre în consecință.
Amendamentul 431
Propunere de regulament
Articolul 36 – alineatul 2
2.  În caz de restricționare, suspendare sau retragere a notificării sau în cazul în care organismul notificat și-a încetat activitatea, autoritatea de notificare ia măsurile adecvate pentru a se asigura că dosarele acelui organism notificat sunt fie preluate de un alt organism notificat, fie sunt puse la dispoziția autorităților de notificare responsabile, la cererea acestora.
2.  În caz de restricționare, suspendare sau retragere a notificării sau în cazul în care organismul notificat și-a încetat activitatea, autoritatea de notificare ia măsurile adecvate pentru a se asigura că dosarele acelui organism notificat sunt fie preluate de un alt organism notificat, fie sunt puse la dispoziția autorităților de notificare responsabile și a autorității de supraveghere a pieței, la cererea acestora.
Amendamentul 432
Propunere de regulament
Articolul 37 – alineatul 1
1.  Dacă este necesar, Comisia investighează toate cazurile în care există motive de îndoială cu privire la îndeplinirea de către un organism notificat a cerințelor prevăzute la articolul 33.
1.  Comisia investighează toate cazurile în care există motive de îndoială cu privire la competența unui organism notificat sau la capacitatea unui organism notificat de a-și îndeplini în continuare cerințele și responsabilitățile aplicabile.
Amendamentul 433
Propunere de regulament
Articolul 37 – alineatul 2
2.  Autoritatea de notificare furnizează Comisiei, la cerere, toate informațiile relevante referitoare la notificarea organismului notificat în cauză.
2.  Autoritatea de notificare furnizează Comisiei, la cerere, toate informațiile relevante referitoare la notificarea sau menținerea competenței organismului notificat în cauză.
Amendamentul 434
Propunere de regulament
Articolul 37 – alineatul 3
3.  Comisia se asigură că toate informațiile confidențiale obținute în cursul investigațiilor sale în temeiul prezentului articol sunt tratate în mod confidențial.
3.  Comisia se asigură că toate informațiile sensibile obținute în cursul investigațiilor sale în temeiul prezentului articol sunt tratate în mod confidențial.
Amendamentul 435
Propunere de regulament
Articolul 37 – alineatul 4
4.  În cazul în care Comisia constată că un organism notificat nu îndeplinește sau nu mai îndeplinește cerințele prevăzute la articolul 33, Comisia adoptă o decizie motivată prin care solicită statului membru notificator să ia măsurile corective necesare, inclusiv retragerea notificării, dacă este necesar. Actul de punere în aplicare respectiv se adoptă în conformitate cu procedura de examinare menționată la articolul 74 alineatul (2).
4.  În cazul în care constată că un organism notificat nu respectă sau nu mai respectă cerințele pentru a fi notificat, Comisia informează statul membru notificator în consecință și solicită acestuia să ia măsurile corective necesare, inclusiv suspendarea sa retragerea notificării, dacă este necesar. În cazul în care statul membru nu ia măsurile corective necesare, Comisia poate, printr-un act de punere în aplicare, să suspende, să restricționeze sau să retragă desemnarea. Actul de punere în aplicare respectiv se adoptă în conformitate cu procedura de examinare menționată la articolul 74 alineatul (2).
Amendamentul 436
Propunere de regulament
Articolul 38 – alineatul 2 a (nou)
2a.  Comisia se ocupă de organizarea unor schimburi de cunoștințe și bune practici între autoritățile naționale ale statelor membre responsabile cu politica de notificare.
Amendamentul 437
Propunere de regulament
Articolul 40 – paragraful 1
Sistemele de IA cu grad ridicat de risc care sunt în conformitate cu normele armonizate sau cu o parte a acestora, ale căror referințe au fost publicate în Jurnalul Oficial al Uniunii Europene, sunt considerate a fi în conformitate cu cerințele stabilite în capitolul 2 din prezentul titlu, în măsura în care standardele respective acoperă cerințele respective.
Sistemele de IA cu grad ridicat de risc și modelele de bază care sunt în conformitate cu normele armonizate sau cu o parte a acestora, ale căror referințe au fost publicate în Jurnalul Oficial al Uniunii Europene în conformitate cu Regulamentul (UE) 1025/2012, sunt considerate a fi în conformitate cu cerințele stabilite în capitolul 2 din prezentul titlu sau la articolul 28b, în măsura în care standardele respective acoperă cerințele respective.
Amendamentul 438
Propunere de regulament
Articolul 40 – paragraful 1 a (nou)
Comisia publică cereri de standardizare care acoperă toate cerințele prezentului regulament, în conformitate cu articolul 10 din Regulamentul (UE) nr. 1025/2012, în termen de ... [șase luni de la data intrării în vigoare a prezentului regulament]. Când pregătește o cerere de standardizare, Comisia se consultă cu Oficiul pentru IA și cu Forumul consultativ pentru IA;
Amendamentul 439
Propunere de regulament
Articolul 40 – paragraful 1 b (nou)
Când adresează o cerere de standardizare organizațiilor de standardizare europene, Comisia precizează că standardele trebuie să fie consecvente, inclusiv cu legislația sectorială enumerată în anexa II, și menite să asigure că sistemele de IA sau modelele de bază de IA introduse pe piață sau puse în funcțiune în Uniune îndeplinesc cerințele relevante prevăzute în prezentul regulament;
Amendamentul 440
Propunere de regulament
Articolul 40 – paragraful 1 c (nou)
Actorii implicați în procesul de standardizare țin seama de principiile generale pentru o IA de încredere, prevăzute la articolul 4 litera a), urmăresc să promoveze investițiile și inovarea în IA, precum și competitivitatea și creșterea pieței Uniunii și contribuie la cooperarea mai strânsă la nivel mondial în materie de standardizare și ținând seama de standardele internaționale existente în domeniul IA care sunt concordante cu valorile, drepturile fundamentale și interesele Uniunii și asigură o reprezentare echilibrată a intereselor și participarea efectivă a tuturor părților interesate relevante, în conformitate cu articolele 5, 6 și 7 din Regulamentul (UE) nr. 1025/2012.
Amendamentul 441
Propunere de regulament
Articolul 41 – alineatul 1
1.  În cazul în care normele armonizate menționate la articolul 40 nu există sau în cazul în care Comisia consideră că normele armonizate relevante sunt insuficiente sau că este necesar să se abordeze preocupări specifice legate de siguranță sau de drepturile fundamentale, Comisia poate adopta, prin intermediul unor acte de punere în aplicare, specificații comune în ceea ce privește cerințele prevăzute în capitolul 2 din prezentul titlu. Actele de punere în aplicare respective se adoptă în conformitate cu procedura de examinare menționată la articolul 74 alineatul (2).
eliminat
Amendamentul 442
Propunere de regulament
Articolul 41 – alineatul 1 a (nou)
1a.  Comisia poate, printr-un act de punere în aplicare adoptat în conformitate cu procedura de examinare menționată la articolul 74 alineatul (2) și după ce se consultă cu Oficiul pentru IA și cu Forumul consultativ pentru IA, să adopte specificații comune pentru cerințele prevăzute în capitolul 2 din prezentul titlu sau la articolul 28b, în cazul în care sunt îndeplinite toate condițiile următoare:
(a)  nu există nicio trimitere la standarde armonizate deja publicate în Jurnalul Oficial al Uniunii Europene referitoare la cerința (cerințele) esențială (esențiale), cu excepția cazului în care standardul armonizat în cauză este un standard existent care trebuie revizuit;
(b)  Comisia a solicitat uneia sau mai multor organizații europene de standardizare să elaboreze un standard armonizat pentru cerințele esențiale prevăzute la capitolul 2;
(c)  cererea menționată la litera (b) nu a fost acceptată de niciuna dintre organizațiile europene de standardizare; sau există întârzieri nejustificate în întocmirea unui standard armonizat corespunzător; sau standardul furnizat nu îndeplinește cerințele legislației relevante a Uniunii sau nu corespunde cu cererea Comisiei.
Amendamentul 443
Propunere de regulament
Articolul 41 – alineatul 1 b (nou)
1b.  În cazul în care Comisia consideră că trebuie avute în vedere anumite preocupări legate de drepturile fundamentale, specificațiile comune adoptate de Comisie în conformitate cu alineatul (1a) tratează și aceste preocupări legate de drepturile fundamentale.
Amendamentul 444
Propunere de regulament
Articolul 41 – alineatul 1 c (nou)
1c.  Comisia elaborează specificații comune pentru metodologia cerută pentru îndeplinirea cerinței de raportare și documentare privind consumul de energie și resurse în timpul dezvoltării, antrenării și implementării sistemului de IA cu grad ridicat de risc.
Amendamentul 445
Propunere de regulament
Articolul 41 – alineatul 2
2.  Atunci când pregătește specificațiile comune menționate la alineatul (1), Comisia colectează opiniile organismelor sau ale grupurilor de experți relevante instituite în temeiul legislației sectoriale relevante a Uniunii.
2.  Pe parcursul întregului proces de elaborare a specificațiilor comune menționate la alineatele (1a) și (1b), Comisia se consultă periodic cu Oficiul pentru IA și Forumul consultativ, organizațiile și organismele europene de standardizare sau grupurile de experți instituite în temeiul dreptului sectorial relevant al Uniunii, precum și alte părți interesate relevante. Comisia îndeplinește obiectivele menționate la articolul 40 alineatul (1c) și justifică corespunzător motivele care au determinat-o să recurgă la specificații comune.
În cazul în care intenționează să adopte specificații comune în temeiul alineatului (1a) din prezentul articol, Comisia identifică, de asemenea, clar care anume preocupare privind drepturile fundamentale trebuie tratată.
Când adoptă specificații comune în temeiul alineatelor (1a) și (1b) din prezentul articol, Comisia ține seama de avizul emis de Oficiul pentru IA menționat la articolul 56e litera b) din prezentul regulament. În cazul în care decide să nu urmeze avizul Oficiului pentru IA, Comisia îi transmite acestuia o explicație motivată.
Amendamentul 446
Propunere de regulament
Articolul 41 – alineatul 3
3.  Sistemele de IA cu grad ridicat de risc care sunt în conformitate cu specificațiile comune menționate la alineatul (1) sunt considerate a fi în conformitate cu cerințele prevăzute în capitolul 2 din prezentul titlu, în măsura în care acele specificații comune acoperă cerințele respective.
3.  Sistemele de IA cu grad ridicat de risc care sunt în conformitate cu specificațiile comune menționate la alineatele (1a) și (1b) sunt considerate a fi în conformitate cu cerințele prevăzute în capitolul 2 din prezentul titlu, în măsura în care acele specificații comune acoperă cerințele respective.
Amendamentul 447
Propunere de regulament
Articolul 41 – alineatul 3 a (nou)
3a.  În cazul în care un standard armonizat este adoptat de o organizație de standardizare europeană și este propus Comisiei pentru ca referința sa să fie publicată în Jurnalul Oficial al Uniunii Europene, Comisia evaluează standardul armonizat în conformitate cu Regulamentul (UE) nr. 1025/2012. Atunci când referința unui standard armonizat este publicată în Jurnalul Oficial al Uniunii Europene, Comisia abrogă actele menționate la alineatele (1a) și (1b) sau acele părți ale lor care vizează aceleași cerințe menționate la capitolul 2 de la prezentul titlu.
Amendamentul 448
Propunere de regulament
Articolul 41 – alineatul 4
4.  În cazul în care furnizorii nu respectă specificațiile comune menționate la alineatul (1), aceștia justifică în mod corespunzător faptul că au adoptat soluții tehnice cel puțin echivalente cu acestea.
4.  În cazul în care furnizorii de sisteme de IA cu grad ridicat de risc nu respectă specificațiile comune menționate la alineatul (1), probează cu documente justificative corespunzătoare faptul că au adoptat soluții tehnice care îndeplinesc cerințele menționate în capitolul 2 la un nivel cel puțin echivalent cu acestea.
Amendamentul 449
Propunere de regulament
Articolul 42 – alineatul 1
1.  Ținând seama de scopul lor preconizat, sistemele de IA cu grad ridicat de risc care au fost antrenate și testate pe baza datelor referitoare la mediul geografic, comportamental și funcțional specific în care sunt destinate să fie utilizate sunt considerate a fi în conformitate cu cerința prevăzută la articolul 10 alineatul (4).
1.  Ținând seama de scopul lor preconizat, sistemele de IA cu grad ridicat de risc care au fost antrenate și testate pe baza datelor referitoare la mediul geografic, comportamental și funcțional specific în care sunt destinate să fie utilizate sunt considerate a fi în conformitate cu cerințele respective prevăzute la articolul 10 alineatul (4).
Amendamentul 450
Propunere de regulament
Articolul 43 – alineatul 1 – partea introductivă
1.  Pentru sistemele de IA cu grad ridicat de risc enumerate la punctul 1 din anexa III, în cazul în care, pentru a demonstra conformitatea unui sistem de IA cu grad ridicat de risc cu cerințele prevăzute în capitolul 2 din prezentul titlu, furnizorul a aplicat normele armonizate menționate la articolul 40 sau, după caz, specificațiile comune menționate la articolul 41, furnizorul urmează una dintre următoarele proceduri:
1.  Pentru sistemele de IA cu grad ridicat de risc enumerate la punctul 1 din anexa III, în cazul în care, pentru a demonstra conformitatea unui sistem de IA cu grad ridicat de risc cu cerințele prevăzute în capitolul 2 din prezentul titlu, furnizorul a aplicat normele armonizate menționate la articolul 40 sau, după caz, specificațiile comune menționate la articolul 41, furnizorul optează pentru una dintre următoarele proceduri:
Amendamentul 451
Propunere de regulament
Articolul 43 – alineatul 1 – litera a
(a)  procedura de evaluare a conformității bazată pe control intern menționată în anexa VI;
(a)  procedura de evaluare a conformității bazată pe control intern menționată în anexa VI; sau
Amendamentul 452
Propunere de regulament
Articolul 43 – alineatul 1 – litera b
(b)  procedura de evaluare a conformității bazată pe evaluarea sistemului de management al calității și pe examinarea documentației tehnice, cu implicarea unui organism notificat, menționată în anexa VII.
(b)  procedura de evaluare a conformității bazată pe evaluarea sistemului de management al calității și pe documentația tehnică, cu implicarea unui organism notificat, menționată în anexa VII.
Amendamentul 453
Propunere de regulament
Articolul 43 – alineatul 1 – paragraful 1
În cazul în care, pentru a demonstra conformitatea unui sistem de IA cu grad ridicat de risc cu cerințele prevăzute în capitolul 2 din prezentul titlu, furnizorul nu a aplicat sau a aplicat doar parțial normele armonizate menționate la articolul 40 sau în cazul în care astfel de standarde armonizate nu există, iar specificațiile comune menționate la articolul 41 nu sunt disponibile, furnizorul urmează procedura de evaluare a conformității prevăzută în anexa VII.
Pentru a demonstra conformitatea unui sistem de IA cu grad ridicat de risc cu cerințele prevăzute în capitolul 2 din prezentul titlu, furnizorul urmează procedura de evaluare a conformității prevăzută în anexa VII în următoarele cazuri:
(a)  atunci când standardele armonizate menționate la articolul 40, al căror număr de referință a fost publicat în Jurnalul Oficial al Uniunii Europene sub incidența cărora se află toate cerințele relevante de siguranță pentru sistemul de IA, nu există, iar specificațiile comune menționate la articolul 41 nu sunt disponibile;
(b)  atunci când specificațiile tehnice menționate la litera (a) există, dar furnizorul nu le-a aplicat sau le-a aplicat doar parțial;
(c)  atunci când specificațiile tehnice menționate la litera (a) au fost publicate cu o restricție și numai în partea standardului care a fost restricționată;
(d)  atunci când furnizorul consideră că natura, proiectarea, construcția sau scopul sistemului de IA trebuie verificate de o parte terță, indiferent de nivelul de risc.
Amendamentul 454
Propunere de regulament
Articolul 43 – alineatul 1 – paragraful 2
În sensul procedurii de evaluare a conformității menționate în anexa VII, furnizorul poate alege oricare dintre organismele notificate. Cu toate acestea, în cazul în care sistemul este destinat să fie pus în funcțiune de către autoritățile de aplicare a legii, autoritățile din domeniul imigrației sau al azilului, precum și de către instituțiile, organismele sau agențiile UE, autoritatea de supraveghere a pieței menționată la articolul 63 alineatul (5) sau (6), după caz, acționează ca organism notificat.
În scopul desfășurării procedurii de evaluare a conformității menționate în anexa VII, furnizorul poate alege oricare dintre organismele notificate. Cu toate acestea, în cazul în care sistemul este destinat să fie pus în funcțiune de către autoritățile de aplicare a legii, autoritățile din domeniul imigrației sau al azilului, precum și de către instituțiile, organismele sau agențiile UE, autoritatea de supraveghere a pieței menționată la articolul 63 alineatul (5) sau (6), după caz, acționează ca organism notificat.
Amendamentul 455
Propunere de regulament
Articolul 43 – alineatul 4 – partea introductivă
4.  Sistemele de IA cu grad ridicat de risc fac obiectul unei noi proceduri de evaluare a conformității ori de câte ori sunt modificate substanțial, indiferent dacă sistemul modificat este destinat să fie distribuit ulterior sau dacă utilizatorul curent continuă să utilizeze sistemul modificat.
4.  Sistemele de IA cu grad ridicat de risc care au făcut deja obiectul unei noi proceduri de evaluare a conformității sunt supuse la o nouă procedură de evaluare a conformității ori de câte ori sunt modificate substanțial, indiferent dacă sistemul modificat este destinat să fie distribuit ulterior sau dacă operatorul actual continuă să utilizeze sistemul modificat.
Amendamentul 456
Propunere de regulament
Articolul 43 – alineatul 4 a (nou)
4a.  La stabilirea taxelor pentru evaluarea conformității efectuată de o parte terță în temeiul prezentului articol, se ține cont de interesele și nevoile specifice ale IMM-urilor, taxele respective fiind reduse proporțional cu mărimea și cota de piață.
Amendamentul 457
Propunere de regulament
Articolul 43 – alineatul 5
5.  Comisia este împuternicită să adopte acte delegate în conformitate cu articolul 73 în scopul actualizării anexelor VI și VII pentru a introduce elemente ale procedurilor de evaluare a conformității care devin necesare având în vedere progresul tehnic.
5.  Comisia este împuternicită să adopte acte delegate în conformitate cu articolul 73 în scopul actualizării anexelor VI și VII pentru a introduce elemente ale procedurilor de evaluare a conformității care devin necesare având în vedere progresul tehnic. Când pregătește asemenea acte delegate, Comisia se consultă cu Oficiul pentru IA și cu părțile interesate afectate;
Amendamentul 458
Propunere de regulament
Articolul 43 – alineatul 6
6.  Comisia este împuternicită să adopte acte delegate pentru a modifica alineatele (1) și (2) în vederea supunerii sistemelor de IA cu grad ridicat de risc menționate la punctele 2-8 din anexa III procedurii de evaluare a conformității menționate în anexa VII sau unei părți ale acesteia. Comisia adoptă astfel de acte delegate ținând seama de eficacitatea procedurii de evaluare a conformității bazate pe controlul intern menționate în anexa VI în ceea ce privește prevenirea sau reducerea la minimum a riscurilor pentru sănătate și siguranță și protecția drepturilor fundamentale pe care le prezintă astfel de sisteme, precum și disponibilitatea capacităților și a resurselor adecvate în rândul organismelor notificate.
6.  Comisia este împuternicită să adopte acte delegate pentru a modifica alineatele (1) și (2) în vederea supunerii sistemelor de IA cu grad ridicat de risc menționate la punctele 2-8 din anexa III procedurii de evaluare a conformității menționate în anexa VII sau unei părți ale acesteia. Comisia adoptă astfel de acte delegate ținând seama de eficacitatea procedurii de evaluare a conformității bazate pe controlul intern menționate în anexa VI în ceea ce privește prevenirea sau reducerea la minimum a riscurilor pentru sănătate și siguranță și protecția drepturilor fundamentale pe care le prezintă astfel de sisteme, precum și disponibilitatea capacităților și a resurselor adecvate în rândul organismelor notificate. Când pregătește asemenea acte delegate, Comisia se consultă cu Oficiul pentru IA și cu părțile interesate afectate;
Amendamentul 459
Propunere de regulament
Articolul 44 – alineatul 1
1.  Certificatele eliberate de organismele notificate în conformitate cu anexa VII sunt redactate într-o limbă oficială a Uniunii stabilită de statul membru în care este stabilit organismul notificat sau într-o limbă oficială a Uniunii acceptată în alt mod de organismul notificat.
1.  Certificatele eliberate de organismele notificate în conformitate cu anexa VII sunt redactate în una sau mai multe limbi oficiale stabilite de statul membru în care este stabilit organismul notificat sau în una sau mai multe limbi oficiale acceptate în alt mod de organismul notificat.
Amendamentul 460
Propunere de regulament
Articolul 44 – alineatul 2
2.  Certificatele sunt valabile pentru perioada pe care o menționează, care nu depășește cinci ani. La solicitarea furnizorului, valabilitatea unui certificat poate fi prelungită pentru perioade suplimentare, fiecare dintre acestea nedepășind cinci ani, pe baza unei reevaluări în conformitate cu procedurile aplicabile de evaluare a conformității.
2.  Certificatele sunt valabile pe perioada pe care o menționează, care nu depășește patru ani. La solicitarea furnizorului, valabilitatea unui certificat poate fi prelungită cu perioade suplimentare, fiecare dintre acestea nedepășind patru ani, pe baza unei reevaluări în conformitate cu procedurile aplicabile de evaluare a conformității.
Amendamentul 461
Propunere de regulament
Articolul 44 – alineatul 3
3.  În cazul în care un organism notificat constată că un sistem de IA nu mai îndeplinește cerințele prevăzute în capitolul 2 din prezentul titlu, acesta, ținând seama de principiul proporționalității, suspendă sau retrage certificatul eliberat sau impune restricții asupra acestuia, cu excepția cazului în care îndeplinirea cerințelor respective este asigurată prin acțiuni corective adecvate întreprinse de furnizorul sistemului într-un termen adecvat stabilit de organismul notificat. Organismul notificat comunică motivele deciziei sale.
3.  În cazul în care un organism notificat constată că un sistem de IA nu mai îndeplinește cerințele prevăzute în capitolul 2 din prezentul titlu, suspendă sau retrage certificatul eliberat sau impune restricții asupra acestuia, cu excepția cazului în care îndeplinirea cerințelor respective este asigurată prin acțiuni corective adecvate întreprinse de furnizorul sistemului într-un termen adecvat stabilit de organismul notificat. Organismul notificat comunică motivele deciziei sale.
Amendamentul 462
Propunere de regulament
Articolul 45 – paragraful 1
Statele membre se asigură că părțile care au un interes legitim în decizia respectivă au la dispoziție o cale de atac împotriva deciziilor organismelor notificate.
Statele membre se asigură că părțile care au un interes legitim în deciziile organismelor notificate, au la dispoziție o cale de atac împotriva deciziilor respective, inclusiv împotriva celor privind certificatele de conformitate eliberate.
Amendamentul 463
Propunere de regulament
Articolul 46 – alineatul 3
3.  Fiecare organism notificat furnizează celorlalte organisme notificate care îndeplinesc activități similare de evaluare a conformității care acoperă aceleași tehnologii din domeniul inteligenței artificiale informații relevante privind aspecte legate de rezultatele negative ale evaluărilor conformității și, la cerere, de rezultatele pozitive ale evaluărilor conformității.
3.  Fiecare organism notificat furnizează celorlalte organisme notificate care îndeplinesc activități similare de evaluare a conformității informații relevante privind aspecte legate de rezultatele negative ale evaluărilor conformității și, la cerere, de rezultatele pozitive ale evaluărilor conformității.
Amendamentul 464
Propunere de regulament
Articolul 47 – alineatul 1
1.  Prin derogare de la articolul 43, orice autoritate de supraveghere a pieței poate autoriza introducerea pe piață sau punerea în funcțiune a anumitor sisteme de IA cu grad ridicat de risc pe teritoriul statului membru în cauză, din motive excepționale de siguranță publică sau de protecție a vieții și sănătății persoanelor, de protecție a mediului și de protecție a activelor industriale și de infrastructură esențiale. Autorizația respectivă se acordă pentru o perioadă limitată de timp, cât timp procedurile necesare de evaluare a conformității sunt în desfășurare, și încetează odată ce procedurile respective au fost finalizate. Finalizarea procedurilor respective se efectuează fără întârzieri nejustificate.
1.  Prin derogare de la articolul 43, orice autoritate națională de supraveghere poate solicita unei autorități judiciare să autorizeze introducerea pe piață sau punerea în funcțiune a anumitor sisteme de IA cu grad ridicat de risc pe teritoriul statului membru în cauză, din motive excepționale de protecție a vieții și sănătății persoanelor, de protecție a mediului și de protecție a infrastructurilor de importanță critică. Autorizația respectivă se acordă pentru o perioadă limitată de timp, cât timp procedurile necesare de evaluare a conformității sunt în desfășurare, și încetează odată ce procedurile respective au fost finalizate. Finalizarea procedurilor respective se efectuează fără întârzieri nejustificate;
Amendamentul 465
Propunere de regulament
Articolul 47 – alineatul 2
2.  Autorizația menționată la alineatul (1) se eliberează numai în cazul în care autoritatea de supraveghere a pieței concluzionează că sistemul de IA cu grad ridicat de risc respectă cerințele din capitolul 2 din prezentul titlu. Autoritatea de supraveghere a pieței informează Comisia și celelalte state membre cu privire la orice autorizație eliberată în temeiul alineatului (1).
2.  Autorizația menționată la alineatul (1) se eliberează numai în cazul în care autoritatea națională de supraveghere și autoritatea judiciară ajung la concluzia că sistemul de IA cu grad ridicat de risc respectă cerințele din capitolul 2 din prezentul titlu. Autoritatea națională de supraveghere informează Comisia, Oficiul pentru IA și celelalte state membre cu privire la orice cerere făcută și la orice autorizație ulterioară eliberată în temeiul alineatului (1).
Amendamentul 466
Propunere de regulament
Articolul 47 – alineatul 3
3.  În cazul în care, în termen de 15 zile calendaristice de la primirea informațiilor menționate la alineatul (2), niciun stat membru și nici Comisia nu ridică obiecții cu privire la o autorizație eliberată de o autoritate de supraveghere a pieței dintr-un stat membru în conformitate cu alineatul (1), autorizația respectivă este considerată justificată.
3.  În cazul în care, în termen de 15 zile calendaristice de la primirea informațiilor menționate la alineatul (2), niciun stat membru și nici Comisia nu ridică obiecții cu privire la cererea autorității naționale de supraveghere referitoare la o autorizație eliberată de o autoritate națională de supraveghere dintr-un stat membru în conformitate cu alineatul (1), autorizația respectivă este considerată justificată.
Amendamentul 467
Propunere de regulament
Articolul 47 – alineatul 4
4.  În cazul în care, în termen de 15 zile calendaristice de la primirea notificării menționate la alineatul (2), sunt ridicate obiecții de către un stat membru împotriva unei autorizații eliberate de o autoritate de supraveghere a pieței dintr-un alt stat membru sau în cazul în care Comisia consideră că autorizația este contrară dreptului Uniunii sau că concluzia statelor membre cu privire la conformitatea sistemului menționat la alineatul (2) este nefondată, Comisia inițiază fără întârziere consultări cu statul membru în cauză; operatorul (operatorii) în cauză este (sunt) consultat (consultați) și are (au) posibilitatea de a-și prezenta punctele de vedere. În acest sens, Comisia decide dacă autorizația este justificată sau nu. Comisia comunică decizia sa statului membru în cauză și operatorului sau operatorilor relevanți.
4.  În cazul în care, în termen de 15 zile calendaristice de la primirea notificării menționate la alineatul (2), un stat membru ridică obiecții împotriva unei cereri făcute de o autoritate națională de supraveghere dintr-un alt stat membru sau în cazul în care Comisia consideră că autorizația este contrară dreptului Uniunii sau că concluzia statelor membre cu privire la conformitatea sistemului menționat la alineatul (2) este nefondată, Comisia inițiază fără întârziere consultări cu statul membru în cauză și cu Oficiul pentru IA; operatorul (operatorii) în cauză este (sunt) consultat (consultați) și are (au) posibilitatea de a-și prezenta punctele de vedere. În acest sens, Comisia decide dacă autorizația este justificată sau nu. Comisia comunică decizia sa statului membru în cauză și operatorului (operatorilor) relevant (relevanți).
Amendamentul 468
Propunere de regulament
Articolul 47 – alineatul 5
5.  În cazul în care autorizația este considerată nejustificată, aceasta este retrasă de către autoritatea de supraveghere a pieței din statul membru în cauză.
5.  În cazul în care este considerată nejustificată, autorizația este retrasă de către autoritatea de supraveghere a pieței din statul membru în cauză.
Amendamentul 469
Propunere de regulament
Articolul 48 – alineatul 1
1.  Furnizorul întocmește o declarație de conformitate UE scrisă pentru fiecare sistem de IA și o pune la dispoziția autorităților naționale competente pe o perioadă de 10 ani după introducerea pe piață sau punerea în funcțiune a sistemului de IA. Declarația de conformitate UE identifică sistemul de IA pentru care a fost întocmită. O copie a declarației de conformitate UE este pusă la dispoziția autorităților naționale competente relevante, la cerere.
1.  Furnizorul întocmește o declarație de conformitate UE scrisă, care poate fi citită automat, fizică sau electronică, pentru fiecare sistem de IA cu grad ridicat de risc și o pune la dispoziția autorității naționale de supraveghere și autorităților naționale competente pe o perioadă de 10 ani după introducerea pe piață sau punerea în funcțiune a sistemului de IA cu grad ridicat de risc. O copie a declarației de conformitate UE este pusă la dispoziția autorității naționale de supraveghere și a autorităților naționale competente relevante, la cerere;
Amendamentul 470
Propunere de regulament
Articolul 48 – alineatul 2
2.  Declarația de conformitate UE precizează că sistemul de IA cu grad ridicat de risc în cauză îndeplinește cerințele prevăzute în capitolul 2 din prezentul titlu. Declarația de conformitate UE conține informațiile prevăzute în anexa V și se traduce într-o limbă oficială a Uniunii solicitată sau în limbile oficiale ale Uniunii solicitate de statul (statele) membru (membre) în care se pune la dispoziție sistemul de IA cu grad ridicat de risc.
2.  Declarația de conformitate UE precizează că sistemul de IA cu grad ridicat de risc în cauză îndeplinește cerințele prevăzute în capitolul 2 din prezentul titlu. Declarația de conformitate UE conține informațiile prevăzute în anexa V și se traduce într-o limbă oficială a Uniunii solicitată sau în limbile oficiale ale Uniunii solicitate de statul (statele) membru (membre) în care se introduce pe piață sau se pune la dispoziție sistemul de IA cu grad ridicat de risc;
Amendamentul 471
Propunere de regulament
Articolul 48 – alineatul 3
3.  În cazul în care sistemele de IA cu grad ridicat de risc fac obiectul altor acte legislative de armonizare ale Uniunii care necesită, de asemenea, o declarație de conformitate UE, se redactează o singură declarație de conformitate UE cu privire la toate legislațiile Uniunii aplicabile sistemului de IA cu grad ridicat de risc. Declarația conține toate informațiile necesare pentru identificarea legislației de armonizare a Uniunii la care declarația face referire.
3.  În cazul în care sistemele de IA cu grad ridicat de risc fac obiectul altor acte legislative de armonizare ale Uniunii care necesită, de asemenea, o declarație de conformitate UE, se poate redacta o singură declarație de conformitate UE cu privire la toate legislațiile Uniunii aplicabile sistemului de IA cu grad ridicat de risc. Declarația conține toate informațiile necesare pentru identificarea legislației de armonizare a Uniunii la care declarația face referire.
Amendamentul 472
Propunere de regulament
Articolul 48 – alineatul 5
5.  Comisia este împuternicită să adopte acte delegate în conformitate cu articolul 73 în scopul actualizării conținutului declarației de conformitate UE prevăzute în anexa V pentru a introduce elemente care devin necesare având în vedere progresele tehnice.
5.  După consultarea Oficiului pentru IA, Comisia este împuternicită să adopte acte delegate în conformitate cu articolul 73 în scopul actualizării conținutului declarației de conformitate UE prevăzute în anexa V pentru a introduce elemente care devin necesare având în vedere progresele tehnice.
Amendamentul 473
Propunere de regulament
Articolul 49 – alineatul 1
1.  Marcajul CE se aplică în mod vizibil, lizibil și indelebil pentru sistemele de IA cu risc ridicat. În cazul în care acest lucru nu este posibil sau justificat din considerente ținând de natura sistemului de IA cu grad ridicat de risc, marcajul se aplică pe ambalaj și pe documentele de însoțire, după caz.
1.  Marcajul CE fizic se aplică în mod vizibil, lizibil și indelebil pentru sistemele de IA cu risc ridicat înainte ca sistemul de IA cu grad ridicat de risc să fie introdus pe piață. În cazul în care acest lucru nu este posibil sau justificat din considerente ținând de natura sistemului de IA cu grad ridicat de risc, marcajul se aplică pe ambalaj și pe documentele de însoțire, după caz. Acesta poate fi urmat de o pictogramă sau de orice alt marcaj care indică un risc special de utilizare;
Amendamentul 474
Propunere de regulament
Articolul 49 – alineatul 1 a (nou)
1a.  În cazul sistemelor digitale de IA cu grad ridicat de risc, se utilizează un marcaj CE digital numai dacă poate fi accesat cu ușurință prin intermediul interfeței de la care este accesat sistemul de IA sau printr-un cod ușor accesibil care poate fi citit automat sau prin alte mijloace electronice.
Amendamentul 475
Propunere de regulament
Articolul 49 – alineatul 3
3.  Dacă este cazul, marcajul CE este urmat de numărul de identificare al organismului notificat responsabil de procedurile de evaluare a conformității menționate la articolul 43. De asemenea, numărul de identificare se indică în orice material promoțional care menționează faptul că sistemul de IA cu grad ridicat de risc îndeplinește cerințele aferente marcajului CE.
3.  Dacă este cazul, marcajul CE este urmat de numărul de identificare al organismului notificat responsabil de procedurile de evaluare a conformității menționate la articolul 43. Numărul de identificare al organismului notificat se aplică chiar de către organism sau, la instrucțiunile acestuia, de către reprezentantul autorizat al furnizorului. De asemenea, numărul de identificare se indică în orice material promoțional care menționează faptul că sistemul de IA cu grad ridicat de risc îndeplinește cerințele aferente marcajului CE;
Amendamentul 476
Propunere de regulament
Articolul 49 – alineatul 3 a (nou)
3a.  În cazul în care sistemele de IA cu grad ridicat de risc fac obiectul altor acte legislative ale Uniunii care prevăd și aplicarea marcajului CE, acesta indică faptul că sistemele de IA cu grad ridicat de risc îndeplinesc și cerințele celorlalte acte legislative.
Amendamentul 477
Propunere de regulament
Articolul 50 – paragraful1 – partea introductivă
Pentru o perioadă de 10 ani după introducerea pe piață sau punerea în funcțiune a sistemului de IA, furnizorul pune la dispoziția autorităților naționale competente:
Pentru o perioadă de 10 ani după introducerea pe piață sau punerea în funcțiune a sistemului de IA, furnizorul pune la dispoziția autorității naționale de supraveghere și a autorităților naționale competente:
Amendamentul 478
Propunere de regulament
Articolul 51 – paragraful 1
Înainte de a introduce pe piață sau de a pune în funcțiune un sistem de IA cu grad ridicat de risc menționat la articolul 6 alineatul (2), furnizorul sau, după caz, reprezentantul autorizat înregistrează sistemul respectiv în baza de date a UE menționată la articolul 60.
Înainte de a introduce pe piață sau de a pune în funcțiune un sistem de IA cu grad ridicat de risc menționat la articolul 6 alineatul (2), furnizorul sau, după caz, reprezentantul autorizat înregistrează sistemul respectiv în baza de date a UE menționată la articolul 60, în conformitate cu articolul 60 alineatul (2);
Amendamentul 479
Propunere de regulament
Articolul 51 – paragraful 1 a (nou)
Înainte de a pune în funcțiune sau de a utiliza un sistem de IA cu grad ridicat de risc în conformitate cu articolul 6 alineatul (2), următoarele categorii de operatori înregistrează utilizarea sistemului de IA respectiv în baza de date a UE menționată la articolul 60:
(a)  operatorii care sunt autorități publice sau instituții, organe, oficii sau agenții ale Uniunii sau operatori care acționează în numele acestora;
(b)  operatorii care sunt întreprinderi desemnate drept controlori de acces în temeiul Regulamentului (UE) 2022/1925.
Amendamentul 480
Propunere de regulament
Articolul 51 – paragraful 1 b (nou)
Operatorii care nu intră sub incidența paragrafului 1a au dreptul de a înregistra în mod voluntar utilizarea unui sistem de IA cu grad ridicat de risc menționat la articolul 6 alineatul (2) în baza de date a UE menționată la articolul 60.
Amendamentul 481
Propunere de regulament
Articolul 51 – paragraful 1 c (nou)
O înregistrare actualizată trebuie completată imediat după fiecare modificare substanțială.
Amendamentul 482
Propunere de regulament
Titlul IV
OBLIGAȚII DE TRANSPARENȚĂ PENTRU ANUMITE SISTEME DE IA
OBLIGAȚII DE TRANSPARENȚĂ
Amendamentul 483
Propunere de regulament
Articolul 52 – titlu
Obligații de transparență pentru anumite sisteme de IA
Obligații de transparență
Amendamentul 484
Propunere de regulament
Articolul 52 – alineatul 1
1.  Furnizorii se asigură că sistemele de IA destinate să interacționeze cu persoane fizice sunt proiectate și dezvoltate astfel încât persoanele fizice să fie informate că interacționează cu un sistem de IA, cu excepția cazului în care acest lucru este evident din circumstanțele și contextul de utilizare. Această obligație nu se aplică sistemelor de IA autorizate prin lege pentru a detecta, a preveni, a investiga și a urmări penal infracțiunile, cu excepția cazului în care aceste sisteme sunt disponibile publicului pentru a denunța o infracțiune.
1.  Furnizorii se asigură că sistemele de IA destinate să interacționeze cu persoane fizice sunt proiectate și dezvoltate astfel încât sistemul de IA, furnizorul însuși sau utilizatorul informează persoana fizică expusă la un sistem de IA că interacționează cu un sistem de IA la timp, în mod clar și inteligibil, cu excepția cazului în care acest lucru este evident din circumstanțele și contextul de utilizare.
După caz și dacă este relevant, aceste informații precizează, de asemenea, funcțiile care sunt bazate pe IA, dacă există supraveghere umană și cine este responsabil de procesul decizional, precum și drepturile și procesele existente care, în conformitate cu dreptul Uniunii și cu dreptul intern, le permit persoanelor fizice sau reprezentanților acestora să se opună aplicării unor astfel de sisteme în cazul lor și să introducă căi de atac judiciare împotriva deciziilor luate de sistemele de IA sau a prejudiciilor cauzate de acestea, inclusiv dreptul lor de a solicita o explicație. Această obligație nu se aplică sistemelor de IA autorizate prin lege pentru a detecta, a preveni, a investiga și a urmări penal infracțiunile, cu excepția cazului în care aceste sisteme sunt disponibile publicului pentru a denunța o infracțiune.
Amendamentul 485
Propunere de regulament
Articolul 52 – alineatul 2
2.  Utilizatorii unui sistem de recunoaștere a emoțiilor sau ai unui sistem biometric de clasificare informează persoanele fizice expuse la sistem cu privire la funcționarea acestuia. Această obligație nu se aplică sistemelor de IA utilizate pentru clasificarea biometrică, care sunt autorizate prin lege să detecteze, să prevină și să investigheze infracțiunile.
2.  Utilizatorii unui sistem de recunoaștere a emoțiilor sau ai unui sistem biometric de clasificare care nu este interzis în temeiul articolului 5 informează în timp util, în mod clar și inteligibil persoanele fizice expuse la sistem cu privire la funcționarea acestuia și obțin consimțământul lor înainte de prelucrarea datelor lor biometrice și a altor date cu caracter personal în conformitate cu Regulamentul (UE) 2016/679, Regulamentul (UE) 2016/1725 și Directiva (UE) 2016/280, după caz. Această obligație nu se aplică sistemelor de IA utilizate pentru clasificarea biometrică, care sunt autorizate prin lege să detecteze, să prevină și să investigheze infracțiunile.
Amendamentul 486
Propunere de regulament
Articolul 52 – alineatul 3 – paragraful 1
3.  Utilizatorii unui sistem de IA care generează sau manipulează imagini, conținuturi audio sau video care seamănă în mod considerabil cu persoane, obiecte, locuri sau alte entități sau evenimente existente și care ar crea unei persoane impresia falsă că sunt autentice sau adevărate („deepfake”), trebuie să facă cunoscut faptul că respectivul conținut a fost generat sau manipulat artificial.
3.  Utilizatorii unui sistem de IA care generează sau manipulează text, conținuturi audio sau vizuale care ar crea impresia falsă că sunt autentice sau adevărate („deepfake”) și care prezintă reprezentări ale unor persoane care par să spună sau să facă lucruri pe care nu le-au spus sau făcut, fără consimțământul lor, trebuie să facă cunoscut, într-un mod adecvat, clar și vizibil și la timp, faptul că respectivul conținut a fost generat sau manipulat artificial, precum și, ori de câte ori este posibil, numele persoanei fizice sau juridice care l-a generat sau manipulat. Prin a face cunoscut se înțelege etichetarea conținutului într-un mod care să informeze că conținutul este neautentic și care este vizibil în mod clar pentru destinatarul conținutului respectiv. Pentru a eticheta conținutul, utilizatorii țin seama de stadiul actual al tehnologiei general recunoscut și de standardele și specificațiile armonizate pertinente.
Amendamentul 487
Propunere de regulament
Articolul 52 – alineatul 3 – paragraful 2
Cu toate acestea, primul paragraf nu se aplică în cazul în care utilizarea este autorizată prin lege pentru a detecta, a preveni, a investiga și a urmări penal infracțiunile sau este necesară pentru exercitarea dreptului la libertatea de exprimare și a dreptului la libertatea artelor și științelor garantate în Carta drepturilor fundamentale a UE și sub rezerva unor garanții adecvate pentru drepturile și libertățile terților.
3a.  Alineatul (3) nu se aplică în cazul în care utilizarea unui sistem de IA care generează sau manipulează text, conținut audio sau vizual este autorizată prin lege sau în cazul în care este necesară pentru exercitarea dreptului la libertatea de exprimare și a dreptului la libertatea artelor și științelor garantate în Carta drepturilor fundamentale a UE și sub rezerva unor garanții adecvate pentru drepturile și libertățile terților. Atunci când conținutul face parte dintr-o lucrare cinematografică, dintr-un joc video și dintr-o operă sau program analog care sunt în mod evident creative, satirice, artistice sau fictive, obligațiile de transparență prevăzute la alineatul (3) se limitează la divulgarea existenței unui astfel de conținut generat sau manipulat într-un mod adecvat, clar și vizibil, care să nu împiedice afișarea operei și divulgarea drepturilor de autor aplicabile, după caz. De asemenea, aceasta nu împiedică autoritățile de aplicare a legii să utilizeze sisteme de IA menite să detecteze materialele „deepfake” și să prevină, să investigheze și să urmărească penal infracțiunile legate de utilizarea lor.
Amendamentul 488
Propunere de regulament
Articolul 52 – alineatul 3 b (nou)
3b.  Informațiile menționate la alineatele (1)-(3) sunt furnizate persoanelor fizice cel târziu în momentul primei interacțiuni sau al primei expuneri. Informațiile trebuie să fie accesibile persoanelor vulnerabile, cum ar fi persoanele cu dizabilități sau copiii, complete, atunci când acest lucru este relevant și adecvat, cu proceduri de intervenție sau de marcare pentru persoana fizică expusă, ținând seama de stadiul actual al tehnologiei general recunoscut și de standardele armonizate și specificațiile comune relevante.
Amendamentul 489
Propunere de regulament
Articolul 53 – alineatul 1
1.  Spațiile de testare în materie de reglementare a IA instituite de una sau mai multe autorități competente ale statelor membre sau de Autoritatea Europeană pentru Protecția Datelor asigură un mediu controlat care facilitează dezvoltarea, testarea și validarea sistemelor de IA inovatoare pentru o perioadă limitată de timp înainte de introducerea lor pe piață sau de punerea lor în funcțiune, conform unui plan specific. Acest lucru are loc sub supravegherea și îndrumarea directă a autorităților competente în vederea asigurării conformității cu cerințele prezentului regulament și, după caz, cu alte acte legislative ale Uniunii și ale statelor membre supravegheate în spațiul de testare.
1.  Statele membre instituie cel puțin un spațiu de testare în materie de reglementare pentru IA la nivel național, care este operațional cel târziu la data intrării în vigoare a prezentului regulament. Acest spațiu de testare poate fi, de asemenea, instituit în comun cu unul sau mai multe alte state membre;
Amendamentul 490
Propunere de regulament
Articolul 53 – alineatul 1 a (nou)
1a.  De asemenea, pot fi instituite spații de testare suplimentare în materie de reglementare a IA la nivel regional sau local sau împreună cu alte state membre;
Amendamentul 491
Propunere de regulament
Articolul 53 – alineatul 1 b (nou)
1b.  Comisia și Autoritatea Europeană pentru Protecția Datelor, pe cont propriu, împreună sau în colaborare cu unul sau mai multe state membre, pot institui, de asemenea, spații de testare în materie de reglementare a IA la nivelul Uniunii;
Amendamentul 492
Propunere de regulament
Articolul 53 – alineatul 1 c (nou)
1c.  Autoritățile de instituire alocă suficiente resurse pentru a se conforma prezentului articol în mod eficace și în timp util;
Amendamentul 493
Propunere de regulament
Articolul 53 – alineatul 1 d (nou)
1d.  Spațiile de testare în materie de reglementare a IA prevăd, în conformitate cu criteriile prevăzute la articolul 53a, un mediu controlat care promovează inovarea și facilitează dezvoltarea, testarea și validarea sistemelor de IA inovatoare pentru o perioadă limitată de timp înainte de introducerea lor pe piață sau de punerea lor în funcțiune în temeiul unui plan specific convenit între furnizorii potențiali și autoritatea de instituire;
Amendamentul 494
Propunere de regulament
Articolul 53 – alineatul 1 e (nou)
1e.  Instituirea spațiilor de testare în materie de reglementare a IA urmărește să contribuie la următoarele obiective:
(a)  ca autoritățile competente să ofere orientări potențialilor furnizori de sisteme de IA pentru a asigura conformitatea normativă cu prezentul regulament sau, după caz, cu alte acte legislative aplicabile ale Uniunii și ale statelor membre;
(b)  ca potențialii furnizori să permită și să faciliteze testarea și dezvoltarea de soluții inovatoare legate de sistemele de IA;
(c)  învățarea în materie de reglementare într-un mediu controlat.
Amendamentul 495
Propunere de regulament
Articolul 53 – alineatul 1 f (nou)
1f.  Autoritățile de instituire oferă orientări și supraveghere în spațiul de testare pentru a identifica riscurile, în special pentru drepturile fundamentale, democrație și statul de drept, sănătate, siguranță și mediu, pentru a testa și a demonstra măsurile de atenuare a riscurilor identificate, precum și pentru a asigura eficacitatea acestora și pentru a asigura conformitatea cu cerințele prezentului regulament și, după caz, cu alte acte legislative ale Uniunii și ale statelor membre;
Amendamentul 496
Propunere de regulament
Articolul 53 – alineatul 1 f (nou)
1g.  Autoritățile de instituire oferă potențialilor furnizori de spații de testare care dezvoltă sisteme de IA cu grad ridicat de risc orientări și supraveghere cu privire la modul de îndeplinire a cerințelor prevăzute în prezentul regulament, astfel încât sistemele de IA să poată ieși din spațiul de testare prezumat a fi în conformitate cu cerințele specifice ale prezentului regulament care au fost evaluate în spațiul de testare. În măsura în care sistemul de IA respectă cerințele la ieșirea din spațiul de testare, se presupune că acesta este în conformitate cu prezentul regulament. În acest sens, rapoartele de ieșire create de autoritatea de instituire sunt luate în considerare de autoritățile de supraveghere a pieței sau de organismele notificate, după caz, în contextul procedurilor de evaluare a conformității sau al controalelor de supraveghere a pieței;
Amendamentul 497
Propunere de regulament
Articolul 53 – alineatul 2
2.  Statele membre se asigură că, în măsura în care sistemele de IA inovatoare implică prelucrarea de date cu caracter personal sau intră în alt mod în competența de supraveghere a altor autorități naționale sau autorități competente care furnizează sau sprijină accesul la date, autoritățile naționale de protecție a datelor și celelalte autorități naționale respective sunt asociate funcționării spațiului de testare în materie de reglementare a IA.
2.  Autoritățile de instituire se asigură că, în măsura în care sistemele de IA inovatoare implică prelucrarea de date cu caracter personal sau intră în alt mod în competența de supraveghere a altor autorități naționale sau autorități competente care furnizează sau sprijină accesul la date personale, autoritățile naționale de protecție a datelor sau, în cazurile menționate la alineatul (1b), AEPD și celelalte autorități naționale respective sunt asociate funcționării spațiului de testare în materie de reglementare a IA și implicate în supravegherea aspectelor respective în măsura deplină a sarcinilor și a competențelor lor respective;
Amendamentul 498
Propunere de regulament
Articolul 53 – alineatul 3
3.  Spațiile de testare în materie de reglementare a IA nu afectează competențele de supraveghere și atribuțiile corective ale autorităților competente. Orice risc semnificativ pentru sănătate, siguranță și drepturile fundamentale identificat în cursul dezvoltării și testării unor astfel de sisteme conduce la atenuarea imediată și, în cazul în care atenuarea nu este posibilă, la suspendarea procesului de dezvoltare și testare până la efectuarea unei astfel de atenuări.
3.  Spațiile de testare în materie de reglementare a IA nu afectează competențele de supraveghere și atribuțiile corective ale autorităților competente, inclusiv la nivel regional sau local. Orice risc semnificativ pentru drepturile fundamentale, democrație și statul de drept, sănătate, siguranță sau mediu identificat în cursul dezvoltării și testării unor astfel de sisteme de IA conduce la atenuarea imediată și adecvată. Autoritățile competente au competența de a suspenda temporar sau permanent procesul de testare sau participarea la spațiul de testare dacă nu este posibilă o atenuare eficace și informează Oficiul pentru IA cu privire la o astfel de decizie;
Amendamentul 499
Propunere de regulament
Articolul 53 – alineatul 4
4.  Participanții la spațiul de testare în materie de reglementare a IA rămân responsabili, în temeiul legislației aplicabile a Uniunii și a statelor membre în materie de răspundere, pentru orice prejudiciu adus terților ca urmare a experimentării care are loc în spațiul de testare.
4.  Furnizorii potențiali din spațiul de testare în materie de reglementare a IA rămân responsabili, în temeiul legislației aplicabile a Uniunii și a statelor membre în materie de răspundere, pentru orice prejudiciu adus terților ca urmare a experimentării care are loc în spațiul de testare. Cu toate acestea, cu condiția ca furnizorul (furnizorii) potențial(i) să respecte planul specific menționat la alineatul (1c) și termenii și condițiile de participare a acestora și să urmeze cu bună-credință orientările date de autoritățile de instituire, autoritățile nu impun amenzi administrative pentru încălcarea prezentului regulament;
Amendamentul 500
Propunere de regulament
Articolul 53 – alineatul 5
5.  Autoritățile competente ale statelor membre care au instituit spații de testare în materie de reglementare a IA își coordonează activitățile și cooperează în cadrul Comitetului european pentru inteligența artificială. Acestea prezintă comitetului și Comisiei rapoarte anuale cu privire la rezultatele punerii în aplicare a sistemului respectiv, inclusiv bune practici, lecții învățate și recomandări privind structura acestora și, după caz, privind aplicarea prezentului regulament și a altor acte legislative ale Uniunii supravegheate în spațiul de testare.
5.  Autoritățile de instituire își coordonează activitățile și cooperează în cadrul Oficiului pentru IA;
Amendamentul 501
Propunere de regulament
Articolul 53 – alineatul 5 a (nou)
5a.  Autoritățile de instituire informează Oficiul pentru IA cu privire la instituirea unui spațiu de testare și pot solicita sprijin și orientări. O listă a spațiilor de testare planificate și existente este pusă la dispoziția publicului de către Oficiul pentru IA și este actualizată pentru a încuraja o mai mare interacțiune în spațiile de testare în materie de reglementare și cooperarea transnațională;
Amendamentul 502
Propunere de regulament
Articolul 53 – alineatul 5 b (nou)
5b.  Autoritățile de instituire prezintă Oficiului pentru IA și, cu excepția cazului în care Comisia este singura autoritate de instituire, Comisiei, rapoarte anuale, începând cu un an de la instituirea spațiului de testare și apoi în fiecare an până la încheierea acestuia și un raport final. Rapoartele respective furnizează informații cu privire la progresele și rezultatele punerii în aplicare a spațiilor de testare respective, inclusiv cele mai bune practici, incidente, lecții învățate și recomandări cu privire la instituirea acestora și, după caz, cu privire la aplicarea și posibila revizuire a prezentului regulament și a altor acte legislative ale Uniunii supravegheate în spațiul de testare. Aceste rapoarte anuale sau rezumate ale acestora sunt puse la dispoziția publicului, online;
Amendamentul 503
Propunere de regulament
Articolul 53 – alineatul 6
6.  Modalitățile și condițiile de funcționare a spațiilor de testare în materie de reglementare a IA, inclusiv criteriile de eligibilitate și procedura de depunere a cererii, de selecție, de participare și de ieșire din spațiul de testare, precum și drepturile și obligațiile participanților sunt stabilite în acte de punere în aplicare. Actele de punere în aplicare respective se adoptă în conformitate cu procedura de examinare menționată la articolul 74 alineatul (2).
6.  Comisia dezvoltă o interfață unică și specifică care să conțină toate informațiile relevante referitoare la spațiile de testare, împreună cu un punct de contact unic la nivelul Uniunii pentru a interacționa cu spațiile de testare în materie de reglementare și pentru a permite părților interesate să adreseze întrebări autorităților competente și să solicite orientări fără caracter obligatoriu cu privire la conformitatea produselor, a serviciilor și a modelelor de afaceri inovatoare care cuprind tehnologii de IA;
Comisia se coordonează în mod proactiv cu autoritățile naționale, regionale și locale, după caz;
Amendamentul 504
Propunere de regulament
Articolul 53 – alineatul 6 a (nou)
Articolul 53 – alineatul 6 a (nou)
6a.  În sensul alineatelor (1) și (1a), Comisia joacă un rol complementar, permițând statelor membre să se bazeze pe expertiza lor și, pe de altă parte, să acorde asistență și resurse tehnice statelor membre care solicită orientări cu privire la crearea și funcționarea acestor spații de testare în materie de reglementare;
Amendamentul 505
Propunere de regulament
Articolul 53 a (nou)
Articolul 53a
Modalități și funcționarea spațiilor de testare în materie de reglementare a IA
1.  Pentru a evita fragmentarea în întreaga Uniune, Comisia, în consultare cu Oficiul pentru IA, adoptă un act delegat care detaliază modalitățile de instituire, dezvoltare, punere în aplicare, funcționare și supraveghere a spațiilor de testare în materie de reglementare a IA, inclusiv criteriile de eligibilitate și procedura pentru aplicarea, selectarea, participarea și ieșirea din spațiul de testare, precum și drepturile și obligațiile participanților pe baza dispozițiilor prevăzute la prezentul articol;
2.  Comisia este împuternicită să adopte acte de punere în aplicare în conformitate cu procedura menționată la articolul 73 în termen de cel mult 12 luni de la intrarea în vigoare a prezentului regulament și asigură că:
(a)  spațiile de testare în materie de reglementare sunt deschise oricărui potențial furnizor al unui sistem de IA care îndeplinește criteriile de eligibilitate și de selecție. Criteriile de acces la spațiul de testare în materie de reglementare sunt transparente și echitabile, iar autoritățile de instituire informează solicitanții cu privire la decizia lor în termen de 3 luni de la depunerea cererii;
(b)  spațiile de testare în materie de reglementare permit un acces larg și egal și țin pasul cu cererea de participare;
(c)  accesul la spațiile de testare în materie de reglementare a IA este gratuit pentru IMM-uri și întreprinderile nou-înființate, fără a aduce atingere costurilor excepționale pe care autoritățile de instituire le pot recupera în mod echitabil și proporțional;
(d)  spațiile de testare în materie de reglementare facilitează implicarea altor actori relevanți din ecosistemul IA, cum ar fi organismele notificate și organizațiile de standardizare (IMM-uri, întreprinderi nou-înființate, întreprinderi, inovatori, instalații de testare și experimentare, laboratoare de cercetare și experimentare și centre de inovare digitală, centre de excelență, cercetători individuali), pentru a permite și a facilita cooperarea cu sectorul public și cu sectorul privat;
(e)  le permit potențialilor furnizori să îndeplinească, într-un mediu controlat, obligațiile de evaluare a conformității prevăzute de prezentul regulament sau aplicarea voluntară a codurilor de conduită menționate la articolul 69;
(f)  procedurile, procesele și cerințele administrative pentru depunerea cererilor, selecție, participare și ieșirea din spațiul de testare sunt simple, ușor de înțeles, comunicate în mod clar pentru a facilita participarea IMM-urilor și a întreprinderilor nou-înființate cu capacități juridice și administrative limitate și sunt raționalizate în întreaga Uniune, pentru a evita fragmentarea, iar participarea la un spațiu de testare în materie de reglementare instituit de un stat membru, de Comisie sau de AEPD este recunoscută reciproc și uniform și produce aceleași efecte juridice în întreaga Uniune;
(g)  participarea la spațiul de testare în materie de reglementare a IA este limitată la o perioadă adecvată complexității și amplorii proiectului;
(h)  spațiile de testare facilitează dezvoltarea de instrumente și de infrastructură pentru testarea, analiza comparativă, evaluarea și explicarea dimensiunilor sistemelor de IA relevante pentru spațiile de testare, cum ar fi acuratețea, robustețea și securitatea cibernetică, precum și reducerea la minimum a riscurilor pentru drepturile fundamentale, mediu și societate în general.
3.  Potențialilor furnizori din spațiile de testare, în special IMM-urilor și întreprinderilor nou-înființate, li se facilitează accesul la serviciile anterioare implementării, cum ar fi orientările privind punerea în aplicare a prezentului regulament, la alte servicii cu valoare adăugată, cum ar fi asistența în ceea ce privește documentele de standardizare și certificarea și consultarea, precum și la alte inițiative privind piața unică digitală, cum ar fi instalațiile de testare și experimentare, centrele digitale, centrele de excelență și capacitățile de evaluare comparativă ale UE;
Amendamentul 506
Propunere de regulament
Articolul 54 – titlu
Prelucrarea ulterioară a datelor cu caracter personal în vederea dezvoltării anumitor sisteme de IA în interes public în spațiul de testare în materie de reglementare a IA
Prelucrarea ulterioară a datelor în vederea dezvoltării anumitor sisteme de IA în interes public în spațiul de testare în materie de reglementare a IA
Amendamentul 507
Propunere de regulament
Articolul 54 – alineatul 1 – partea introductivă
1.  În spațiul de testare în materie de reglementare a IA, datele cu caracter personal colectate în mod legal în alte scopuri sunt prelucrate în scopul dezvoltării și testării anumitor sisteme de IA inovatoare în spațiul de testare, în următoarele condiții:
1.  În spațiul de testare în materie de reglementare a IA, datele cu caracter personal colectate în mod legal în alte scopuri pot fi prelucrate numai în scopul dezvoltării și testării anumitor sisteme de IA în spațiul de testare, atunci când toate condițiile următoare sunt îndeplinite:
Amendamentul 508
Propunere de regulament
Articolul 54 – alineatul 1 – litera a – partea introductivă
(a)  sistemele de IA inovatoare sunt dezvoltate pentru a proteja un interes public substanțial în unul sau mai multe dintre următoarele domenii:
(a)  sistemele de IA sunt dezvoltate pentru a proteja un interes public substanțial în unul sau mai multe dintre următoarele domenii:
(ii)  siguranța publică și sănătatea publică, inclusiv depistarea, diagnosticarea, prevenirea, controlul și tratarea bolilor;
(iii)  un nivel ridicat de protecție și de îmbunătățire a calității mediului, protecția biodiversității, poluarea, precum și atenuarea schimbărilor climatice și adaptarea la acestea;
(iii a)  siguranța și reziliența sistemelor, a infrastructurilor critice și a rețelelor de transport.
Amendamentul 509
Propunere de regulament
Articolul 54 – alineatul 1 – litera a – punctul i
(i)  prevenirea, investigarea, depistarea sau urmărirea penală a infracțiunilor sau executarea sancțiunilor penale, inclusiv protejarea împotriva amenințărilor la adresa securității publice și prevenirea acestora, sub controlul și responsabilitatea autorităților competente. Prelucrarea se bazează pe legislația statului membru sau a Uniunii;
eliminat
Amendamentul 510
Propunere de regulament
Articolul 54 – alineatul 1 – litera c
(c)  există mecanisme eficace de monitorizare pentru a identifica dacă pot apărea riscuri ridicate la adresa drepturilor fundamentale ale persoanelor vizate în timpul experimentării în spațiul de testare, precum și mecanisme de răspuns pentru a atenua cu promptitudine aceste riscuri și, dacă este necesar, pentru a opri prelucrarea;
(c)  există mecanisme eficace de monitorizare pentru a identifica dacă pot apărea riscuri ridicate la adresa drepturilor și libertăților persoanelor vizate, astfel cum sunt menționate la articolul 35 din Regulamentul (UE) 2016/679 și la articolul 35 din Regulamentul (UE) 2018/1725, în timpul experimentării în spațiul de testare, precum și mecanisme de răspuns pentru a atenua cu promptitudine aceste riscuri și, dacă este necesar, pentru a opri prelucrarea;
Amendamentul 511
Propunere de regulament
Articolul 54 – alineatul 1 – litera d
(d)  toate datele cu caracter personal care urmează să fie prelucrate în contextul spațiului de testare se află într-un mediu de prelucrare a datelor separat din punct de vedere funcțional, izolat și protejat, aflat sub controlul participanților și numai persoanele autorizate au acces la datele respective;
(d)  toate datele cu caracter personal care urmează să fie prelucrate în contextul spațiului de testare se află într-un mediu de prelucrare a datelor separat din punct de vedere funcțional, izolat și protejat, aflat sub controlul furnizorului potențial și numai persoanele autorizate au acces la datele respective;
Amendamentul 512
Propunere de regulament
Articolul 54 – alineatul 1 – litera f
(f)  nicio prelucrare a datelor cu caracter personal în contextul spațiului de testare nu conduce la măsuri sau la decizii care afectează persoanele vizate;
(f)  nicio prelucrare a datelor cu caracter personal în contextul spațiului de testare nu conduce la măsuri sau la decizii care afectează persoanele vizate și nici nu afectează aplicarea drepturilor acestora prevăzute în dreptul Uniunii privind protecția datelor cu caracter personal;
Amendamentul 513
Propunere de regulament
Articolul 54 – alineatul 1 – litera g
(g)  toate datele cu caracter personal prelucrate în contextul spațiului de testare sunt șterse după ce participarea la spațiul respectiv a încetat sau datele cu caracter personal au ajuns la sfârșitul perioadei de păstrare;
(g)  toate datele cu caracter personal prelucrate în contextul spațiului de testare sunt protejate prin măsuri tehnice și organizaționale adecvate și sunt șterse după ce participarea la spațiul respectiv a încetat sau datele cu caracter personal au ajuns la sfârșitul perioadei de păstrare;
Amendamentul 514
Propunere de regulament
Articolul 54 – alineatul 1 – litera h
(h)  fișierele de jurnalizare a prelucrării datelor cu caracter personal în contextul spațiului de testare sunt păstrate pe durata participării la spațiul de testare și timp de 1 an de la încetarea acesteia, exclusiv în scopul îndeplinirii obligațiilor de responsabilitate și documentare în temeiul prezentului articol sau al altei aplicări a legislației Uniunii sau a statelor membre, și numai atât timp cât este necesar pentru aceasta;
(h)  fișierele de jurnalizare a prelucrării datelor cu caracter personal în contextul spațiului de testare sunt păstrate pe durata participării la spațiul de testare;
Amendamentul 515
Propunere de regulament
Articolul 54 – alineatul 1 – litera j
(j)  un scurt rezumat al proiectului de IA elaborat în spațiul de testare, obiectivele și rezultatele preconizate ale acestuia, publicate pe site-ul web al autorităților competente.
(j)  un scurt rezumat al sistemului de IA elaborat în spațiul de testare, obiectivele, ipotezele și rezultatele preconizate ale acestuia, publicate pe site-ul web al autorităților competente;
Amendamentul 516
Propunere de regulament
Articolul 54 a (nou)
Articolul 54a
Promovarea cercetării și dezvoltării IA pentru rezultate benefice din punct de vedere social și al mediului
1.  Statele membre promovează cercetarea și dezvoltarea de soluții bazate pe IA pentru rezultate benefice din punct de vedere social și al mediului, inclusiv, dar fără a se limita la acestea, dezvoltarea de soluții bazate pe IA pentru a spori accesibilitatea pentru persoanele cu dizabilități, pentru a aborda disparitățile socioeconomice și pentru a îndeplini obiectivele de durabilitate și de mediu, prin:
(a)  oferirea de acces prioritar la spațiile de testare în materie de reglementare a IA proiectelor relevante, în măsura în care îndeplinesc condițiile de eligibilitate;
(b)  alocarea de fonduri publice, inclusiv din fondurile UE corespunzătoare, pentru cercetarea și dezvoltarea IA în sprijinul unor rezultate benefice din punct de vedere social și al mediului;
(c)  organizarea de activități specifice de sensibilizare cu privire la aplicarea prezentului regulament, la disponibilitatea și la procedurile de solicitare a finanțării specifice, adaptate la nevoile proiectelor respective;
(d)  după caz, stabilirea unor canale dedicate accesibile, inclusiv în cadrul spațiilor de testare, pentru comunicarea cu proiectele, pentru a oferi îndrumare și a răspunde la întrebări privind punerea în aplicare a prezentului regulament.
Statele membre sprijină societatea civilă și părțile interesate din domeniul social să conducă astfel de proiecte sau să participe la ele;
Amendamentul 517
Propunere de regulament
Articolul 55 – titlu
Măsuri pentru micii furnizori și utilizatori
Măsuri pentru IMM-uri, întreprinderi nou-înființate și utilizatori
Amendamentul 518
Propunere de regulament
Articolul 55 – alineatul 1 – litera a
(a)  oferă micilor furnizori și întreprinderilor nou-înființate acces prioritar la spațiile de testare în materie de reglementare a IA, în măsura în care îndeplinesc condițiile de eligibilitate;
(a)  oferă IMM-urilor și întreprinderilor nou-înființate stabilite în Uniune acces prioritar la spațiile de testare în materie de reglementare a IA, în măsura în care îndeplinesc condițiile de eligibilitate;
Amendamentul 519
Propunere de regulament
Articolul 55 – alineatul 1 – litera b
(b)  organizează activități specifice de sensibilizare cu privire la aplicarea prezentului regulament, adaptate la nevoile micilor furnizori și utilizatori;
(b)  organizează activități specifice de sensibilizare și de dezvoltare a unor competențe digitale mai bune cu privire la aplicarea prezentului regulament, adaptate la nevoile IMM-urilor, ale întreprinderilor nou-înființate și ale utilizatorilor;
Amendamentul 520
Propunere de regulament
Articolul 55 – alineatul 1 – litera c
(c)  după caz, stabilesc un canal special de comunicare cu micii furnizori și utilizatori, precum și cu alți inovatori, pentru a oferi orientări și a răspunde la întrebări legate de punerea în aplicare a prezentului regulament.
(c)  utilizează canalele speciale existente și, după caz, stabilesc noi canale speciale de comunicare cu IMM-urile, întreprinderile nou-înființate, utilizatorii, precum și cu alți inovatori, pentru a oferi orientări și a răspunde la întrebări legate de punerea în aplicare a prezentului regulament;
Amendamentul 521
Propunere de regulament
Articolul 55 – alineatul 1 – litera ca (nouă)
(ca)  încurajează participarea IMM-urilor și a altor părți interesate relevante la procesul de dezvoltare a standardizării.
Amendamentul 522
Propunere de regulament
Articolul 55 – alineatul 2
2.  Interesele și nevoile specifice ale micilor furnizori sunt luate în considerare la stabilirea taxelor pentru evaluarea conformității în temeiul articolului 43, taxele respective fiind reduse proporțional cu mărimea și cu dimensiunea lor de piață.
2.  Interesele și nevoile specifice ale IMM-urilor, ale întreprinderilor nou-înființate și ale utilizatorilor sunt luate în considerare la stabilirea taxelor pentru evaluarea conformității în temeiul articolului 43, taxele respective fiind reduse proporțional cu stadiul de dezvoltare, mărimea lor, dimensiunea lor de piață și cererea de pe piață. Comisia evaluează periodic costurile de certificare și de asigurare a conformității pentru IMM-uri și întreprinderile nou-înființate, inclusiv prin consultări transparente cu IMM-urile, întreprinderile nou-înființate și utilizatorii, și colaborează cu statele membre pentru a reduce aceste costuri, dacă este posibil. Comisia raportează Parlamentului European și Consiliului cu privire la aceste constatări în cadrul raportului privind evaluarea și revizuirea prezentului regulament prevăzut la articolul 84 alineatul (2).
Amendamentul 523
Propunere de regulament
Articolul 56 – secțiunea 1 – titlu
Titlu
SECȚIUNEA 1: Dispoziții generale privind Oficiul european pentru inteligența artificială
Amendamentul 524
Propunere de regulament
Articolul 56 – titlu
Instituirea Comitetului european pentru inteligența artificială
Instituirea Oficiului european pentru inteligența artificială
Amendamentul 525
Propunere de regulament
Articolul 56 – alineatul 1
1.  Se instituie un „Comitet european pentru inteligența artificială” (denumit în continuare „comitetul”).
1.  Se instituie prin aceasta un „Oficiu european pentru inteligența artificială” (denumit în continuare „Oficiul pentru IA”). Oficiul pentru IA este un organism independent al Uniunii. Acesta are personalitate juridică.
Amendamentul 526
Propunere de regulament
Articolul 56 – alineatul 2 – partea introductivă
2.  Comitetul oferă consiliere și asistență Comisiei pentru:
2.  Oficiul pentru IA are un secretariat și este finanțat și dotat în mod adecvat cu personalul necesar pentru a-și îndeplini sarcinile în temeiul prezentului regulament.
Amendamentul 527
Propunere de regulament
Articolul 56 – alineatul 2 a (nou)
2a.  Sediul Oficiului pentru IA este situat la Bruxelles.
Amendamentul 528
Propunere de regulament
Articolul 56 a (nou)
Articolul 56a
Structură
Structura administrativă și de conducere a Oficiului pentru IA cuprinde:
(a)  un consiliu de administrație, inclusiv un președinte;
(b)  un secretariat condus de un director executiv;
(c)  un forum consultativ.
Amendamentul 529
Propunere de regulament
Articolul 56 b (nou)
Articolul 56b
Atribuțiile Oficiului pentru IA
Oficiul pentru IA îndeplinește următoarele funcții:
(a)  sprijină, consiliază și cooperează cu statele membre, cu autoritățile naționale de supraveghere, cu Comisia și cu alte instituții, organe, oficii și agenții ale Uniunii în ceea ce privește punerea în aplicare a prezentului regulament;
(b)  monitorizează și asigură aplicarea efectivă și consecventă a prezentului regulament, fără a aduce atingere sarcinilor autorităților naționale de supraveghere;
(c)  contribuie la coordonarea dintre autoritățile naționale de supraveghere responsabile cu aplicarea prezentului regulament;
(d)  servește drept mediator în discuțiile cu privire la dezacordurile grave care pot apărea între autoritățile competente în ceea ce privește aplicarea regulamentului;
(e)  coordonează anchetele comune, în temeiul articolului 66a;
(f)  contribuie la cooperarea eficace cu autoritățile competente din țările terțe și cu organizațiile internaționale;
(g)  colectează și partajează expertiza și cele mai bune practici ale statelor membre și sprijină autoritățile naționale de supraveghere ale statelor membre și Comisia în dezvoltarea expertizei organizaționale și tehnice necesare pentru punerea în aplicare a prezentului regulament, inclusiv prin facilitarea creării și a menținerii unei rezerve de experți la nivelul Uniunii;
(h)  examinează, din proprie inițiativă sau la cererea consiliului său de administrație sau a Comisiei, chestiuni legate de punerea în aplicare a prezentului regulament și emite avize, recomandări sau contribuții scrise, inclusiv cu privire la:
(i)  specificațiile tehnice sau standardele existente; (ii) orientările Comisiei;
(iii)  codurile de conduită și aplicarea acestora, în strânsă cooperare cu sectorul și cu alte părți interesate relevante;
(iv)  posibila revizuire a regulamentului, pregătirea actelor delegate și posibilele alinieri ale prezentului regulament la actele juridice enumerate în anexa II;
(v)  tendințele, cum ar fi competitivitatea europeană la nivel mondial în domeniul inteligenței artificiale, adoptarea inteligenței artificiale în Uniune, dezvoltarea competențelor digitale și amenințările sistemice emergente legate de inteligența artificială;
(vi)  orientările privind modul în care prezentul regulament se aplică tipologiei în continuă evoluție a lanțurilor valorice ale IA, în special cu privire la implicațiile rezultate în ceea ce privește responsabilitatea tuturor entităților implicate;
(i)  emite:
(i)  un raport anual care include o evaluare a punerii în aplicare a prezentului regulament, o examinare a rapoartelor privind incidentele grave menționate la articolul 62 și funcționarea bazei de date menționate la articolul 60 și
(ii)  recomandări adresate Comisiei privind clasificarea practicilor interzise, a sistemelor de IA cu grad ridicat de risc menționate în anexa III, a codurilor de conduită menționate la articolul 69 și a aplicării principiilor generale prezentate la articolul 4a;
(j)  sprijină autoritățile în crearea și dezvoltarea de spații de testare în materie de reglementare și facilitează cooperarea între spațiile de testare în materie de reglementare;
(k)  organizează reuniuni cu agențiile și organismele de guvernanță ale Uniunii ale căror sarcini sunt legate de inteligența artificială și de punerea în aplicare a prezentului regulament;
(l)  organizează consultări trimestriale cu Forumul consultativ și, după caz, consultări publice cu alte părți interesate și publică rezultatele acestor consultări pe site-ul său web;
(m)  promovează acțiuni de sensibilizare și de înțelegere în rândul publicului a beneficiilor, riscurilor, garanțiilor și drepturilor și obligațiilor legate de utilizarea sistemelor de IA;
(n)  facilitează elaborarea unor criterii comune și a unei înțelegeri comune între operatorii de pe piață și autoritățile competente a conceptelor relevante prevăzute în prezentul regulament;
(o)  asigură monitorizarea modelelor de bază și organizează un dialog periodic cu dezvoltatorii de modele de bază cu privire la conformitatea acestora, precum și a sistemelor de IA care utilizează astfel de modele de IA;
(p)  oferă orientări interpretative cu privire la modul în care Legea privind IA se aplică tipologiei din ce în ce mai evolutive a lanțurilor valorice ale IA și care vor fi implicațiile rezultate în ceea ce privește responsabilitatea tuturor entităților implicate în diferitele scenarii bazate pe stadiul actual al tehnologiei general recunoscut, inclusiv astfel cum se reflectă în standardele armonizate relevante;
(q)  asigură o supraveghere și o monitorizare specifice și instituționalizează un dialog periodic cu furnizorii de modele de bază cu privire la conformitatea modelelor de bază și a sistemelor de IA care utilizează astfel de modele de IA cu articolul 28b din prezentul regulament, precum și cu privire la cele mai bune practici ale industriei pentru autoguvernanță. Orice astfel de reuniune este deschisă autorităților naționale de supraveghere, organismelor notificate și autorităților de supraveghere a pieței, care pot participa și contribui la ea;
(r)  emite și actualizează periodic orientări privind pragurile care califică antrenarea unui model de bază drept rulaj mare de antrenament, înregistrează și monitorizează cazurile cunoscute de rulaje mari de antrenament și publică un raport anual privind situația actuală a dezvoltării, proliferării și utilizării modelelor de bază, alături de opțiunile de politică pentru a aborda riscurile și oportunitățile specifice modelelor de bază;
(s)  promovează cunoștințele în domeniul IA în conformitate cu articolul 4b.
Amendamentul 530
Propunere de regulament
Articolul 56 c (nou)
Articolul 56c
Responsabilitate, independență și transparență
1.  Oficiul pentru IA:
(a)  este răspunzător în fața Parlamentului European și a Consiliului, în conformitate cu prezentul regulament;
(b)  acționează independent atunci când își îndeplinește sarcinile sau își exercită competențele și
(c)  asigură un nivel ridicat de transparență în ceea ce privește activitățile sale și dezvoltă bune practici administrative în această privință.
Regulamentul (CE) nr. 1049/2001 se aplică documentelor deținute de Oficiul pentru IA.
Amendamentul 531
Propunere de regulament
Articolul 57 a (nou) – secțiunea 2 – titlu
Titlu
SECȚIUNEA 2: Consiliul de administrație
Amendamentul 532
Propunere de regulament
Articolul 57 a (nou)
Articolul 57a
Componența Consiliului de administrație
1.  Consiliul de administrație este alcătuit din următorii membri:
(a)  câte un reprezentant al autorității naționale de supraveghere a fiecărui stat membru;
(b)  un reprezentant al Comisiei;
(c)  un reprezentant al Autorității Europene pentru Protecția Datelor (AEPD);
(d)  un reprezentant al Agenției Uniunii Europene pentru Securitate Cibernetică (ENISA);
(e)  un reprezentant al Agenției pentru Drepturi Fundamentale (FRA).
Fiecare reprezentant al unei autorități naționale de supraveghere dispune de un vot. Reprezentanții Comisiei, ai AEPD, ai ENISA și ai FRA nu au drept de vot. Pentru fiecare membru există un membru supleant. Numirea membrilor și a membrilor supleanți ai Consiliului de administrație ține seama de necesitatea echilibrului de gen. Membrii Consiliului de administrație și membrii supleanți ai acestora sunt făcuți publici.
2.  Membrii și membrii supleanți ai Consiliului de administrație nu trebuie să dețină poziții sau interese comerciale conflictuale cu privire la niciun subiect legat de aplicarea prezentului regulament.
3.  Normele privind reuniunile și votul Consiliului de administrație, precum și numirea și revocarea din funcție a directorului executiv sunt prevăzute în regulamentul de procedură menționat la articolul 57b litera (a).
Amendamentul 533
Propunere de regulament
Articolul 57 b (nou)
Articolul 57b
Funcțiile Consiliului de administrație
1.  Consiliul de administrație are următoarele sarcini:
(a)  ia decizii strategice cu privire la activitățile Oficiului pentru IA și adoptă regulamentul de procedură cu o majoritate de două treimi a membrilor săi;
(b)  pune în aplicare regulamentul său de procedură;
(c)  adoptă documentul unic de programare al Oficiului pentru IA, precum și raportul public anual, și le transmite pe amândouă Parlamentului European, Consiliului, Comisiei, cât și Curții de Conturi;
(d)  adoptă bugetul Oficiului pentru IA;
(e)  numește directorul executiv și, dacă este cazul, prelungește sau scurtează mandatul acestuia sau îl revocă din funcție;
(f)  decide cu privire la instituirea structurilor interne ale Oficiului pentru IA și, dacă este necesar, cu privire la modificarea structurilor interne necesare pentru îndeplinirea sarcinilor Oficiului pentru IA;
Amendamentul 534
Propunere de regulament
Articolul 57 c (nou)
Articolul 57c
Președinția Consiliului de administrație
1.  Consiliul de administrație alege un președinte și doi vicepreședinți din rândul membrilor săi cu drept de vot, cu majoritate simplă.
2.  Mandatul președintelui și al vicepreședinților este de patru ani. Mandatul președintelui și al vicepreședinților poate fi reînnoit o dată.
Amendamentul 535
Propunere de regulament
Articolul 57 – secțiunea 3 – titlu
Structura comitetului
Secretariatul
Amendamentul 536
Propunere de regulament
Articolul 57 – alineatul 1
1.  Comitetul este alcătuit din autoritățile naționale de supraveghere, care sunt reprezentate de șeful autorității respective sau de un înalt funcționar echivalent al acesteia, precum și din Autoritatea Europeană pentru Protecția Datelor. La reuniuni pot fi invitate și alte autorități naționale în cazul în care chestiunile discutate le privesc.
1.  Activitățile secretariatului sunt gestionate de un director executiv. Directorul executiv răspunde în fața Consiliului de administrație. Fără a aduce atingere competențelor Consiliului de administrație și ale instituțiilor Uniunii, directorul executiv nu solicită și nu acceptă instrucțiuni din partea vreunui guvern sau a altui organism.
Amendamentul 537
Propunere de regulament
Articolul 57 – alineatul 2
2.  Comitetul își adoptă regulamentul de procedură cu majoritatea simplă a membrilor săi, pe baza unei propuneri a Comisiei. Regulamentul de procedură conține, de asemenea, aspecte operaționale legate de executarea sarcinilor comitetului, astfel cum sunt enumerate la articolul 58. Comitetul poate înființa subgrupuri, după caz, în scopul examinării unor chestiuni specifice.
2.  Directorul executiv participă la audieri cu privire la orice aspect legat de activitățile Oficiului pentru IA și prezintă un raport cu privire la îndeplinirea atribuțiilor directorului executiv atunci când este invitat în acest sens de Parlamentul European sau de Consiliu.
Amendamentul 538
Propunere de regulament
Articolul 57 – alineatul 3
3.  Comitetul este prezidat de Comisie. Comisia convoacă reuniunile și stabilește ordinea de zi în conformitate cu sarcinile care revin comitetului în temeiul prezentului regulament și cu regulamentul său de procedură. Comisia furnizează sprijin administrativ și analitic pentru activitățile desfășurate de comitet în temeiul prezentului regulament.
3.  Directorul executiv reprezintă Oficiul pentru IA, inclusiv în forurile internaționale de cooperare în domeniul inteligenței artificiale;
Amendamentul 539
Propunere de regulament
Articolul 57 – alineatul 4
4.  Comitetul poate invita experți și observatori externi să participe la reuniunile sale și poate organiza schimburi cu părți terțe interesate ale căror rezultate să contribuie la activitățile sale, într-o măsură adecvată. În acest scop, Comisia poate facilita schimburile dintre comitet și alte organisme, oficii, agenții și grupuri consultative ale Uniunii.
4.  Secretariatul asigură Consiliului de administrație și Forumului consultativ sprijinul analitic, administrativ și logistic necesar pentru îndeplinirea sarcinilor Oficiului pentru IA, inclusiv prin:
(a)  punerea în aplicare a deciziilor, a programelor și a activităților adoptate de Consiliul de administrație;
(b)  pregătirea în fiecare an a proiectului de document unic de programare, a proiectului de buget, a raportului anual de activitate privind Oficiul pentru IA, a proiectelor de aviz și a proiectelor de poziții ale Oficiului pentru IA și prezentarea acestora Consiliului de administrație;
(c)  coordonarea cu forurile internaționale pentru cooperarea în materie de inteligență artificială;
Amendamentul 540
Propunere de regulament
Articolul 58 – secțiunea 4 – titlu
Sarcinile comitetului
Forumul consultativ
Amendamentul 541
Propunere de regulament
Articolul 58 – paragraful 1 – partea introductivă
Atunci când oferă consiliere și asistență Comisiei în contextul articolului 56 alineatul (2), comitetul, în special:
Forumul consultativ furnizează Oficiului pentru IA contribuții ale părților interesate în chestiuni legate de prezentul regulament, în special în ceea ce privește sarcinile prevăzute la articolul 56b litera (l).
Amendamentul 542
Propunere de regulament
Articolul 58 – paragraful 2 (nou)
Componența Forumului consultativ reprezintă o selecție echilibrată a părților interesate, inclusiv a sectorului, a întreprinderilor nou-înființate, a IMM-urilor, a societății civile, a partenerilor sociali și a mediului academic. Componența Forumului consultativ este echilibrată în raport cu interesele comerciale și necomerciale și, în cadrul categoriei intereselor comerciale, cu IMM-urile și alte întreprinderi.
Amendamentul 543
Propunere de regulament
Articolul 58 – paragraful 3 (nou)
Consiliul de administrație numește membrii Forumului consultativ în conformitate cu procedura de selecție stabilită în regulamentul de procedură al Oficiului pentru IA și ținând seama de nevoia de transparență și în conformitate cu criteriile prevăzute la alineatul (2);
Amendamentul 544
Propunere de regulament
Articolul 58 – paragraful 4 (nou)
Mandatul membrilor Forumului consultativ este de doi ani, care poate fi prelungit cu cel mult patru ani.
Amendamentul 545
Propunere de regulament
Articolul 58 – paragraful 5 (nou)
Comitetul European de Standardizare (CEN), Comitetul European de Standardizare în Electrotehnică (CENELEC) și Institutul European de Standardizare în Telecomunicații (ETSI) sunt membri permanenți ai Forumului consultativ. Centrul Comun de Cercetare este membru permanent, fără drept de vot.
Amendamentul 546
Propunere de regulament
Articolul 58 – paragraful 6 (nou)
Forumul consultativ își stabilește regulamentul de procedură. Acesta alege doi copreședinți dintre membrii săi, în conformitate cu criteriile stabilite la alineatul (2). Mandatul copreședinților este de doi ani, reînnoibil o singură dată.
Amendamentul 547
Propunere de regulament
Articolul 58 – paragraful 7 (nou)
Forumul consultativ organizează reuniuni de cel puțin patru ori pe an. Forumul consultativ poate invita experți și alte părți interesate la reuniunile sale. Directorul executiv poate participa, din oficiu, la reuniunile Forumului consultativ.
Amendamentul 548
Propunere de regulament
Articolul 58 – paragraful 8 (nou)
În îndeplinirea rolului său prevăzut la alineatul (1), Forumul consultativ poate elabora avize, recomandări și contribuții scrise.
Amendamentul 549
Propunere de regulament
Articolul 58 – paragraful 9 (nou)
Forumul consultativ poate institui subgrupuri permanente sau temporare, după caz, în scopul examinării unor chestiuni specifice legate de obiectivele prezentului regulament.
Amendamentul 550
Propunere de regulament
Articolul 58 – paragraful 10 (nou)
Forumul consultativ întocmește un raport anual al activităților sale. Raportul respectiv este pus la dispoziția publicului.
Amendamentul 551
Propunere de regulament
Articolul 58 a – secțiunea 5 – titlu
Autoritățile europene privind evaluarea comparativă
Amendamentul 552
Propunere de regulament
Articolul 58 a (nou)
Articolul 58a
Evaluarea comparativă
Autoritățile europene privind evaluarea comparativă menționate la articolul 15 alineatul (1a) și Oficiul pentru IA, în strânsă cooperare cu partenerii internaționali, elaborează în comun orientări și capacități eficiente din punctul de vedere al costurilor pentru a măsura și a compara aspectele sistemelor de IA și ale componentelor de IA, în special ale modelelor de bază relevante pentru conformitatea și asigurarea respectării prezentului regulament, pe baza tehnologiei de vârf general recunoscute, inclusiv astfel cum se reflectă în standardele armonizate relevante.
Amendamentul 553
Propunere de regulament
Articolul 59 – titlu
Desemnarea autorităților naționale competente
Desemnarea autorităților naționale de supraveghere
Amendamentul 554
Propunere de regulament
Articolul 59 – alineatul 1
1.  Fiecare stat membru instituie sau desemnează autorități naționale competente cu scopul de a asigura aplicarea și punerea în aplicare a prezentului regulament. Autoritățile naționale competente sunt organizate astfel încât să garanteze obiectivitatea și imparțialitatea activităților și sarcinilor lor.
1.  Fiecare stat membru desemnează o autoritate națională de supraveghere, care este organizată astfel încât să garanteze obiectivitatea și imparțialitatea activităților și sarcinilor sale până la ...[trei luni de la data intrării în vigoare a prezentului regulament].
Amendamentul 555
Propunere de regulament
Articolul 59 – alineatul 2
2.  Fiecare stat membru desemnează o autoritate națională de supraveghere din rândul autorităților naționale competente. Autoritatea națională de supraveghere acționează ca autoritate de notificare și autoritate de supraveghere a pieței, cu excepția cazului în care un stat membru are motive organizatorice și administrative pentru a desemna mai multe autorități.
2.  Autoritatea națională de supraveghere asigură aplicarea și punerea în aplicare a prezentului regulament. În ceea ce privește sistemele de IA cu grad ridicat de risc legate de produse cărora li se aplică actele juridice enumerate în anexa II, autoritățile competente desemnate în temeiul respectivelor acte juridice continuă să fie autoritățile principale în ceea ce privește procedurile administrative. Cu toate acestea, în măsura în care un caz implică aspecte reglementate exclusiv de prezentul regulament, autoritățile competente respective sunt obligate să respecte măsurile legate de aspectele emise de autoritatea națională de supraveghere desemnată în temeiul prezentului regulament. Autoritatea națională de supraveghere acționează ca autoritate de supraveghere a pieței.
Amendamentul 556
Propunere de regulament
Articolul 59 – alineatul 3
3.  Statele membre informează Comisia cu privire la desemnarea sau desemnările lor și, după caz, cu privire la motivele desemnării mai multor autorități.
3.  Statele membre publică și comunică Oficiului pentru IA și Comisiei autoritatea națională de supraveghere, precum și datele de contact ale acesteia, până la… [trei luni de la data intrării în vigoare a prezentului regulament]. Autoritatea națională de supraveghere acționează ca punct unic de contact pentru prezentul regulament și ar trebui să poată fi contactată prin mijloace de comunicații electronice.
Amendamentul 557
Propunere de regulament
Articolul 59 – alineatul 4
4.  Statele membre se asigură că autoritățile naționale competente dispun de resurse financiare și umane adecvate pentru a-și îndeplini sarcinile care le revin în temeiul prezentului regulament. În special, autoritățile naționale competente dispun în permanență de un personal suficient ale cărui competențe și expertiză includ o înțelegere aprofundată a tehnologiilor din domeniul inteligenței artificiale, a datelor și a calculului de date, a drepturilor fundamentale, a riscurilor în materie de sănătate și siguranță, precum și cunoașterea standardelor și a cerințelor legale existente.
4.  Statele membre se asigură că autoritatea națională de supraveghere dispune de resurse tehnice, financiare și umane adecvate și de infrastructura necesară pentru a-și îndeplini eficient sarcinile care îi revin în temeiul prezentului regulament. În special, autoritatea națională de supraveghere dispune în permanență de un personal suficient ale cărui competențe și expertiză includ o înțelegere aprofundată a tehnologiilor din domeniul inteligenței artificiale, a datelor și a calculului de date, a protecției datelor cu caracter personal, a securității cibernetice, a dreptului în materie de concurență, a drepturilor fundamentale, a riscurilor în materie de sănătate și siguranță, precum și cunoașterea standardelor și a cerințelor legale existente. Statele membre evaluează și, dacă se consideră necesar, actualizează anual competențele și resursele necesare menționate la prezentul alineat.
Amendamentul 558
Propunere de regulament
Articolul 59 – alineatul 4 a (nou)
4a.  Fiecare autoritate de supraveghere își exercită competențele și își îndeplinește sarcinile în mod independent, imparțial și nepărtinitor. Membrii fiecărei autorități naționale de supraveghere, în îndeplinirea sarcinilor lor și în exercitarea competențelor care le revin în temeiul prezentului regulament, nu solicită și nici nu acceptă instrucțiuni din partea niciunui organism și se abțin de la orice acțiune incompatibilă cu atribuțiile lor.
Amendamentul 559
Propunere de regulament
Articolul 59 – alineatul 4 b (nou)
4b.  Autoritățile naționale de supraveghere îndeplinesc cerințele minime de securitate cibernetică stabilite pentru entitățile administrației publice identificate ca operatori de servicii esențiale în temeiul Directivei (UE) 2022/2555.
Amendamentul 560
Propunere de regulament
Articolul 59 – alineatul 4 c (nou)
4c.  Atunci când își îndeplinește sarcinile, autoritatea națională de supraveghere acționează în conformitate cu obligațiile de confidențialitate prevăzute la articolul 70.
Amendamentul 561
Propunere de regulament
Articolul 59 – alineatul 5
5.  Statele membre raportează anual Comisiei cu privire la situația resurselor financiare și umane ale autorităților naționale competente, evaluând gradul lor de adecvare. Comisia transmite aceste informații comitetului pentru a fi discutate și pentru a formula eventuale recomandări.
5.  Statele membre raportează anual Comisiei cu privire la situația resurselor financiare și umane ale autorității naționale de supraveghere, evaluând gradul lor de adecvare. Comisia transmite aceste informații Oficiului pentru IA pentru a fi discutate și pentru a formula eventuale recomandări.
Amendamentul 562
Propunere de regulament
Articolul 59 – alineatul 6
6.  Comisia facilitează schimbul de experiență între autoritățile naționale competente.
eliminat
Amendamentul 563
Propunere de regulament
Articolul 59 – alineatul 7
7.  Autoritățile naționale competente pot oferi orientări și consiliere cu privire la punerea în aplicare a prezentului regulament, inclusiv micilor furnizori. Ori de câte ori autoritățile naționale competente intenționează să ofere orientări și consiliere cu privire la un sistem de IA în domenii reglementate de alte acte legislative ale Uniunii, autoritățile naționale competente în temeiul legislației respective a Uniunii sunt consultate, după caz. Statele membre pot stabili, de asemenea, un punct central de contact pentru comunicarea cu operatorii.
7.  Autoritățile naționale de supraveghere pot oferi orientări și consiliere cu privire la punerea în aplicare a prezentului regulament, inclusiv IMM-urilor și întreprinderilor nou-înființate, luând în considerare orientările și recomandările Oficiului pentru IA sau ale Comisiei. Ori de câte ori autoritatea națională de supraveghere intenționează să ofere orientări și consiliere cu privire la un sistem de IA în domenii reglementate de alte acte legislative ale Uniunii, se elaborează orientări în consultare cu autoritățile naționale competente, în temeiul legislației respective a Uniunii, după caz.
Amendamentul 564
Propunere de regulament
Articolul 59 – alineatul 8
8.  Atunci când instituțiile, agențiile și organele Uniunii intră în domeniul de aplicare al prezentului regulament, Autoritatea Europeană pentru Protecția Datelor acționează ca autoritate competentă pentru supravegherea lor.
8.  Atunci când instituțiile, agențiile și organele Uniunii intră în domeniul de aplicare al prezentului regulament, Autoritatea Europeană pentru Protecția Datelor acționează ca autoritate competentă pentru supravegherea și coordonarea lor.
Amendamentul 565
Propunere de regulament
Articolul 59 a (nou)
Articolul 59a
Mecanismul de cooperare între autoritățile naționale de supraveghere în cazurile care implică două sau mai multe state membre
1.  Fiecare autoritate națională competentă își îndeplinește sarcinile atribuite și exercită competențele conferite în concordanță cu prezentul regulament pe teritoriul statului membru de care aparține.
2.  Într-un caz care implică două sau mai multe autorități naționale de supraveghere, autoritatea națională de supraveghere din statul membru în care a avut loc încălcarea este considerată a fi autoritatea de supraveghere principală.
3.  În cazurile de tipul celor menționate la alineatul (2), autoritățile de supraveghere de resort cooperează și își transmit reciproc toate informațiile relevante în timp util. Autoritățile naționale de supraveghere cooperează pentru a ajunge la un consens.
Amendamentul 566
Propunere de regulament
Titlul VII
VII BAZA DE DATE A UE PENTRU SISTEME AUTONOME DE IA CU GRAD RIDICAT DE RISC
BAZA DE DATE A UE PENTRU SISTEME DE IA CU GRAD RIDICAT DE RISC
Amendamentul 567
Propunere de regulament
Articolul 60 – titlu
Baza de date a UE pentru sisteme autonome de IA cu grad ridicat de risc
Baza de date a UE pentru sisteme de IA cu grad ridicat de risc
Amendamentul 568
Propunere de regulament
Articolul 60 – alineatul 1
1.  Comisia, în colaborare cu statele membre, creează și întreține o bază de date a UE care conține informațiile menționate la alineatul (2) privind sistemele de IA cu grad ridicat de risc menționate la articolul 6 alineatul (2) care sunt înregistrate în conformitate cu articolul 51.
1.  Comisia, în colaborare cu statele membre, creează și întreține o bază de date publică a UE care conține informațiile menționate la alineatele (2) și (2a) privind sistemele de IA cu grad ridicat de risc menționate la articolul 6 alineatul (2) care sunt înregistrate în conformitate cu articolul 51.
Amendamentul 569
Propunere de regulament
Articolul 60 – alineatul 2
2.  Datele enumerate în anexa VIII se introduc în baza de date a UE de către furnizori. Comisia le furnizează acestora sprijin tehnic și administrativ.
2.  Datele enumerate în secțiunea A din anexa VIII se introduc în baza de date a UE de către furnizori.
Amendamentul 570
Propunere de regulament
Articolul 60 – alineatul 2 a (nou)
2a.  Datele enumerate în secțiunea B din anexa VIII se introduc în baza de date a UE de către operatorii care sunt autorități publice sau instituții, organe, oficii sau agenții ale Uniunii sau acționează în numele lor și de către operatorii care sunt întreprinderi menționate la articolul 51 alineatele (1a) și (1b).
Amendamentul 571
Propunere de regulament
Articolul 60 – alineatul 3
3.  Informațiile conținute în baza de date a UE sunt accesibile publicului.
3.  Informațiile conținute în baza de date a UE sunt puse gratuit la dispoziția publicului, sunt ușor de utilizat și accesibile, ușor de navigat și pot fi citite automat, conținând date digitale structurate, bazate pe un protocol standardizat.
Amendamentul 572
Propunere de regulament
Articolul 60 – alineatul 4
4.  Baza de date a UE conține date cu caracter personal numai în măsura în care acest lucru este necesar pentru colectarea și prelucrarea informațiilor în conformitate cu prezentul regulament. Aceste informații includ numele și datele de contact ale persoanelor fizice responsabile cu înregistrarea sistemului și care au autoritatea legală de a-l reprezenta pe furnizor.
4.  Baza de date a UE conține date cu caracter personal numai în măsura în care acest lucru este necesar pentru colectarea și prelucrarea informațiilor în conformitate cu prezentul regulament. Aceste informații includ numele și datele de contact ale persoanelor fizice responsabile cu înregistrarea sistemului și care au autoritatea legală de a-l reprezenta pe furnizor sau pe operatorul care este o autoritate publică sau o instituție, un organ, un oficiu sau o agenție a Uniunii sau un operator care acționează în numele acestora sau un operator care este o întreprindere menționată la articolul 51 alineatul (1a) litera (b) și la alineatul (1b).
Amendamentul 573
Propunere de regulament
Articolul 60 – alineatul 5
5.  Comisia este operatorul bazei de date a UE. Totodată, aceasta asigură furnizorilor sprijin tehnic și administrativ adecvat.
5.  Comisia este operatorul bazei de date a UE. Totodată, aceasta asigură furnizorilor și operatorilor sprijin tehnic și administrativ adecvat.
Baza de date îndeplinește cerințele de accesibilitate prevăzute în anexa I la Directiva (UE) 2019/882.
Amendamentul 574
Propunere de regulament
Articolul 61 – alineatul 2
2.  Sistemul de monitorizare ulterioară introducerii pe piață colectează, documentează și analizează în mod activ și sistematic datele relevante furnizate de utilizatori sau colectate din alte surse cu privire la performanța sistemelor de IA cu grad ridicat de risc pe toată durata lor de viață și permite furnizorului să evalueze conformitatea continuă a sistemelor de IA cu cerințele prevăzute în titlul III capitolul 2.
2.  Sistemul de monitorizare ulterioară introducerii pe piață colectează, documentează și analizează în mod activ și sistematic datele relevante furnizate de operatori sau colectate din alte surse cu privire la performanța sistemelor de IA cu grad ridicat de risc pe toată durata lor de viață și permite furnizorului să evalueze conformitatea continuă a sistemelor de IA cu cerințele prevăzute în titlul III capitolul 2. După caz, monitorizarea ulterioară introducerii pe piață include o analiză a interacțiunii cu alte sisteme de IA, inclusiv cu alte dispozitive și software, ținând seama de normele aplicabile din domenii precum protecția datelor, drepturile de proprietate intelectuală și dreptul concurenței.
Amendamentul 575
Propunere de regulament
Articolul 61 – alineatul 3
3.  Sistemul de monitorizare ulterioară introducerii pe piață se bazează pe un plan de monitorizare ulterioară introducerii pe piață. Planul de monitorizare ulterioară introducerii pe piață face parte din documentația tehnică menționată în anexa IV. Comisia adoptă un act de punere în aplicare prin care stabilește dispoziții detaliate de instituire a unui model pentru planul de monitorizare ulterioară introducerii pe piață și a listei elementelor care trebuie incluse în plan.
3.  Sistemul de monitorizare ulterioară introducerii pe piață se bazează pe un plan de monitorizare ulterioară introducerii pe piață. Planul de monitorizare ulterioară introducerii pe piață face parte din documentația tehnică menționată în anexa IV. Comisia adoptă un act de punere în aplicare prin care stabilește dispoziții detaliate de instituire a unui model pentru planul de monitorizare ulterioară introducerii pe piață și a listei elementelor care trebuie incluse în plan până la [12 luni de la data intrării în vigoare a prezentului regulament].
Amendamentul 576
Propunere de regulament
Articolul 62 – titlu
Raportarea incidentelor grave și a funcționării defectuoase
Raportarea incidentelor grave
Amendamentul 577
Propunere de regulament
Articolul 62 – alineatul 1 – partea introductivă
1.  Furnizorii de sisteme de IA cu grad ridicat de risc introduse pe piața Uniunii raportează autorităților de supraveghere a pieței din statele membre în care s-a produs incidentul grav sau încălcarea respectivă orice incident grav sau orice funcționare defectuoasă a sistemelor respective, care constituie o încălcare a obligațiilor în temeiul dreptului Uniunii menite să protejeze drepturile fundamentale.
1.  Furnizorii și, în cazul în care operatorii au identificat un incident grav, operatorii de sisteme de IA cu grad ridicat de risc introduse pe piața Uniunii raportează autorității naționale de supraveghere din statele membre în care s-a produs incidentul grav sau încălcarea respectivă orice incident grav al sistemelor respective, care constituie o încălcare a obligațiilor în temeiul dreptului Uniunii menite să protejeze drepturile fundamentale.
Amendamentul 578
Propunere de regulament
Articolul 62 – alineatul 1 – paragraful 1
O astfel de notificare se efectuează imediat după ce furnizorul a stabilit o legătură de cauzalitate între sistemul de IA și incident sau funcționarea defectuoasă sau probabilitatea rezonabilă a unei astfel de legături și, în orice caz, nu mai târziu de 15 zile de la data la care furnizorii au luat cunoștință de incidentul grav sau de funcționarea defectuoasă.
O astfel de notificare se efectuează fără întârzieri nejustificate după ce furnizorul sau, după caz, operatorul a stabilit o legătură de cauzalitate între sistemul de IA și incident sau probabilitatea rezonabilă a unei astfel de legături și, în orice caz, nu mai târziu de 72 de ore de la data la care furnizorul sau, după caz, operatorul a luat cunoștință de incidentul grav.
Amendamentul 579
Propunere de regulament
Articolul 62 – alineatul 1 a (nou)
1a.  După ce se stabilește o legătură de cauzalitate între sistemul de IA și incidentul grav sau probabilitatea rezonabilă să existe o astfel de legătură, furnizorii iau măsurile corective adecvate în temeiul articolului 21.
Amendamentul 580
Propunere de regulament
Articolul 62 – alineatul 2
2.  La primirea unei notificări referitoare la o încălcare a obligațiilor instituite în temeiul dreptului Uniunii menite să protejeze drepturile fundamentale, autoritatea de supraveghere a pieței informează autoritățile sau organismele publice naționale menționate la articolul 64 alineatul (3). Comisia elaborează orientări specifice pentru a facilita respectarea obligațiilor prevăzute la alineatul (1). Orientările respective se emit în termen de cel mult 12 luni de la intrarea în vigoare a prezentului regulament.
2.  La primirea unei notificări referitoare la o încălcare a obligațiilor instituite în temeiul dreptului Uniunii menite să protejeze drepturile fundamentale, autoritatea națională de supraveghere informează autoritățile sau organismele publice naționale menționate la articolul 64 alineatul (3). Comisia elaborează orientări specifice pentru a facilita respectarea obligațiilor prevăzute la alineatul (1). Orientările respective se emit până la [intrarea în vigoare a prezentului regulament] și sunt evaluate periodic.
Amendamentul 581
Propunere de regulament
Articolul 62 – alineatul 2 a (nou)
2a.  Autoritățile naționale de supraveghere iau măsurile corespunzătoare în termen de 7 zile de la data la care au primit notificarea menționată la alineatul (1). În cazul în care încălcarea are loc sau este probabil să aibă loc în alt stat membru, autoritatea națională de supraveghere informează Oficiul pentru IA și autoritățile naționale de supraveghere relevante din aceste state membre.
Amendamentul 582
Propunere de regulament
Articolul 62 – alineatul 3
3.  În cazul sistemelor de IA cu grad ridicat de risc menționate la punctul 5 litera (b) din anexa III care sunt introduse pe piață sau puse în funcțiune de furnizori care sunt instituții de credit reglementate de Directiva 2013/36/UE și pentru sistemele de IA cu grad ridicat de risc care sunt componente de siguranță ale dispozitivelor sau sunt ele însele dispozitive care fac obiectul Regulamentului (UE) 2017/745 și al Regulamentului (UE) 2017/746, notificarea incidentelor grave sau a funcționării defectuoase se limitează la cele care constituie o încălcare a obligațiilor în temeiul dreptului Uniunii menite să protejeze drepturile fundamentale.
3.  În cazul sistemelor de IA cu grad ridicat de risc menționate în anexa III care sunt introduse pe piață sau puse în funcțiune de furnizori care fac obiectul instrumentelor legislative ale Uniunii care stabilesc obligații de raportare echivalente cu cele prevăzute în prezentul regulament, notificarea incidentelor grave care constituie o încălcare a drepturilor fundamentale în temeiul dreptului Uniunii se transferă autorității naționale de supraveghere.
Amendamentul 583
Propunere de regulament
Articolul 62 – alineatul 3 a (nou)
3a.  Autoritățile naționale de supraveghere notifică anual Oficiului pentru IA incidentele grave care le-au fost raportate în conformitate cu prezentul articol.
Amendamentul 584
Propunere de regulament
Articolul 63 – alineatul 1 – partea introductivă
1.  Regulamentul (UE) 2019/1020 se aplică sistemelor de IA care intră sub incidența prezentului regulament. Cu toate acestea, în scopul aplicării efective a prezentului regulament:
1.  Regulamentul (UE) 2019/1020 se aplică sistemelor de IA și modelelor de bază care intră sub incidența prezentului regulament. Cu toate acestea, în scopul aplicării efective a prezentului regulament:
Amendamentul 585
Propunere de regulament
Articolul 63 – alineatul 1 – litera ba (nouă)
(ba)  autoritățile naționale de supraveghere acționează în calitate de autorități de supraveghere a pieței în temeiul prezentului regulament și au aceleași competențe și obligații ca autoritățile de supraveghere a pieței în temeiul Regulamentului (UE) 2019/1020.
Amendamentul 586
Propunere de regulament
Articolul 63 – alineatul 2
2.  Autoritatea națională de supraveghere raportează periodic Comisiei rezultatele activităților relevante de supraveghere a pieței. Autoritatea națională de supraveghere raportează fără întârziere Comisiei și autorităților naționale de concurență relevante toate informațiile identificate în cursul activităților de supraveghere a pieței care ar putea prezenta un potențial interes pentru aplicarea dreptului Uniunii privind normele în materie de concurență.
2.  Autoritatea națională de supraveghere raportează anual Comisiei și Oficiului pentru IA rezultatele activităților relevante de supraveghere a pieței. Autoritatea națională de supraveghere raportează fără întârziere Comisiei și autorităților naționale de concurență relevante toate informațiile identificate în cursul activităților de supraveghere a pieței care ar putea prezenta un potențial interes pentru aplicarea dreptului Uniunii privind normele în materie de concurență.
Amendamentul 587
Propunere de regulament
Articolul 63 – alineatul 3 a (nou)
3a.  În scopul asigurării aplicării efective a prezentului regulament, autoritățile naționale de supraveghere pot:
(a)  să efectueze inspecții neanunțate la fața locului și de la distanță ale sistemelor de IA cu grad ridicat de risc;
(b)  să obțină eșantioane legate de sistemele de IA cu grad ridicat de risc, inclusiv prin inspecții de la distanță, să reproducă prin inginerie inversă sistemele de IA și să obțină dovezi pentru a identifica cazurile de neconformitate.
Amendamentul 588
Propunere de regulament
Articolul 63 – alineatul 5
5.  Pentru sistemele de IA enumerate la alineatul 1 litera (a), în măsura în care sistemele sunt utilizate în scopul asigurării respectării legii, precum și la punctele 6 și 7 din anexa III, statele membre desemnează drept autorități de supraveghere a pieței în sensul prezentului regulament fie autoritățile de supraveghere în materie de protecție a datelor competente în temeiul Directivei (UE) 2016/680 sau al Regulamentului 2016/679, fie autoritățile naționale competente care supraveghează activitățile autorităților de aplicare a legii, de imigrație sau de azil ce pun în funcțiune sau utilizează sistemele respective.
5.  Pentru sistemele de IA care sunt utilizate în scopul asigurării respectării legii, statele membre desemnează drept autorități de supraveghere a pieței în sensul prezentului regulament autoritățile de supraveghere în materie de protecție a datelor competente în temeiul Directivei (UE) 2016/680.
Amendamentul 589
Propunere de regulament
Articolul 63 – alineatul 7
7.  Statele membre facilitează coordonarea dintre autoritățile de supraveghere a pieței desemnate în temeiul prezentului regulament și alte autorități sau organisme naționale relevante care supraveghează aplicarea legislației de armonizare a Uniunii enumerate în anexa II sau a altor acte legislative ale Uniunii care ar putea fi relevante pentru sistemele de IA cu grad ridicat de risc menționate în anexa III.
7.  Autoritățile naționale de supraveghere desemnate în temeiul prezentului regulament se coordonează cu alte autorități sau organisme naționale relevante care supraveghează aplicarea legislației de armonizare a Uniunii enumerate în anexa II sau a altor acte legislative ale Uniunii care ar putea fi relevante pentru sistemele de IA cu grad ridicat de risc menționate în anexa III.
Amendamentul 590
Propunere de regulament
Articolul 64 – alineatul 1
1.  În ceea ce privește accesul la date și la documentație în contextul activităților lor, autorităților de supraveghere a pieței li se acordă acces deplin la seturile de date de antrenament, de validare și de testare utilizate de furnizor, inclusiv prin interfețe de programare a aplicațiilor („IPA”) sau prin alte mijloace și instrumente adecvate care permit accesul de la distanță.
1.  În contextul activităților sale și la cererea motivată a acesteia, autorității naționale de supraveghere i se acordă acces deplin la seturile de date de antrenament, de validare și de testare utilizate de furnizor sau, după caz, de operator, care sunt relevante și strict necesare în scopul solicitării sale, prin mijloace și instrumente tehnice adecvate.
Amendamentul 591
Propunere de regulament
Articolul 64 – alineatul 2
2.  În cazul în care este necesar pentru a evalua conformitatea sistemului de IA cu grad ridicat de risc cu cerințele prevăzute în capitolul 2 titlul III și în urma unei cereri motivate, autorităților de supraveghere a pieței li se acordă, de asemenea, acces la codul sursă al sistemului de IA.
2.  În cazul în care este necesar pentru a evalua conformitatea sistemului de IA cu grad ridicat de risc cu cerințele prevăzute în capitolul 2 titlul III, după ce toate celelalte modalități rezonabile de verificare a conformității au fost epuizate, inclusiv cele de la alineatul (1) ori s-au dovedit a fi insuficiente și în urma unei cereri motivate, autorității naționale de supraveghere i se acordă acces la modelele de antrenament sau modelele antrenate ale sistemului de IA, inclusiv la parametrii relevanți ai modelului. Toate informațiile obținute în conformitate cu articolul 70 sunt tratate ca informații confidențiale și fac obiectul legislației în vigoare a Uniunii privind protecția proprietății intelectuale și secretelor comerciale și sunt șterse la încheierea investigației pentru care au fost solicitate informațiile.
Amendamentul 592
Propunere de regulament
Articolul 64 – alineatul 2 a (nou)
2a.  Alineatele (1) și (2) nu aduc atingere drepturilor procedurale ale operatorului în cauză în conformitate cu articolul 18 din Regulamentul (UE) 2019/1020.
Amendamentul 593
Propunere de regulament
Articolul 64 – alineatul 3
3.  Autoritățile sau organismele publice naționale care supraveghează sau asigură respectarea obligațiilor în temeiul dreptului Uniunii care protejează drepturile fundamentale în ceea ce privește utilizarea sistemelor de IA cu grad ridicat de risc menționate în anexa III au competența de a solicita și de a accesa orice documentație creată sau păstrată în temeiul prezentului regulament atunci când accesul la documentația respectivă este necesar pentru îndeplinirea competențelor care le revin în temeiul mandatului lor, în limitele jurisdicției lor. Autoritatea sau organismul public relevant informează autoritatea de supraveghere a pieței din statul membru în cauză cu privire la orice astfel de cerere.
3.  Autoritățile sau organismele publice naționale care supraveghează sau asigură respectarea obligațiilor în temeiul dreptului Uniunii care protejează drepturile fundamentale în ceea ce privește utilizarea sistemelor de IA cu grad ridicat de risc menționate în anexa III au competența de a solicita și de a accesa orice documentație creată sau păstrată în temeiul prezentului regulament atunci când accesul la documentația respectivă este necesar pentru îndeplinirea competențelor care le revin în temeiul mandatului lor, în limitele jurisdicției lor. Autoritatea sau organismul public relevant informează autoritatea națională de supraveghere din statul membru în cauză cu privire la orice astfel de cerere.
Amendamentul 594
Propunere de regulament
Articolul 64 – alineatul 4
4.  În termen de 3 luni de la intrarea în vigoare a prezentului regulament, fiecare stat membru identifică autoritățile sau organismele publice menționate la alineatul (3) și pune la dispoziția publicului o listă pe site-ul web al autorității naționale de supraveghere. Statele membre notifică lista Comisiei și tuturor celorlalte state membre și o actualizează.
4.  În termen de 3 luni de la intrarea în vigoare a prezentului regulament, fiecare stat membru identifică autoritățile sau organismele publice menționate la alineatul (3) și pune la dispoziția publicului o listă pe site-ul web al autorității naționale de supraveghere. Autoritățile naționale de supraveghere notifică lista Comisiei, Oficiului pentru IA și tuturor celorlalte autorități naționale de supraveghere și o actualizează. Comisia publică pe un site web special lista tuturor autorităților competente desemnate de statele membre în conformitate cu prezentul articol.
Amendamentul 595
Propunere de regulament
Articolul 64 – alineatul 5
5.  În cazul în care documentația menționată la alineatul (3) este insuficientă pentru a stabili dacă a avut loc sau nu o încălcare a obligațiilor prevăzute de dreptul Uniunii menite să protejeze drepturile fundamentale, autoritatea sau organismul public menționat la alineatul (3) poate adresa autorității de supraveghere a pieței o cerere motivată de organizare a testării sistemului de IA cu grad ridicat de risc prin mijloace tehnice. Autoritatea de supraveghere a pieței organizează testarea implicând îndeaproape autoritatea sau organismul public solicitant, într-un termen rezonabil de la primirea cererii.
5.  În cazul în care documentația menționată la alineatul (3) este insuficientă pentru a stabili dacă a avut loc sau nu o încălcare a obligațiilor prevăzute de dreptul Uniunii menite să protejeze drepturile fundamentale, autoritatea sau organismul public menționat la alineatul (3) poate adresa autorității naționale de supraveghere o cerere motivată de organizare a testării sistemului de IA cu grad ridicat de risc prin mijloace tehnice. Autoritatea națională de supraveghere organizează testarea implicând îndeaproape autoritatea sau organismul public solicitant, într-un termen rezonabil de la primirea cererii.
Amendamentul 596
Propunere de regulament
Articolul 65 – alineatul 1
1.  Prin sisteme de IA care prezintă un risc se înțelege un produs ce prezintă un risc definit la articolul 3 punctul 19 din Regulamentul (UE) 2019/1020 în ceea ce privește riscurile pentru sănătate sau siguranță sau pentru protecția drepturilor fundamentale ale persoanelor.
1.  Prin sisteme de IA care prezintă un risc se înțelege sisteme de IA care au potențialul de a afecta în mod negativ sănătatea și siguranța, drepturile fundamentale ale persoanelor în general, inclusiv la locul de muncă, protecția consumatorilor, mediul, securitatea publică, democrația sau statul de drept și alte interese publice, care sunt protejate de legislația aplicabilă de armonizare a Uniunii, într-o măsură care depășește ceea ce este considerat rezonabil și acceptabil în raport cu scopul lor preconizat sau în condiții normale sau previzibile în mod rezonabil de utilizare a sistemelor în cauză, care includ durata de utilizare și, după caz, punerea în funcțiune, instalarea și cerințele de întreținere.
Amendamentul 597
Propunere de regulament
Articolul 65 – alineatul 2 – partea introductivă
2.  În cazul în care autoritatea de supraveghere a pieței dintr-un stat membru are suficiente motive să considere că un sistem de IA prezintă un risc astfel cum se menționează la alineatul (1), aceasta efectuează o evaluare a sistemului de IA în cauză din punctul de vedere al conformității sale cu toate cerințele și obligațiile prevăzute în prezentul regulament. Atunci când există riscuri pentru protecția drepturilor fundamentale, autoritatea de supraveghere a pieței informează, de asemenea, autoritățile sau organismele publice naționale relevante menționate la articolul 64 alineatul (3). Operatorii relevanți cooperează, după caz, cu autoritățile de supraveghere a pieței și cu celelalte autorități sau organisme publice naționale menționate la articolul 64 alineatul (3).
2.  În cazul în care autoritatea națională de supraveghere dintr-un stat membru are suficiente motive să considere că un sistem de IA prezintă un risc astfel cum se menționează la alineatul (1), aceasta efectuează o evaluare a sistemului de IA în cauză din punctul de vedere al conformității sale cu toate cerințele și obligațiile prevăzute în prezentul regulament. Atunci când există riscuri pentru protecția drepturilor fundamentale, autoritatea națională de supraveghere informează imediat și autoritățile sau organismele publice naționale de resort menționate la articolul 64 alineatul (3) și cooperează fără rezerve cu ele; În cazul în care există motive suficiente să se considere că un sistem de IA exploatează vulnerabilitățile grupurilor vulnerabile sau le încalcă drepturile în mod intenționat sau neintenționat, autoritatea națională de supraveghere are datoria de a investiga obiectivele de proiectare, datele de intrare, selecția modelului, implementarea și rezultatele sistemului de IA. Operatorii relevanți cooperează, după caz, cu autoritatea națională de supraveghere și cu celelalte autorități sau organisme publice naționale menționate la articolul 64 alineatul (3);
Amendamentul 598
Propunere de regulament
Articolul 65 – alineatul 2 – paragraful 1
În cazul în care, pe parcursul evaluării respective, autoritatea de supraveghere a pieței constată că sistemul de IA nu respectă cerințele și obligațiile prevăzute în prezentul regulament, aceasta solicită de îndată operatorului relevant să ia toate măsurile corective adecvate pentru a asigura conformitatea sistemului de IA, pentru a retrage sistemul de IA de pe piață sau pentru a-l rechema într-un termen rezonabil, proporțional cu natura riscului, indicat de aceasta.
În cazul în care, pe parcursul evaluării respective, autoritatea națională de supraveghere sau, după caz, autoritatea publică națională menționată la articolul 64 alineatul (3) constată că sistemul de IA nu respectă cerințele și obligațiile prevăzute în prezentul regulament, aceasta solicită de îndată operatorului relevant să ia toate măsurile corective adecvate pentru a asigura conformitatea sistemului de IA, pentru a retrage sistemul de IA de pe piață sau pentru a-l rechema într-un termen rezonabil, proporțional cu natura riscului, indicat de aceasta și, în orice caz, nu mai târziu de 15 zile lucrătoare sau astfel cum se prevede în legislația relevantă de armonizare a Uniunii, după caz.
Amendamentul 599
Propunere de regulament
Articolul 65 – alineatul 2 – paragraful 2
Autoritățile de supraveghere a pieței informează organismul notificat relevant în consecință. Articolul 18 din Regulamentul (UE) 2019/1020 se aplică măsurilor menționate la al doilea paragraf.
Autoritatea națională de supraveghere informează organismul notificat relevant în consecință. Articolul 18 din Regulamentul (UE) 2019/1020 se aplică măsurilor menționate la al doilea paragraf.
Amendamentul 600
Propunere de regulament
Articolul 65 – alineatul 3
3.  În cazul în care autoritatea de supraveghere a pieței consideră că neconformitatea nu se limitează la teritoriul său național, informează Comisia și celelalte state membre cu privire la rezultatele evaluării și la măsurile pe care le-a impus operatorului.
3.  În cazul în care autoritatea națională de supraveghere consideră că neconformitatea nu se limitează la teritoriul său național, informează fără întârzieri nejustificate Comisia, Oficiul pentru IA și autoritatea națională de supraveghere din celelalte state membre cu privire la rezultatele evaluării și la măsurile pe care le-a impus operatorului.
Amendamentul 601
Propunere de regulament
Articolul 65 – alineatul 5
5.  În cazul în care operatorul unui sistem de IA nu întreprinde acțiunile corective adecvate în termenul menționat la alineatul (2), autoritatea de supraveghere a pieței ia toate măsurile provizorii corespunzătoare pentru a interzice sau a restricționa punerea la dispoziție a sistemului de IA pe piața sa națională, pentru a retrage produsul de pe piață sau pentru a-l rechema. Autoritatea respectivă informează Comisia și celelalte state membre, fără întârziere, cu privire la măsurile respective.
5.  În cazul în care operatorul unui sistem de IA nu întreprinde acțiunile corective adecvate în termenul menționat la alineatul (2), autoritatea națională de supraveghere ia toate măsurile provizorii corespunzătoare pentru a interzice sau a restricționa punerea la dispoziție sau în funcțiune a sistemului de IA pe piața sa națională, pentru a retrage sistemul de IA de pe piață sau pentru a-l rechema. Autoritatea respectivă informează imediat Comisia, Oficiul pentru IA și autoritatea națională de supraveghere din celelalte state membre cu privire la măsurile respective.
Amendamentul 602
Propunere de regulament
Articolul 65 – alineatul 6 – partea introductivă
6.  Informațiile menționate la alineatul (5) includ toate detaliile disponibile, în special cu privire la datele necesare pentru a identifica sistemul de IA neconform, originea sistemului de IA, natura neconformității invocate și riscul implicat, natura și durata măsurilor naționale luate, precum și argumentele prezentate de operatorul respectiv. În special, autoritățile de supraveghere a pieței indică dacă neconformitatea se datorează unuia sau mai multora dintre următoarele motive:
6.  Informațiile menționate la alineatul (5) includ toate detaliile disponibile, în special cu privire la datele necesare pentru a identifica sistemul de IA neconform, originea sistemului de IA și rețeaua de distribuție, natura neconformității invocate și riscul implicat, natura și durata măsurilor naționale luate, precum și argumentele prezentate de operatorul respectiv. În special, autoritatea națională de supraveghere indică dacă neconformitatea se datorează unuia sau mai multora dintre următoarele motive:
Amendamentul 603
Propunere de regulament
Articolul 65 – alineatul 6 – litera a
(a)  nerespectarea de către sistemul de IA a cerințelor prevăzute în titlul III capitolul 2;
(a)  nerespectarea de către sistemul de IA cu grad ridicat de risc a cerințelor prevăzute în prezentul regulament;
Amendamentul 604
Propunere de regulament
Articolul 65 – alineatul 6 – litera ba (nouă)
(ba)  nerespectarea interdicției privind practicile în domeniul inteligenței artificiale menționate la articolul 5;
Amendamentul 605
Propunere de regulament
Articolul 65 – alineatul 6 – litera bb (nouă)
(bb)  nerespectarea dispozițiilor prevăzute la articolul 52.
Amendamentul 606
Propunere de regulament
Articolul 65 – alineatul 7
7.  Autoritățile de supraveghere a pieței din statele membre, altele decât autoritatea de supraveghere a pieței din statul membru care a inițiat procedura, informează imediat Comisia și celelalte state membre cu privire la toate măsurile adoptate și la toate informațiile suplimentare deținute referitoare la neconformitatea sistemelor de IA în cauză și, în cazul unui dezacord cu măsura națională notificată, cu privire la obiecțiile lor.
7.  Autoritățile naționale de supraveghere din statele membre, altele decât autoritatea națională de supraveghere din statul membru care a inițiat procedura, informează imediat Comisia, Oficiul pentru IA și celelalte state membre cu privire la toate măsurile adoptate și la toate informațiile suplimentare deținute referitoare la neconformitatea sistemelor de IA în cauză și, în cazul unui dezacord cu măsura națională notificată, cu privire la obiecțiile lor.
Amendamentul 607
Propunere de regulament
Articolul 65 – alineatul 8
8.  În cazul în care, în termen de trei luni de la primirea informațiilor menționate la alineatul (5), niciun stat membru și nici Comisia nu ridică vreo obiecție cu privire la o măsură provizorie luată de un stat membru, măsura respectivă este considerată justificată. Acest lucru nu aduce atingere drepturilor procedurale ale operatorului în cauză în conformitate cu articolul 18 din Regulamentul (UE) 2019/1020.
8.  În cazul în care, în termen de trei luni de la primirea informațiilor menționate la alineatul (5), nicio autoritate națională de supraveghere a unui stat membru și nici Comisia nu ridică vreo obiecție cu privire la o măsură provizorie luată de o autoritate națională de supraveghere a altui stat membru, măsura respectivă este considerată justificată. Acest lucru nu aduce atingere drepturilor procedurale ale operatorului în cauză în conformitate cu articolul 18 din Regulamentul (UE) 2019/1020. Perioada menționată în prima frază a prezentului alineat se reduce la 30 de zile în cazul nerespectării interdicției privind practicile în domeniul inteligenței artificiale menționate la articolul 5.
Amendamentul 608
Propunere de regulament
Articolul 65 – alineatul 9
9.  Autoritățile de supraveghere a pieței din toate statele membre se asigură că se iau măsuri restrictive adecvate în ceea ce privește produsul în cauză, cum ar fi retragerea fără întârziere a produsului de pe piețele lor.
9.  Autoritățile naționale de supraveghere din toate statele membre se asigură că se iau măsuri restrictive adecvate în ceea ce privește sistemul de IA în cauză, cum ar fi retragerea fără întârziere a sistemului de IA de pe piețele lor.
Amendamentul 609
Propunere de regulament
Articolul 65 – alineatul 9 a (nou)
9a.  Autoritățile naționale de supraveghere raportează anual Oficiului pentru IA despre utilizarea practicilor interzise care au avut loc în anul respectiv și despre măsurile luate pentru a elimina sau atenua riscurile în conformitate cu prezentul articol.
Amendamentul 610
Propunere de regulament
Articolul 66 – alineatul 1
1.  Dacă, în termen de trei luni de la primirea notificării menționate la articolul 65 alineatul (5), se ridică obiecții de către un stat membru împotriva unei măsuri adoptate de un alt stat membru, sau în cazul în care Comisia consideră că măsura este contrară dreptului Uniunii, Comisia inițiază fără întârziere consultări cu statul membru și cu operatorul sau operatorii în cauză și evaluează măsura națională. Pe baza rezultatelor evaluării respective, Comisia decide dacă măsura națională este justificată sau nu în termen de 9 luni de la notificarea menționată la articolul 65 alineatul (5) și notifică această decizie statului membru în cauză.
1.  Dacă, în termen de trei luni de la primirea notificării menționate la articolul 65 alineatul (5) sau în termen de 30 de zile în cazul nerespectării interdicției privind practicile în domeniul inteligenței artificiale menționate la articolul 5, se ridică obiecții de către autoritatea națională de supraveghere a unui stat membru împotriva unei măsuri adoptate de altă autoritate națională de supraveghere, sau în cazul în care Comisia consideră că măsura este contrară dreptului Uniunii, Comisia inițiază fără întârziere consultări cu autoritatea națională de supraveghere a statului membru respectiv și cu operatorul sau operatorii în cauză și evaluează măsura națională. Pe baza rezultatelor evaluării respective, Comisia decide dacă măsura națională este justificată sau nu în termen de trei luni ori în termen de 60 de zile, în cazul nerespectării interdicției privind practicile în domeniul inteligenței artificiale menționate la articolul 5, de la notificarea menționată la articolul 65 alineatul (5) și notifică această decizie autorității naționale de supraveghere a statului membru în cauză. Comisia informează, de asemenea, toate celelalte autorități naționale de supraveghere cu privire la o astfel de decizie.
Amendamentul 611
Propunere de regulament
Articolul 66 – alineatul 2
2.  În cazul în care măsura națională este considerată justificată, toate statele membre adoptă măsurile necesare pentru a se asigura că sistemul de IA neconform este retras de pe piețele lor și informează Comisia în consecință. În cazul în care măsura națională este considerată nejustificată, statul membru în cauză retrage măsura.
2.  În cazul în care măsura națională este considerată justificată, toate autoritățile naționale de supraveghere desemnate în temeiul prezentului regulament adoptă măsurile necesare astfel încât sistemul de IA neconform să fie retras neîntârziat de pe piețele lor și informează Comisia și Oficiul pentru IA în consecință. În cazul în care măsura națională este considerată nejustificată, autoritatea națională de supraveghere a statului membru în cauză retrage măsura.
Amendamentul 612
Propunere de regulament
Articolul 66 a (nou)
Articolul 66a
Investigații comune
Dacă o autoritate națională de supraveghere are motive să suspecteze că încălcarea prezentului regulament de către un furnizor sau un operator al unui sistem de IA cu grad ridicat de risc sau al unui model de bază cu grad ridicat de risc constituie o încălcare pe scară largă cu o dimensiune europeană sau afectează sau este probabil să afecteze cel puțin 45 de milioane de persoane din mai multe state membre, respectiva autoritate națională de supraveghere informează oficiul de IA și poate solicita autorităților naționale de supraveghere din statele membre în care a avut loc o astfel de încălcare să înceapă o investigație comună. Oficiul pentru IA asigură coordonarea centrală a investigației comune. Competențele de investigare rămân în sfera de competență a autorităților naționale de supraveghere.
Amendamentul 613
Propunere de regulament
Articolul 67 – alineatul 1
1.  În cazul în care, după efectuarea unei evaluări în temeiul articolului 65, autoritatea de supraveghere a pieței dintr-un stat membru constată că, deși un sistem de IA este în conformitate cu prezentul regulament, acesta prezintă un risc pentru sănătatea sau siguranța persoanelor, pentru respectarea obligațiilor prevăzute de dreptul Uniunii sau de dreptul intern menite să protejeze drepturile fundamentale sau alte aspecte legate de protecția interesului public, aceasta solicită operatorului relevant să ia toate măsurile corespunzătoare pentru a se asigura că sistemul de IA în cauză, atunci când este introdus pe piață sau pus în funcțiune, nu mai prezintă riscul respectiv și să retragă de pe piață sau să recheme sistemul de IA într-un termen rezonabil, proporțional cu natura riscului, indicat de aceasta.
1.  În cazul în care, după ce a efectuat o evaluare în temeiul articolului 65 în colaborare strânsă cu autoritatea publică națională de resort menționată la articolul 64 alineatul (3), autoritatea națională de supraveghere dintr-un stat membru constată că, deși este în conformitate cu prezentul regulament, un sistem de IA prezintă totuși un risc mare pentru sănătatea sau siguranța persoanelor, pentru respectarea obligațiilor prevăzute de dreptul Uniunii sau de dreptul intern menite să protejeze drepturile fundamentale sau mediul sau democrația și statul de drept sau alte aspecte legate de protecția interesului public, aceasta solicită operatorului relevant să ia toate măsurile corespunzătoare pentru a se asigura că sistemul de IA în cauză, atunci când este introdus pe piață sau pus în funcțiune, nu mai prezintă riscul respectiv.
Amendamentul 614
Propunere de regulament
Articolul 67 – alineatul 2
2.  Furnizorul sau alți operatori relevanți se asigură că sunt întreprinse acțiuni corective cu privire la toate sistemele de IA în cauză pe care aceștia le-au pus la dispoziție pe piață în întreaga Uniune, în termenul prevăzut de autoritatea de supraveghere a pieței din statul membru menționată la alineatul (1).
2.  Furnizorul sau alți operatori relevanți se asigură că sunt întreprinse acțiuni corective cu privire la toate sistemele de IA în cauză pe care aceștia le-au pus la dispoziție pe piață în întreaga Uniune, în termenul prevăzut de autoritatea națională de supraveghere din statul membru menționată la alineatul (1).
Amendamentul 615
Propunere de regulament
Articolul 67 – alineatul 2 a (nou)
2a.  Dacă furnizorul sau alți operatori relevanți nu iau măsuri corective astfel cum se prevede la alineatul (2), iar sistemul de IA continuă să prezinte un risc astfel cum se menționează la alineatul (1), autoritatea de națională de supraveghere a pieței poate solicita operatorului relevant să retragă sistemul de IA de pe piață sau să îl recheme într-un termen rezonabil, proporțional cu natura riscului.
Amendamentul 616
Propunere de regulament
Articolul 67 – alineatul 3
3.  Statul membru informează imediat Comisia și celelalte state membre. Informațiile includ toate detaliile disponibile, în special datele necesare pentru identificarea sistemului de IA în cauză, originea și a lanțului de aprovizionare aferent acestuia, natura riscului implicat, precum și natura și durata măsurilor naționale luate.
3.  Autoritatea națională de supraveghere informează imediat Comisia, Oficiul pentru IA și celelalte autorități naționale de supraveghere. Informațiile includ toate detaliile disponibile, în special datele necesare pentru identificarea sistemului de IA în cauză, originea și a lanțului de aprovizionare aferent acestuia, natura riscului implicat, precum și natura și durata măsurilor naționale luate.
Amendamentul 617
Propunere de regulament
Articolul 67 – alineatul 4
4.  Comisia inițiază fără întârziere consultări cu statele membre și cu operatorul relevant și evaluează măsurile naționale luate. Pe baza rezultatelor evaluării respective, Comisia decide dacă măsura este justificată sau nu și, dacă este cazul, propune măsuri adecvate.
4.  Comisia inițiază fără întârziere, în consultare cu Oficiul pentru AI, consultări cu autoritățile naționale de supraveghere și cu statele membre în cauză și cu operatorul relevant și evaluează măsurile naționale luate. Pe baza rezultatelor evaluării respective, Oficiul pentru IA decide dacă măsura este justificată sau nu și, dacă este cazul, propune măsuri adecvate.
Amendamentul 618
Propunere de regulament
Articolul 67 – alineatul 5
5.  Comisia comunică decizia sa celorlalte state membre.
5.  Comisia, în consultare cu Oficiul pentru IA, comunică imediat decizia sa autorităților naționale de supraveghere din statele membre în cauză și operatorilor relevanți. De asemenea, informează toate celelalte autorități naționale de supraveghere cu privire la decizie.
Amendamentul 619
Propunere de regulament
Articolul 67 – alineatul 5 a (nou)
5a.  Comisia adoptă orientări pentru a ajuta autoritățile naționale competente să identifice și să rectifice, după caz, probleme similare care apar în alte sisteme de IA.
Amendamentul 620
Propunere de regulament
Articolul 68 – alineatul 1 – partea introductivă
1.  Autoritatea de supraveghere a pieței dintr-un stat membru solicită operatorului relevant să pună capăt neconformității în cauză, atunci când constată una dintre situațiile următoare:
1.  Autoritatea națională de supraveghere a pieței dintr-un stat membru solicită operatorului relevant să pună capăt neconformității în cauză, atunci când constată una dintre situațiile următoare:
Amendamentul 621
Propunere de regulament
Articolul 68 – alineatul 1 – litera a
(a)  marcajul de conformitate a fost aplicat cu încălcarea articolului 49;
(a)  marcajul CE a fost aplicat cu încălcarea articolului 49;
Amendamentul 622
Propunere de regulament
Articolul 68 – alineatul 1 – litera b
(b)  marcajul de conformitate nu este aplicat;
(b)  marcajul CE nu a fost aplicat;
Amendamentul 623
Propunere de regulament
Articolul 68 – alineatul 1 – litera ea (nouă)
(ea)  documentația tehnică nu este disponibilă:
Amendamentul 624
Propunere de regulament
Articolul 68 – alineatul 1 – litera eb (nouă)
(eb)  nu a fost efectuată înregistrarea în baza de date a UE.
Amendamentul 625
Propunere de regulament
Articolul 68 – alineatul 1 – litera ec (nouă)
(ec)  după caz, nu a fost numit reprezentantul autorizat.
Amendamentul 626
Propunere de regulament
Articolul 68 – alineatul 2
2.  În cazul în care neconformitatea menționată la alineatul (1) persistă, statul membru în cauză ia toate măsurile corespunzătoare pentru a restricționa sau a interzice punerea la dispoziție pe piață a sistemului de IA cu grad ridicat de risc sau se asigură că acesta este rechemat sau retras de pe piață.
2.  În cazul în care neconformitatea menționată la alineatul (1) persistă, autoritatea națională de supraveghere din statul membru în cauză ia toate măsurile corespunzătoare și proporționate pentru a restricționa sau a interzice punerea la dispoziție pe piață a sistemului de IA cu grad ridicat de risc sau dă dispoziții să fie rechemat sau retras de pe piață fără întârziere. Autoritate națională de supraveghere din statul membru în cauză comunică imediat Oficiului pentru IA cazul de neconformitate și măsurile luate.
Amendamentul 627
Propunere de regulament
Articolul 68 – capitolul 3a (nou)
3a.  Căi de atac
Amendamentul 628
Propunere de regulament
Articolul 68 a (nou)
Articolul 68a
Dreptul de a depune o plângere la o autoritate națională de supraveghere
1.  Fără a aduce atingere oricăror alte căi de atac administrative sau judiciare, orice persoană fizică sau grup de persoane fizice are dreptul de a depune o plângere la o autoritate de supraveghere, în special în statul membru în care își are reședința obișnuită, în care se află locul său de muncă sau în care a avut loc presupusa încălcare, dacă consideră că sistemul de IA asociat persoanei respective încalcă prezentul regulament.
2.  Autoritatea națională de supraveghere la care s-a depus plângerea informează reclamantul cu privire la evoluția și rezultatul plângerii, inclusiv posibilitatea de a exercita o cale de atac judiciară în temeiul articolului 78.
Amendamentul 629
Propunere de regulament
Articolul 68 b (nou)
Articolul 68b
Dreptul la o cale de atac judiciară efectivă împotriva unei autorități de supraveghere
1.  Fără a aduce atingere niciunei alte căi de atac administrative sau nejudiciare, fiecare persoană fizică sau juridică are dreptul la o cale de atac judiciară eficientă împotriva unei decizii obligatorii din punct de vedere juridic a unei autorități naționale de supraveghere care o vizează.
2.  Fără a aduce atingere niciunei alte căi de atac administrative sau extrajudiciare, fiecare persoană fizică sau juridică are dreptul de a exercita o cale de atac judiciară efectivă dacă autoritatea națională de supraveghere competentă în conformitate cu articolul 59 nu tratează o plângere sau nu informează persoana respectivă în termen de trei luni cu privire la evoluția sau la soluționarea plângerii depuse în conformitate cu articolul 68a.
3.  Acțiunile împotriva unei autorități naționale de supraveghere sunt intentate la instanțele din statul membru în care este stabilită autoritatea națională de supraveghere.
4.  În cazul în care acțiunile sunt introduse împotriva unei decizii a unei autorități de naționale de supraveghere care a fost precedată de un aviz sau o decizie a Comisiei în cadrul procedurii de salvgardare a uniunii, autoritatea de supraveghere transmite curții avizul respectiv sau decizia respectivă.
Amendamentul 630
Propunere de regulament
Articolul 68 c (nou)
Articolul 68c
Dreptul la explicarea luării deciziilor individuale
1.  Orice persoană afectată care face obiectul unei decizii luate de operator pe baza rezultatelor unui sistem IA de risc ridicat, care produce efecte juridice sau o afectează în mod similar și semnificativ într-un mod pe care aceasta îl consideră că are un impact negativ asupra sănătății, siguranței, drepturilor fundamentale, bunăstării socio-economice sau asupra oricărui alt drept care decurge din obligațiile prevăzute în prezentul regulament, are dreptul de a solicita operatorului o explicație clară și semnificativă în temeiul articolului 13 alineatul (1) cu privire la rolul sistemului de IA în procedura de luare a deciziilor, la principalii parametri ai deciziei luate și la datele de intrare aferente.
2.  Alineatul (1) nu se aplică utilizării sistemelor de IA pentru care sunt prevăzute excepții de la obligația prevăzută la alineatul (1) sau restricții de la această obligație în temeiul dreptului Uniunii sau al dreptului intern, în măsura în care o astfel de excepție sau astfel de restricții respectă esența drepturilor și libertăților fundamentale și constituie o măsură necesară și proporțională într-o societate democratică.
3.  Prezentul articol de aplică fără a aduce atingere articolelor 13, 14, 15 și 22 din Regulamentul 2016/679.
Amendamentul 631
Propunere de regulament
Articolul 68 d (nou)
Articolul 68d
Modificarea Directivei (UE) 2020/1828
În anexa I la Directiva (UE) 2020/1828 a Parlamentului European și a Consiliului1a, se adaugă următorul punct:
„ (67a) Regulamentul xxxx/xxxx al Parlamentului European și al Consiliului de stabilire a unor norme armonizate privind inteligența artificială (Legea privind inteligența artificială) și de modificare a anumitor acte legislative ale Uniunii (JO L ...)]”.
_________________
1a Directiva (UE) 2020/1828 a Parlamentului European și a Consiliului din 25 noiembrie 2020 privind acțiunile în reprezentare pentru protecția intereselor colective ale consumatorilor și de abrogare a Directivei 2009/22/CE (JO L 409, 4.12.2020, p. 1).
Amendamentul 632
Propunere de regulament
Articolul 68 e (nou)
Articolul 68e
Raportarea încălcărilor și protecția persoanelor care raportează
Se aplică Directiva (UE) 2019/1937 a Parlamentului European și a Consiliului pentru raportarea încălcării prezentului regulament și protecția persoanelor care raportează astfel de încălcări.
Amendamentul 633
Propunere de regulament
Articolul 69 – alineatul 1
1.  Comisia și statele membre încurajează și facilitează elaborarea de coduri de conduită menite să promoveze aplicarea voluntară pentru sistemele de IA, altele decât sistemele de IA cu grad ridicat de risc, a cerințelor prevăzute în titlul III capitolul 2, pe baza unor specificații și soluții tehnice care sunt mijloace adecvate de asigurare a conformității cu aceste cerințe, având în vedere scopul preconizat al sistemelor.
1.  Comisia, Oficiul pentru IA și statele membre încurajează și facilitează elaborarea de coduri de conduită menite, inclusiv atunci când sunt elaborate pentru a demonstra în ce fel sistemele de IA respectă principiile stabilite la articolul 4a și, prin urmare, pot fi considerate de încredere, să promoveze aplicarea voluntară pentru sistemele de IA, altele decât sistemele de IA cu grad ridicat de risc, a cerințelor prevăzute în titlul III capitolul 2, pe baza unor specificații și soluții tehnice care sunt mijloace adecvate de asigurare a conformității cu aceste cerințe, având în vedere scopul preconizat al sistemelor.
Amendamentul 634
Propunere de regulament
Articolul 69 – alineatul 2
2.  Comisia și comitetul încurajează și facilitează elaborarea de coduri de conduită menite să promoveze aplicarea voluntară, pentru sistemele de IA, a cerințelor legate, de exemplu, de durabilitatea mediului, de accesibilitatea pentru persoanele cu handicap, de participarea părților interesate la proiectarea și dezvoltarea sistemelor de IA și de diversitatea echipelor de dezvoltare, pe baza unor obiective clare și a unor indicatori-cheie de performanță pentru a măsura realizarea obiectivelor respective.
2.  Codurile de conduită menite să promoveze respectarea voluntară a principiilor care stau la baza sistemelor de IA fiabile, trebuie, în special:
(a)   să vizeze un nivel suficient de cunoaștere în domeniul IA în rândul personalului lor și al altor persoane care se ocupă de operarea și utilizarea sistemelor de IA pentru a respecta aceste principii;
(b)   să analizeze în ce măsură sistemele lor de IA pot afecta persoanele sau grupurile de persoane vulnerabile, inclusiv copiii, persoanele în vârstă, migranții și persoanele cu dizabilități, sau dacă ar putea fi adoptate măsuri pentru a îmbunătăți accesibilitatea sau a sprijini în alt fel aceste persoane sau grupuri de persoane;
(c)   să analizeze modul în care utilizarea sistemelor lor de IA poate avea un impact asupra diversității, echilibrului de gen și a egalității de gen sau le poate îmbunătăți;
(d)   să acorde atenție posibilității ca sistemele lor de IA pot fi utilizate într-un mod care, direct sau indirect, ar putea consolida în mod rezidual sau semnificativ prejudecățile sau inegalitățile existente;
(e)   să reflecteze asupra necesității și relevanței existenței unor echipe de dezvoltare diverse în vederea asigurării unei proiectări incluzive a sistemelor lor;
(f)   să analizeze cu atenție dacă sistemele lor pot avea un impact negativ asupra societății, în special în ceea ce privește instituțiile poli