RAPORT referitor la inteligența artificială în dreptul penal și utilizarea sa de către autoritățile polițienești și judiciare în procedurile penale

13.7.2021 - (2020/2016(INI))

Comisia pentru libertăți civile, justiție și afaceri interne
Raportor: Tudor Ciuhodaru


Procedură : 2020/2016(INI)
Stadiile documentului în şedinţă
Stadii ale documentului :  
A9-0232/2021
Texte depuse :
A9-0232/2021
Texte adoptate :

PROPUNERE DE REZOLUȚIE A PARLAMENTULUI EUROPEAN

referitoare la inteligența artificială în dreptul penal și utilizarea sa de către autoritățile polițienești și judiciare în procedurile penale

(2020/2016(INI))

Parlamentul European,

 având în vedere Tratatul privind Uniunea Europeană (TUE), în special articolul 2 și articolul 6, precum și Tratatul privind funcționarea Uniunii Europene (TFUE), în special articolul 16,

 având în vedere Carta drepturilor fundamentale a Uniunii Europene (Carta), în special articolele 6, 7, 8, 11, 12, 13, 20, 21, 24 și 47,

 având în vedere Convenția pentru apărarea drepturilor omului și a libertăților fundamentale,

 având în vedere Convenția Consiliului Europei pentru protejarea persoanelor față de prelucrarea automatizată a datelor cu caracter personal (ETS 108) și protocolul său de modificare („Convenția 108+”),

 având în vedere Carta etică europeană privind utilizarea inteligenței artificiale în sistemele judiciare și în mediul lor, elaborată de Comisia Europeană pentru Eficiența Justiției (CEPEJ) din cadrul Consiliului Europei,

 având în vedere Comunicarea Comisiei din 8 aprilie 2019 intitulată „Cum construim încrederea cetățenilor într-o inteligență artificială centrată pe factorul uman” (COM(2019)0168),

 având în vedere Orientările în materie de etică pentru o inteligență artificială (IA) fiabilă publicate de Grupul de experți la nivel înalt al Comisiei privind inteligența artificială la 8 aprilie 2019,

 având în vedere Cartea albă a Comisiei din 19 februarie 2020 intitulată „Inteligența artificială - O abordare europeană axată pe excelență și încredere” (COM(2020)0065),

 având în vedere comunicarea Comisiei din 19 februarie 2020 intitulată „O strategie europeană privind datele” (COM(2020)0066),

 având în vedere Regulamentul (UE) 2016/679 al Parlamentului și al Consiliului din 27 aprilie 2016 privind protecția persoanelor fizice în ceea ce privește prelucrarea datelor cu caracter personal și privind libera circulație a acestor date și de abrogare a Directivei 95/46/CE (Regulamentul general privind protecția datelor)[1],

 având în vedere Directiva (UE) 2016/680 a Parlamentului European și a Consiliului din 27 aprilie 2016 privind protecția persoanelor fizice referitor la prelucrarea datelor cu caracter personal de către autoritățile competente în scopul prevenirii, depistării, investigării sau urmăririi penale a infracțiunilor sau al executării pedepselor și privind libera circulație a acestor date și de abrogare a Deciziei-cadru 2008/977/JAI a Consiliului[2],

 având în vedere Regulamentul (UE) 2018/1725 al Parlamentului European și al Consiliului din 23 octombrie 2018 privind protecția persoanelor fizice în ceea ce privește prelucrarea datelor cu caracter personal de către instituțiile, organele, oficiile și agențiile Uniunii și privind libera circulație a acestor date și de abrogare a Regulamentului (CE) nr. 45/2001 și a Deciziei nr. 1247/2002/CE[3],

 având în vedere Directiva 2002/58/CE a Parlamentului European și a Consiliului din 12 iulie 2002 privind prelucrarea datelor personale și protejarea confidențialității în sectorul comunicațiilor publice (directiva asupra confidențialității și comunicațiilor electronice)[4],

 având în vedere Regulamentul (UE) 2016/794 al Parlamentului European și al Consiliului din 11 mai 2016 privind Agenția Uniunii Europene pentru Cooperare în Materie de Aplicare a Legii (Europol) și de înlocuire și de abrogare a Deciziilor 2009/371/JAI, 2009/934/JAI, 2009/935/JAI, 2009/936/JAI și 2009/968/JAI ale Consiliului[5],

 având în vedere rezoluția sa din 19 iunie 2020 referitoare la protestele antirasiste care au avut loc în urma morții lui George Floyd[6],

 având în vedere rezoluția sa din 14 martie 2017 referitoare la implicațiile megadatelor asupra drepturilor fundamentale: viața privată, protecția datelor, nediscriminarea, securitatea și impunerea respectării legii[7],

 având în vedere audierea din cadrul Comisiei pentru libertăți civile, justiție și afaceri interne (LIBE) din 20 februarie 2020 privind inteligența artificială în dreptul penal și utilizarea acesteia de către poliție și autoritățile judiciare în materie penală,

 

 având în vedere raportul misiunii LIBE în Statele Unite din februarie 2020,

 având în vedere articolul 54 din Regulamentul său de procedură,

 având în vedere avizul Comisiei pentru piața internă și protecția consumatorilor și al Comisiei pentru afaceri juridice,

 având în vedere raportul Comisiei pentru libertăți civile, justiție și afaceri interne (A9-0232/2021),

A. întrucât tehnologiile digitale în general și proliferarea prelucrării datelor și a analizelor facilitate de inteligența artificială (IA) în special sunt extraordinar de promițătoare, dar implică și riscuri; întrucât dezvoltarea IA a făcut un salt în ultimii ani, transformând IA într-una dintre tehnologiile strategice ale secolului 21, cu potențialul de a genera beneficii substanțiale în materie de eficiență, acuratețe și accesibilitate și generând astfel o schimbare pozitivă în economia și societatea europeană, dar și mari riscuri la adresa drepturilor fundamentale și a democrațiilor bazate pe statul de drept; întrucât IA nu ar trebui să fie considerată un scop în sine, ci un instrument în folosul oamenilor, care are ca scop final creșterea calității vieții, a capacităților și a siguranței acestora;

B. întrucât, în ciuda progreselor continue în ceea ce privește viteza de procesare și capacitatea memoriei computerelor, încă nu există programe care să egaleze flexibilitatea umană în domenii mai generale sau în cazul unor sarcini care necesită înțelegerea contextului sau o analiză critică; întrucât unele aplicații bazate pe IA au atins nivelurile de performanță ale experților și profesioniștilor umani în îndeplinirea anumitor sarcini (de exemplu tehnologia în domeniul juridic) și pot oferi rezultate cu o viteză mult mai mare și pe o scară mult mai largă;

C. întrucât unele țări, inclusiv unele state membre, utilizează mai mult aplicațiile sau sistemele bazate pe IA integrate în aplicarea legii și în sistemul judiciar decât altele, ceea ce este în parte consecința lipsei de reglementări și a diferențelor de reglementare care permit sau interzic utilizarea IA în anumite scopuri; întrucât utilizarea tot mai mare a IA în domeniul dreptului penal se bazează mai ales pe promisiunile că aceasta ar reduce incidența anumitor tipuri de infracțiuni și ar conduce la luarea de decizii mai obiective; întrucât, cu toate acestea, aceste promisiuni nu se confirmă întotdeauna;

D. întrucât drepturile și libertățile fundamentale consacrate în Cartă ar trebui să fie garantate pe parcursul întregului ciclu de viață al IA și al tehnologiilor conexe, în special în timpul proiectării, dezvoltării, implementării și utilizării lor, și ar trebui să se aplice în domeniul asigurării respectării legii în toate împrejurările;

E. întrucât tehnologia IA ar trebui dezvoltată astfel încât oamenii să se afle în centrul său, să fie demnă de încrederea publicului și să funcționeze întotdeauna în slujba oamenilor; întrucât sistemele bazate pe IA trebuie să ofere garanția ultimă că sunt concepute astfel încât să poată fi întotdeauna oprite de un operator uman;

F. întrucât pentru a fi demne de încredere, sistemele bazate pe IA trebuie să fie concepute pentru protejarea și în beneficiul tuturor membrilor societății (ținând seama în conceperea lor și de categoriile de populație cele mai vulnerabile și marginalizate), să fie nediscriminatorii, sigure, deciziile lor trebuie să fie explicabile și transparente și să respecte autonomia umană și drepturile fundamentale, așa cum se descrie în Orientările de etică ale Grupului de experți la nivel înalt privind inteligența artificială;

G. întrucât Uniunea, împreună cu statele membre, are o responsabilitate esențială în a veghea ca deciziile legate de ciclul de viață și utilizarea aplicațiilor bazate pe IA în domeniul sistemului judiciar și al aplicării legii să se ia transparent și să protejeze deplin drepturile fundamentale, neperpetuând mai ales discriminarea, lipsa de imparțialitate și prejudecățile, acolo unde există; întrucât opțiunile de politică relevante ar trebui să respecte principiile necesității și proporționalității pentru a garanta constituționalitatea și un sistem de justiție corect și uman;

H. întrucât aplicațiile bazate pe IA pot oferi mari posibilități în domeniul aplicării legii, în special în ceea ce privește îmbunătățirea metodelor de lucru ale agențiilor de aplicare a legii și ale autorităților judiciare și în combaterea mai eficientă a anumitor tipuri de infracționalitate, în special a infracționalității financiare, a spălării banilor și a finanțării terorismului, a abuzului sexual online și a exploatării copiilor, precum și a anumitor tipuri de infracționalitate informatică, contribuind astfel la siguranța și securitatea cetățenilor UE, dar pot, în același timp, să antreneze riscuri semnificative pentru drepturile fundamentale ale persoanelor; întrucât orice aplicare generală a IA în scopul supravegherii în masă ar fi disproporționată;

I. întrucât dezvoltarea și funcționarea sistemelor bazate pe IA pentru autoritățile polițienești și judiciare implică contribuția mai multor persoane, organizații, componente de mașini, algoritmi software și utilizatori umani în medii deseori complexe și dificile; întrucât aplicațiile IA în domeniul aplicării legii și în sistemul judiciar se află în diferite etape de dezvoltare, de la conceptualizare, elaborarea de prototipuri sau evaluare la utilizarea după autorizare; întrucât în viitor pot apărea noi posibilități de utilizare, pe măsură ce tehnologiile se maturizează datorită cercetărilor științifice în desfășurare la nivel mondial;

J. întrucât este imperativ să existe un model clar de atribuire a responsabilității juridice pentru posibilele efecte nocive ale sistemelor bazate pe IA în domeniul dreptului penal; întrucât dispozițiile de reglementare din acest domeniu ar trebui să păstreze întotdeauna responsabilitatea umană și trebuie să urmărească mai presus de orice evitarea producerii de efecte nocive;

K. întrucât statelor membre le revine până la urmă responsabilitatea de a garanta respectarea deplină a drepturilor fundamentale atunci când sistemele bazate pe IA sunt utilizate în domeniul aplicării legii și în cel judiciar;

L. întrucât relația dintre protejarea drepturilor fundamentale și acțiunile polițienești eficiente trebuie să fie întotdeauna un element esențial în discuțiile despre caracterul oportun și modalitatea de utilizare a IA de către sectorul de aplicare a legii, unde deciziile pot avea consecințe de durată asupra vieții și libertății oamenilor; întrucât acest fapt este foarte important, deoarece IA ar putea deveni un element permanent al ecosistemului nostru de justiție penală, oferind analize și asistență în anchete;

M. întrucât IA este utilizată de autoritățile de aplicare a legii în aplicații cum ar fi tehnologiile de recunoaștere facială, de exemplu, căutarea în baze de date de suspecți și identificarea victimelor traficului de persoane sau ale exploatării și abuzurilor sexuale asupra copiilor, recunoașterea automată a numărului de înmatriculare, identificarea vorbitorului, identificarea vocală, tehnologii de lectură labială, supraveghere sonoră (adică algoritmi de detectare a focurilor de armă), cercetare și analiză autonomă a bazelor de date identificate, prognoză (activități polițienești predictive și de analiză a focarelor infracționale), instrumente de detectare a comportamentului, instrumente avansate de autopsie virtuală care să contribuie la stabilirea cauzei decesului, instrumente autonome de identificare a fraudelor financiare și a finanțării terorismului, monitorizarea platformelor de comunicare socială (extragere și recoltare de date în vederea explorării conexiunilor) și sisteme automate de supraveghere care includ diferite capacități de detectare (cum ar fi detectarea bătăilor inimii și camerele cu termoviziune); întrucât aplicațiile menționate mai sus, alături de alte aplicații potențiale sau viitoare ale tehnologiei IA în domeniul aplicării legii, pot prezenta grade diferite de fiabilitate și acuratețe și afectează protejarea drepturilor fundamentale și dinamica sistemului justiției penale; întrucât multe dintre aceste instrumente sunt utilizate în țări din afara UE, dar ar fi ilegale în baza cadrului legislativ și al jurisprudenței Uniunii privind protecția datelor; întrucât utilizarea de rutină a algoritmilor, chiar și cu o rată mică de rezultate fals pozitive, poate face ca numărul de alerte corecte să fie cu mult depășit de numărul celor false;

N. întrucât instrumentele și aplicațiile din domeniul IA sunt utilizate și de sistemele judiciare din câteva țări din lume, inclusiv la fundamentarea hotărârilor de detenție preventivă, la stabilirea pedepselor, la calcularea probabilităților de recidivă și la determinarea perioadei de probațiune, la soluționarea online a litigiilor, la gestionarea jurisprudenței și la oferirea unui acces mai facil la legislație; întrucât aceasta a condus la afectarea și diminuarea șanselor pentru persoanele de culoare și alte minorități; întrucât în prezent în UE, cu excepția unor state membre, utilizarea acestora este limitată în principal la cauze civile;

O. întrucât utilizarea IA în aplicarea legii implică o serie de riscuri potențiale mari și, în anumite cazuri, inacceptabile pentru protejarea drepturilor fundamentale ale persoanelor, cum ar fi opacitate în luarea deciziilor, diferite tipuri de discriminare și erori inerente în algoritmul de bază care pot fi consolidate prin bucle de feedback, precum și riscuri pentru protejarea vieții private și a datelor cu caracter personal, a libertății de exprimare și de informare, a prezumției de nevinovăție, a dreptului la o cale de atac și la un proces corect, precum și pentru libertatea și securitatea persoanelor;

P. întrucât sistemele bazate pe IA utilizate de autoritățile de aplicare a legii și de cele judiciare sunt, la rândul lor, vulnerabile la atacuri comise cu folosirea IA împotriva sistemelor informatice sau la practica „otrăvirii datelor” (data poisoning), prin care se introduce un set greșit de date cu scopul de a produce rezultate lipsite de neutralitate; întrucât în aceste situații daunele rezultate pot fi chiar mai mari și pot duce la creșterea exponențială a nivelului de nocivitate la adresa persoanelor și grupurilor,

Q. întrucât implementarea IA în domeniul aplicării legii și al sistemului judiciar nu ar trebui considerată o simplă chestiune de fezabilitate tehnică, ci o decizie politică privind structura și obiectivele sistemelor de aplicare a legii și de justiție penală; întrucât dreptul penal modern se bazează pe ideea că autoritățile reacționează la o infracțiune după ce aceasta fost comisă, fără a presupune că oamenii sunt periculoși și că trebuie monitorizați constant pentru a preveni eventuale infracțiuni; întrucât tehnicile de supraveghere bazate pe IA pun serios în discuție această abordare și fac urgent necesar ca legiuitorii din întreaga lume să evalueze temeinic consecințele permiterii utilizării tehnologiilor care diminuează rolul ființelor umane în aplicarea legii și în deciziile justiției;

1. reiterează faptul că, dat fiind că IA se bazează pe prelucrarea unor cantități mari de date cu caracter personal, dreptul la protecția vieții private și a datelor cu caracter personal se aplică tuturor domeniilor IA și că trebuie respectat pe deplin cadrul juridic al Uniunii privind protecția datelor și a vieții private; reamintește, ca urmare, că UE a stabilit deja standarde de protecție a datelor pentru autoritățile de aplicare a legii, care constituie baza pentru orice reglementare viitoare în domeniul IA pentru utilizări în aplicarea legii și în sistemul judiciar; reamintește că prelucrarea datelor cu caracter personal ar trebui să fie legală și corectă, scopurile prelucrării ar trebui specificate, explicite și legitime, prelucrarea ar trebui să fie adecvată, relevantă și neexcesivă în raport cu scopul în care sunt prelucrate, ar trebui să fie exactă, actualizată, iar datele inexacte ar trebui corectate sau șterse dacă nu se aplică restricții, datele nu ar trebui păstrate mai mult decât este necesar, ar trebui stabilite termene clare și adecvate pentru ștergere sau pentru analizarea periodică a necesității stocării acestor date și ar trebui să fie prelucrate într-un mod sigur; mai subliniază că ar trebui împiedicată posibila identificare a persoanelor prin intermediul unei aplicații bazate pe IA care a utilizat date anonimizate anterior;

2. reafirmă că toate soluțiile bazate pe IA folosite în asigurarea respectării legii și în sistemul judiciar trebuie, de asemenea, să respecte pe deplin principiile demnității umane, nediscriminării, libertății de circulație, prezumția de nevinovăție și dreptul la apărare, inclusiv dreptul la tăcere, libertatea de exprimare și de informare, libertatea de întrunire și de asociere, egalitatea în fața legii, egalitatea forțelor și dreptul la o cale de atac efectivă și la un proces corect, în conformitate cu Carta și cu Convenția europeană a drepturilor omului; subliniază că utilizarea de aplicații bazate pe IA trebuie interzisă atunci când este incompatibilă cu drepturile fundamentale;

3. recunoaște că rapiditatea cu care sunt dezvoltate aplicațiile bazate pe IA în întreaga lume nu permite o inventariere completă a acestora și, prin urmare, face necesar un model de guvernanță clar și coerent, care să garanteze atât drepturile fundamentale ale persoanelor, cât și claritate juridică pentru dezvoltatori, având în vedere evoluția continuă a tehnologiei; consideră, cu toate acestea, având în vedere rolul și responsabilitatea poliției și a autorităților judiciare, precum și impactul deciziilor pe care acestea le iau în scopul prevenirii, identificării, anchetării sau urmăririi penale a infracțiunilor sau al executării pedepselor, că utilizarea aplicațiilor bazate pe IA trebuie clasificată ca prezentând un grad ridicat de risc în cazurile cu potențial de a afecta semnificativ viețile oamenilor;

4. consideră, în acest sens, că toate instrumentele bazate pe IA dezvoltate sau utilizate de autoritățile de aplicare a legii sau de sistemul judiciar ar trebui să fie cel puțin sigure, securizate și adecvate scopului, să respecte principiile echității, reducerii la minimum a datelor, răspunderii, transparenței și explicabilității și că dezvoltarea, introducerea și utilizarea lor ar trebui să fie supuse unei evaluări a riscurilor și unui test riguros al necesității și proporționalității, iar măsurile de siguranță trebuie să fie pe măsura riscurilor identificate; subliniază că încrederea cetățenilor în utilizarea IA dezvoltate, introduse și utilizate în UE este condiționată de respectarea deplină a acestor criterii;

5. recunoaște contribuția pozitivă a anumitor tipuri de aplicații bazate pe IA la activitatea autorităților de aplicare a legii și a autorităților judiciare din Uniune; subliniază, de exemplu, îmbunătățirea gestionării jurisprudenței obținută prin instrumente care permit opțiuni suplimentare de căutare; consideră că există o serie de alte utilizări potențiale ale IA pentru asigurarea respectării legii și pentru sistemul judiciar care ar putea fi explorate, ținându-se seama de cele cinci principii ale Cartei etice privind utilizarea inteligenței artificiale în sistemele judiciare și în mediul acestora adoptată de CEPEJ și acordând o atenție deosebită „utilizărilor care trebuie luate în calcul cu extremă rezervă”, identificate de CEPEJ;

6. subliniază că orice tehnologie poate fi utilizată în alte scopuri decât cel inițial și solicită, ca urmare, un control democratic strict și o supraveghere independentă a tuturor tehnologiilor facilitate de IA utilizate de autoritățile de aplicare a legii și de cele judiciare, în special a celor care pot fi reorientate către supravegherea în masă sau către crearea de profiluri în masă; observă cu mare îngrijorare potențialul pe care anumite tehnologii de IA utilizate în sectorul aplicării legii îl au de a fi folosite pentru supravegherea în masă; subliniază obligația legală de a preveni supravegherea în masă prin intermediul tehnologiilor de IA, care, prin definiție, nu respectă principiile necesității și proporționalității, precum și de a interzice utilizarea aplicațiilor care ar putea duce la aceasta;

7. subliniază că abordarea adoptată în unele țări din afara UE în ceea ce privește dezvoltarea, implementarea și utilizarea tehnologiilor de supraveghere în masă impietează disproporționat asupra drepturilor fundamentale și din acest motiv nu trebuie urmată de UE; consideră, de aceea, că și măsurile de protecție împotriva utilizării abuzive a tehnologiilor de IA de către autoritățile de aplicare a legii și autoritățile judiciare trebuie să fie reglementate uniform în întreaga Uniune;

8. subliniază potențialul de lipsă a neutralității și de discriminare care decurge din utilizarea aplicațiilor bazate pe IA cum ar fi învățarea automată, inclusiv a algoritmilor pe care se bazează aceste aplicații; constată că lipsa neutralității poate fi inerentă seturilor de date subiacente, mai ales atunci când sunt utilizate date istorice, introduse de dezvoltatorii de algoritmi sau generate în timpul aplicării în condiții reale a sistemelor; subliniază că rezultatele produse de aplicațiile bazate pe IA sunt prin definiție influențate de calitatea datelor utilizate și că această lipsă a neutralității inerentă tinde să crească treptat și astfel să perpetueze și să amplifice discriminarea existentă, în special pentru persoanele care aparțin anumitor grupuri etnice sau comunități supuse unei optici rasiale;

9. subliniază faptul că multe tehnologii de identificare bazate pe algoritmi utilizate în prezent în mod disproporționat identifică și clasifică greșit și, prin urmare, cauzează prejudicii persoanelor supuse unei optici rasiale, celor care aparțin anumitor comunități etnice, persoanelor LGBTI, copiilor și persoanelor în vârstă, precum și femeilor; reamintește că persoanele fizice nu numai că au dreptul de a fi identificate corect, dar au și dreptul de a nu fi identificate deloc, cu excepția cazului în care este impus de lege din interese publice temeinice și legitime; subliniază că predicțiile IA bazate pe caracteristicile unui anumit grup de persoane ajung să amplifice și să reproducă formele de discriminare existente; consideră că ar trebui depuse eforturi susținute pentru a evita discriminarea automatizată și lipsa neutralității; solicită garanții suplimentare solide în cazul în care sistemele bazate pe IA din domeniul aplicării legii sau din sistemul judiciar sunt utilizate în cazul minorilor sau în legătură cu aceștia;

10. subliniază asimetria de putere dintre cei care utilizează tehnologiile bazate pe IA și cei vizați de ele; subliniază că este imperativ ca utilizarea de instrumente care folosesc IA de către autoritățile polițienești și judiciare să nu devină un factor de inegalitate, fragmentare socială sau excluziune; subliniază impactul utilizării instrumentelor de IA asupra drepturilor la apărare ale suspecților, dificultatea de a obține informații pertinente cu privire la funcționarea acestora și, în consecință, dificultatea de a contesta rezultatele lor în instanță, în special de către persoanele anchetate;

11. ia act de riscurile legate mai ales de scurgerile de date, încălcările securității datelor și accesul neautorizat la datele cu caracter personal și la alte informații legate, de exemplu, de anchetele penale sau cauzele judecătorești care sunt prelucrate prin sisteme bazate pe IA; subliniază că aspectele de securitate și siguranță ale sistemelor bazate pe IA utilizate în domeniul aplicării legii și în sistemul judiciar trebuie să fie atent luate în considerare și suficient de solide și de robuste pentru a împiedica producerea de posibile consecințe catastrofale în urma atacurilor asupra sistemelor bazate pe IA; subliniază importanța securității încă din faza de proiectare, precum și a supravegherii umane specifice înainte de a opera anumite aplicații critice și, prin urmare, solicită autorităților de aplicare a legii și celor judiciare să utilizeze numai aplicațiile bazate pe IA care respectă principiul protecției vieții private și a datelor începând cu momentul conceperii, pentru a evita deturnarea utilizării;

12. subliniază că niciun sistem bazat pe IA folosit de instituțiile de aplicarea legii sau de cele judiciare nu ar trebui să poată dăuna integrității fizice a oamenilor, nici să repartizeze drepturi sau să impună obligații juridice persoanelor;

13. recunoaște dificultățile de stabilire corectă a responsabilității și răspunderii juridice pentru potențialele prejudicii, având în vedere complexitatea dezvoltării și funcționării sistemelor bazate pe IA; consideră necesară crearea unui regim clar și corect de atribuire a responsabilității și răspunderii juridice pentru potențialele consecințe negative produse de aceste tehnologii digitale avansate; subliniază însă că obiectivul fundamental trebuie să fie în primul rând evitarea concretizării unor astfel de consecințe; solicită, în consecință, aplicarea principiului precauției pentru toate aplicațiile bazate pe IA în contextul aplicării legii; subliniază că responsabilitatea și răspunderea juridică trebuie să revină întotdeauna unei persoane fizice sau juridice, care trebuie să fie întotdeauna identificată pentru deciziile luate cu sprijinul IA; subliniază, prin urmare, necesitatea de a asigura transparența structurilor instituționale care produc și gestionează sisteme bazate pe IA;

14. consideră că este esențial, atât pentru eficacitatea exercitării dreptului la apărare, cât și pentru transparența sistemelor naționale de justiție penală, ca un cadru juridic specific, clar și precis să reglementeze condițiile, modalitățile și consecințele utilizării instrumentelor bazate pe IA domeniul aplicării legii, precum și drepturile persoanelor vizate, și proceduri efective și ușor accesibile de depunere a plângerilor și de apel, inclusiv de exercitare a unei căi de atac legale; subliniază că părțile la o procedură penală au dreptul să aibă acces la procesul de colectare a datelor și la evaluările aferente efectuate sau obținute prin utilizarea aplicațiilor bazate pe IA; subliniază necesitatea ca autoritățile de executare implicate în cooperarea judiciară, atunci când decid cu privire la o cerere de extrădare (sau predare) către un alt stat membru sau o altă țară terță, să evalueze dacă utilizarea instrumentelor care folosesc IA în țara solicitantă ar putea compromite esența dreptului fundamental la un proces corect; invită Comisia să emită orientări privind modul de efectuare a unei astfel de evaluări în contextul cooperării judiciare în materie penală; insistă asupra faptului că statele membre, în conformitate cu legislația aplicabilă, ar trebui să se asigure că persoanele sunt informate atunci când fac obiectul utilizării aplicațiilor bazate pe IA de către autoritățile de aplicare a legii sau de către sistemul judiciar;

15. subliniază însă că, dacă oamenii se bazează doar pe datele, profilurile și recomandările generate de mașini, ei nu vor putea face o evaluare independentă; subliniază posibilele consecințe negative grave ale încrederii excesive în caracterul aparent obiectiv și științific al instrumentelor IA și ale ignorării posibilității ca rezultatele acestora să fie incorecte, incomplete, irelevante sau discriminatorii, în special în domeniul aplicării legii și al justiției; subliniază că dependența excesivă de rezultatele furnizate de sistemele de IA ar trebui evitată și accentuează nevoia ca autoritățile să câștige încrederea și să acumuleze cunoștințele necesare pentru a contesta sau anula o recomandare produsă de algoritmi; consideră că este important să existe așteptări realiste în legătură cu astfel de soluții tehnologice și să nu se promită soluții perfecte de aplicare a legii și de detectare a tuturor infracțiunilor comise;

16. subliniază că, în contextele judiciare și de aplicare a legii, decizia care produce efecte juridice sau efecte echivalente acestora trebuie luată întotdeauna de către o ființă umană, care poate fi trasă la răspundere pentru deciziile luate; consideră că persoanele care fac obiectul sistemelor bazate pe IA trebuie să poată recurge la o cale de atac; reamintește că, în virtutea legislației UE, o persoană are dreptul de a nu fi supusă unei decizii care produce efecte juridice care o privesc sau care o afectează în mod semnificativ și care se bazează exclusiv pe prelucrarea automată a datelor; mai subliniază și că luarea de decizii individuală automatizată nu trebuie să se bazeze pe categorii speciale de date cu caracter personal, cu excepția cazului în care au fost instituite măsuri adecvate pentru protejarea drepturilor, a libertăților și a intereselor legitime ale persoanei vizate. accentuează faptul că legislația Uniunii interzice crearea de profiluri care are ca rezultat discriminarea indivizilor pe baza unor categorii speciale de date cu caracter personal; subliniază că deciziile din domeniul aplicării legii sunt aproape întotdeauna decizii care au un efect juridic asupra persoanei vizate, dată fiind natura executivă a autorităților de aplicare a legii și a acțiunilor acestora; observă că utilizarea IA poate influența deciziile umane și poate avea un impact asupra tuturor etapelor procedurii penale; consideră, în consecință, că autoritățile care utilizează sisteme de IA trebuie să respecte standarde juridice extrem de înalte și să asigure intervenția umană, în special atunci când analizează datele obținute din astfel de sisteme; solicită ca dreptul suveran al judecătorilor de a dispune și de a lua hotărâri de la caz la caz să fie respectat; invită la interzicerea utilizării IA și a tehnologiilor conexe la luarea deciziilor judiciare;

17. solicită ca algoritmii să fie explicabili, transparenți, trasabili și verificabili ca parte necesară a controlului, pentru a se garanta că dezvoltarea, implementarea și utilizarea sistemelor bazate pe IA destinate sistemului judiciar și asigurarea respectării legii respectă drepturile fundamentale și cetățenii au încredere în ele, precum și pentru a se garanta că rezultatele generate de algoritmii IA pot fi explicate utilizatorilor și celor supuși acțiunii acestor sisteme, precum și că există transparență cu privire la datele-sursă și modul în care sistemul a ajuns la o anumită concluzie; subliniază că, pentru a asigura transparența tehnică, robustețea și acuratețea, ar trebui să poată fi achiziționate de autoritățile de aplicare a legii sau judiciare din Uniune doar instrumente și sisteme ale căror algoritmi și logică sunt verificabile și accesibile cel puțin poliției și sistemului judiciar, precum și auditorilor independenți, pentru a permite evaluarea, auditarea și verificarea acestora și că nu trebuie să fie închise sau etichetate drept proprietate privată de către vânzători; subliniază, în plus, că documentația despre natura serviciului, instrumentele dezvoltate, performanța și condițiile în care se estimează că poate funcționa, precum și riscurile pe care le-ar putea genera ar trebui să fie oferită într-un limbaj inteligibil și clar; invită, prin urmare, autoritățile judiciare și de aplicare a legii să asigure o transparență activă și completă în legătură cu firmele private care le furnizează sisteme de IA în scopul aplicării legii și în domeniul judiciar; recomandă, prin urmare, utilizarea software-ului cu sursă deschisă acolo unde este posibil;

18. încurajează autoritățile de aplicare a legii și autoritățile judiciare să identifice și să evalueze domeniile în care unele soluții bazate pe IA adaptate ar putea fi benefice și să facă schimb de bune practici privind implementarea IA; solicită adoptarea de către statele membre și agențiile UE a unor proceduri adecvate de achiziții publice pentru sistemele de IA atunci când acestea sunt utilizate într-un context juridic sau de aplicare a legii, astfel încât să se asigure respectarea de către acestea a drepturilor fundamentale și a legislației aplicabile, inclusiv garantarea faptului că documentația software și algoritmii sunt disponibili și accesibili autorităților competente și de supraveghere în vederea analizei și controlului; solicită mai ales adoptarea de norme obligatorii care să impună divulgarea publică a parteneriatelor, contractelor și achizițiilor public-privat, precum și a scopului în care acestea sunt achiziționate; subliniază necesitatea de a oferi autorităților finanțarea necesară, precum și de a le furniza competența tehnică necesară pentru a garanta respectarea deplină a cerințelor etice, legale și tehnice asociate oricărei implementări a IA;

19. solicită ca sistemele de IA și procesul de luare a deciziei să aibă o trasabilitate care, printr-o documentație obligatorie, le prezintă funcțiile, le definește capacitățile și limitele și poate identifica sursa elementelor care au determinat luarea unei decizii; subliniază importanța păstrării unei documentații complete privind datele pe care s-a făcut antrenarea, contextul, scopul, acuratețea și efectele secundare ale acestei, precum și prelucrarea acesteia de către creatorii și dezvoltatorii algoritmilor, și a respectării drepturilor fundamentale; subliniază că trebuie să fie întotdeauna posibilă reducerea operațiilor informatice ale unui sistem bazat pe IA la o formă ușor de înțeles pentru oameni;

20. solicită efectuarea unei evaluări obligatorii a impactului asupra drepturilor fundamentale înainte de implementarea sau utilizarea oricărui sistem bazat pe IA destinat autorităților de aplicare a legii sau judiciare, pentru a evalua orice risc potențial la adresa drepturilor fundamentale; reamintește că este obligatorie o evaluare prealabilă a impactului asupra protecției datelor pentru orice tip de prelucrare, în special pentru cele care utilizează tehnologii noi, care poate duce la creșterea riscurilor pentru drepturile și libertățile persoanelor și consideră că acest lucru se întâmplă în cazul celor mai multe tehnologii bazate pe IA din domeniul aplicării legii și din cel judiciar; subliniază competența tehnică a autorităților pentru protecția datelor și a agențiilor pentru drepturile fundamentale în pentru evaluarea sistemelor; subliniază că aceste evaluări ale impactului asupra drepturilor fundamentale ar trebui realizate într-un mod cât mai deschis posibil și cu implicarea activă a societății civile; solicită ca evaluările impactului să definească clar și măsurile de siguranță necesare pentru eliminarea riscurilor identificate și ca acestea să fie puse la dispoziția publicului, în cea mai mare măsură posibilă, înainte de introducerea oricărui sistem de IA;

21. subliniază că numai o guvernanță europeană solidă în domeniul IA, însoțită de o evaluare independentă, permite operaționalizarea necesară a principiilor drepturilor fundamentale; solicită auditarea periodică obligatorie de către o autoritate independentă a tuturor sistemelor bazate pe IA utilizate de autoritățile de aplicare a legii și de cele judiciare acolo este posibil ca acestea să afecteze viețile oamenilor pentru de a testa și evalua sistemele algoritmice, contextul, scopul, acuratețea, performanța și scara acestora și, odată ce acestea funcționează, pentru a detecta, a investiga, a diagnostica și a corecta toate efectele nedorite și negative și a se asigura că sistemele bazate pe IA funcționează așa cum este prevăzut; solicită, prin urmare, crearea unui cadru instituțional clar în acest scop, inclusiv instituirea unei supravegheri adecvate în materie de reglementare și control, pentru a asigura punerea în aplicare deplină și a garanta o dezbatere democratică în deplină cunoștință de cauză pe tema necesității și proporționalității IA în domeniul justiției penale; subliniază că rezultatele acestor audituri ar trebui să fie disponibile în registrele publice, astfel încât cetățenii să știe dacă sunt implementate sisteme bazate pe IA și ce măsuri sunt luate pentru remedierea tuturor încălcărilor drepturilor fundamentale;

22. subliniază că seturile de date și sistemele algoritmice utilizate pentru clasificări, evaluări și predicții în diferitele etape ale prelucrării datelor în dezvoltarea IA și a tehnologiilor conexe pot avea ca rezultat tratamente diferențiate și discriminarea directă și indirectă a unor grupuri de persoane, mai ales deoarece datele utilizate la antrenarea algoritmilor folosiți în activitățile polițienești bazate pe analiza predictivă reflectă prioritățile curente de supraveghere și, în consecință, ar putea avea ca rezultat reproducerea și amplificarea lipsei de neutralitate deja existente; subliniază, ca urmare, că tehnologiile bazate pe IA, mai ales atunci când sunt utilizate în scopul aplicării legii și în sistemul judiciar, impun cercetare și aport interdisciplinar, inclusiv dinspre domeniile studiului științelor și tehnologiilor, studiilor critice privind problema rasei, studiilor privind dizabilitatea și a altor discipline adaptate la contextul social, inclusiv în legătură cu modul în care se construiește diferența, cu activitatea de clasificare și consecințele acesteia; subliniază, prin urmare, necesitatea de a investi sistematic în integrarea acestor discipline în studiul și cercetarea în domeniul IA la toate nivelurile; subliniază și că este important ca echipele care proiectează, dezvoltă, testează, întrețin, implementează și achiziționează aceste sisteme bazate pe IA să reflecte diversitatea societății în ansamblul său ca modalitate netehnică de a reduce riscul de discriminare;

23. subliniază, în plus, că responsabilitatea și răspunderea civilă adecvate necesită o formare specializată semnificativă în ceea ce privește problemele de etică, pericolele potențiale, limitările și utilizarea corectă a tehnologiei bazate pe IA, în special pentru personalul poliției și al sistemului judiciar; subliniază că factorii de decizie ar trebui să aibă o pregătire și calificare profesională adecvată în legătură cu potențialul de absență a neutralității, deoarece seturile de date se pot baza pe date discriminatorii și întemeiate pe prejudecăți; sprijină crearea de inițiative de sensibilizare și educare pentru a se garanta că persoanele care lucrează în domeniul aplicării legii sau în sistemul judiciar cunosc și înțeleg limitările, capacitățile și riscurile pe care le implică utilizarea sistemelor bazate pe IA, inclusiv riscul de absență a neutralității generat de automatizare; reamintește că includerea în seturile de date de utilizate pentru antrenarea IA a actelor de rasism comise de către forțele de poliție în îndeplinirea sarcinilor lor va conduce inevitabil la prejudecăți rasiste în constatările, evaluările cantitative și recomandările generate de IA; își reiterează, prin urmare, apelul adresat statelor membre de a promova politici de combatere a discriminării și de a elabora planuri naționale de acțiune împotriva rasismului în domeniul ordinii publice și al sistemului judiciar;

24. observă că activitățile polițienești bazate pe analiza predictivă se numără printre aplicațiile bazate pe IA utilizate în domeniul aplicării legii, dar avertizează că, deși ele pot analiza seturile de date existente pentru identificarea de regularități și corelații, ele nu pot elucida cauzalitatea și nu pot face predicții fiabile ale comportamentului individual, și în consecință nu pot constitui unicul temei pentru o intervenție; subliniază că mai multe orașe din Statele Unite au oprit utilizarea sistemelor de activități polițienești predictive după ce acestea au fost supuse la audituri; reamintește că, în timpul misiunii Comisiei LIBE în Statele Unite din februarie 2020, deputații au fost informați de către departamentele de poliție din New York și Cambridge, Massachusetts că au eliminat treptat programele polițienești bazate pe analiză predictivă din cauza ineficacității, impactului discriminatoriu și eșecului în practică, apelând în schimb la activități polițienești bazate pe implicarea în comunitate; observă că acest lucru a condus la o scădere a ratelor infracționalității; prin urmare, se opune utilizării IA de către autoritățile de aplicare a legii pentru a face previziuni ale comportamentului individual sau de grup pe baza datelor istorice și a comportamentului din trecut, a apartenenței la un grup, a localizării sau a oricăror alte astfel de caracteristici și a încerca să identifice astfel persoanele susceptibile de a comite o infracțiune;

25. observă că există diferitele tipuri de utilizare a recunoașterii faciale, cum ar fi verificarea/autentificarea (corelarea feței unei persoane cu o fotografie dintr-un document de identitate, de exemplu în cazul „frontierelor inteligente”), identificarea (corelarea unei fotografii cu o bază de date de fotografii) și detectarea (detectarea fețelor în timp real din surse precum înregistrările de televiziune cu circuit închis și corelarea acestora cu bazele de date, de exemplu în supravegherea în timp real), fiecare dintre acestea având implicații diferite pentru protecția drepturilor fundamentale; este ferm convins că introducerea de sisteme de recunoaștere facială de către autoritățile de aplicare a legii ar trebui să se limiteze la scopuri clar justificate, cu respectarea deplină a principiilor proporționalității și necesității și a legislației aplicabile; reafirmă că utilizarea tehnologiei de recunoaștere facială trebuie să respecte cel puțin cerințele de reducere a datelor, de precizie a datelor, de limitare a stocării, de securitate și responsabilitate a datelor, precum și cerința de a fi legală, corectă, transparentă și de a urmări un scop concret, explicit și legitim care este clar definit în legislația statelor membre sau a Uniunii; consideră că introducerea sistemelor de verificare și autentificare poate continua, iar acestea pot fi utilizate cu succes numai dacă efectele lor negative pot fi atenuate și dacă criteriile de mai sus sunt respectate;

26. solicită, de asemenea, interzicerea permanentă a utilizării în spațiile accesibile publicului a analizei și/sau a recunoașterii automate a altor caracteristici umane, cum ar fi mersul, amprentele digitale, ADN-ul, vocea și alte semnale biometrice și comportamentale;

27. solicită însă adoptarea unui moratoriu asupra introducerii, în scopuri de aplicare a legii, de sisteme de recunoaștere facială cu funcție de identificare, în afară de utilizarea strictă pentru identificarea victimelor infracțiunilor, până când se poate considera că standardele tehnice respectă pe deplin drepturile fundamentale, rezultatele sunt imparțiale și nediscriminatorii, cadrul juridic prevede garanții stricte împotriva utilizării abuzive și un control și o supraveghere democratice stricte și există dovezi empirice ale necesității și proporționalității introducerii unor astfel de tehnologii; observă că, în cazul în care criteriile de mai sus nu sunt îndeplinite, sistemele nu ar trebui utilizate sau introduse;

28. își exprimă îngrijorarea profundă în legătură cu utilizarea unor baze de date de recunoaștere facială private de către autoritățile de aplicare a legii și serviciile de informații, cum ar fi Clearview AI, o bază de date cu peste trei miliarde de imagini care au fost colectate ilegal de pe rețelele sociale și din alte locuri de pe internet, inclusiv de la cetățeni ai UE; invită statele membre să oblige actorii din domeniul aplicării legii să divulge dacă utilizează tehnologia Clearview AI sau tehnologii echivalente de la alți furnizori; reamintește că în opinia Comitetului european pentru protecția datelor (CEPD) utilizarea unui serviciu precum Clearview AI de către autoritățile de aplicare a legii din Uniunea Europeană probabil nu este în concordanță cu regimul UE de protecție a datelor; invită la interzicerea utilizării bazelor de date de recunoaștere facială private în domeniul aplicării legii;

29. ia act de studiul de fezabilitate al Comisiei privind posibilele modificări ale Deciziei Prüm[8], inclusiv în ceea ce privește recunoașterea facială; ia act de cercetările anterioare conform cărora niciun potențial identificator nou, de exemplu recunoașterea irisului sau recunoașterea facială, nu ar fi la fel de sigur într-un context criminalistic precum ADN-ul sau amprentele; reamintește Comisiei că orice propunere legislativă trebuie să se bazeze pe dovezi și să respecte principiul proporționalității; îndeamnă Comisia să nu extindă cadrul Deciziei Prüm dacă nu există dovezi științifice solide ale fiabilității recunoașterii faciale într-un context criminalistic în comparație cu ADN-ul sau amprentele digitale după ce a efectuat o evaluare completă a impactului și după ce recomandările Autorității Europene pentru Protecția Datelor (AEPD) și ale CEPD au fost luate în considerare.

30. subliniază că utilizarea datelor biometrice are legătură, în sens mai larg, cu principiul dreptului la demnitate umană, care stă la baza tuturor drepturilor fundamentale garantate de Cartă; consideră că utilizarea și colectarea oricăror date biometrice în scopuri de identificare la distanță, de exemplu prin efectuarea recunoașterii faciale în locuri publice, precum și la porțile de control automat utilizate pentru verificările la trecerea frontierei în aeroporturi, pot prezenta anumite riscuri pentru drepturile fundamentale ale căror implicații pot varia considerabil, în funcție de scopul, contextul și aria de utilizare; subliniază, de asemenea, că validitatea științifică a tehnologiei de recunoaștere a afectelor, cum ar fi camerele de luat vederi care detectează mișcări oculare și modificări ale dimensiunii pupilelor, este contestată în contextul aplicării legii; este de părere că utilizarea identificării biometrice în contextul aplicării legii și al sistemului judiciar ar trebui să fie întotdeauna considerată ca având un risc ridicat și, prin urmare, ar trebui să fie supusă unor condiții suplimentare, în conformitate cu recomandările Grupului de experți la nivel înalt privind IA al Comisiei;

31. își exprimă îngrijorarea profundă față de proiectele de cercetare finanțate în cadrul programului Orizont 2020 care utilizează inteligența artificială la frontierele externe, cum ar fi proiectul iBorderCtrl, un „sistem inteligent de detectare a minciunilor” care întocmește profilul călătorilor pe baza unui interviu automatizat prin cameră web luat călătorului înainte de deplasare și a unei analize bazate pe inteligență artificială a 38 de microgesturi, testat în Ungaria, Letonia și Grecia; invită, ca urmare, Comisia să aplice prin mijloace legislative și nelegislative și, dacă este necesar, prin intermediul procedurilor de constatare a neîndeplinirii obligațiilor, o interdicție privind orice prelucrare în scopul aplicării legii a datelor biometrice, inclusiv a imaginilor faciale, care are ca rezultat supravegherea în masă în spațiile publice; în plus, invită Comisia să oprească finanțarea cercetării sau a implementării datelor biometrice sau programele care sunt susceptibile a avea ca rezultat supravegherea în masă în spațiile publice; subliniază, în acest context, că ar trebui să se acorde o atenție deosebită utilizării dronelor în operațiunile polițienești și să i se aplice un cadru strict;

32. sprijină recomandările Grupului de experți la nivel înalt al Comisiei privind IA care pledează pentru o interdicție asupra atribuirii la scară largă a unui punctaj cetățenilor pe bază de IA; consideră că orice formă de atribuire normativă pe scară largă a unui punctaj cetățenilor de către autoritățile publice, în special în domeniul aplicării legii și al sistemului judiciar, duce la pierderea autonomiei, periclitează principiul nediscriminării și nu poate fi considerată conformă cu drepturile fundamentale, în special cu demnitatea umană, așa cum sunt ele consacrate în dreptul UE;

33. solicită să se dea dovadă de o mai mare transparență generală pentru a permite o înțelegere profundă a ceea ce înseamnă utilizarea aplicațiilor bazate pe IA în Uniune; solicită statelor membre să ofere informații detaliate privind instrumentele utilizate de autoritățile lor de aplicare a legii și judiciare, tipurile de instrumente utilizate, scopurile în care sunt utilizate, tipurile de infracțiuni cărora le sunt aplicate și denumirea societăților sau organizațiilor care au creat aceste instrumente; invită, de asemenea, toate autoritățile publice de aplicare a legii și judiciare să informeze publicul și să asigure o transparență suficientă a utilizării IA și a tehnologiilor conexe în exercitarea prerogativelor lor, inclusiv divulgarea ratelor de rezultate fals pozitive și fals negative ale tehnologiei în cauză; solicită Comisiei să colecteze și să actualizează informațiile într-un singur loc; invită Comisia să publice și să actualizeze și informații privind utilizarea IA de către agențiile Uniunii însărcinate cu aplicarea legii și cu atribuții judiciare; invită CEPD să evalueze legalitatea acestor tehnologii și aplicații IA utilizate de autoritățile de aplicare a legii și de sistemul judiciar;

34. reamintește că aplicațiile de IA, inclusiv cele utilizate în contextul aplicării legii și al sistemului judiciar, se dezvoltă într-un ritm rapid pe plan mondial; îndeamnă toate părțile interesate europene, inclusiv statele membre și Comisia, să asigure, prin cooperare internațională, angajamentul partenerilor din afara UE în favoarea creșterii standardelor internaționale și găsirii unui cadru juridic și etic comun și complementar pentru utilizarea IA, în special pentru autoritățile de aplicare a legii și sistemul judiciar, care să respecte pe deplin Carta, acquis-ul european în materie de protecție a datelor și drepturile omului în sens mai larg;

35. solicită Agenției pentru Drepturi Fundamentale a UE ca, în colaborare cu CEPD și AEPD, să elaboreze orientări cuprinzătoare, recomandări și bune practici pentru a detalia criteriile și condițiile pentru dezvoltarea, utilizarea și implementarea aplicațiilor și soluțiilor IA care să fie utilizate de autoritățile de aplicare a legii și judiciare; se angajează să efectueze un studiu privind punerea în aplicare a Directivei privind protecția datelor în materie de asigurare a respectării legii[9] pentru a identifica modul în care a fost asigurată protecția datelor cu caracter personal în activitățile de prelucrare de către autoritățile de aplicare a legii și judiciare, în special atunci când se dezvoltă sau se utilizează noi tehnologii; invită, de asemenea, Comisia să analizeze dacă este necesară o acțiune legislativă specială pentru specificarea mai detaliată a criteriilor și condițiilor pentru dezvoltarea, utilizarea și implementarea aplicațiilor și soluțiilor IA de către autoritățile de aplicare a legii și judiciare;

36. încredințează Președintelui sarcina de a transmite prezenta rezoluție Consiliului și Comisiei.

 


EXPUNERE DE MOTIVE

Inteligența artificială (IA) este una dintre tehnologiile strategice ale secolului 21, generând beneficii substanțiale în materie de eficiență, acuratețe și accesibilitate și aducând astfel o contribuție pozitivă la economia europeană. Printre altele, aplicațiile pe bază de IA au îmbunătățit asistența medicală, au sporit eficiența agriculturii, au contribuit la atenuarea schimbărilor climatice și la adaptarea la acestea și au îmbunătățit eficiența producției.

 

IA este una dintre principalele priorități ale actualei Comisii. Președinta Comisiei, Ursula von der Leyen, a anunțat în orientările sale politice o abordare europeană coordonată privind implicațiile etice și umane ale IA, precum și o reflecție asupra unei mai bune utilizări a volumelor mari de date în inovare. Recunoașterea importanței IA la nivelul UE a fost însoțită de un proces de reflecție asupra modului în care să se asigure încrederea în tehnologiile bazate pe IA și să se garanteze că IA nu compromite drepturile fundamentale în UE.

 

Totuși, Parlamentul European a abordat problema IA cu mai mulți ani înainte ca Comisia să decidă să o transforme într-o prioritate. Mai multe rezoluții privind volumele mari de date, robotica și inteligența artificială, adoptate de Parlament din 2016, demonstrează importanța acordată acestui subiect de Parlament. Rezoluțiile au analizat diferite implicații ale IA și modul în care afectează bunăstarea, educația, tehnologia, drepturile juridice și fundamentale, precum și industria în general. Aceste rezoluții au subliniat nevoia de a adopta o abordare centrată pe individ, bazată pe respectarea drepturilor fundamentale, și anume Carta UE și cadrul UE privind protecția datelor.

 

Ca „ansamblu de tehnologii care combină date, algoritmi și putere de calcul”, „progresele în materie de calcul și disponibilitatea tot mai mare a datelor sunt, prin urmare, factori-cheie ai actualei dezvoltări accelerate a IA”[10]. În centrul IA stă faptul că se bazează pe colectarea, analiza și acumularea repetată a unor volume mari de date, inclusiv de date cu caracter personal, dintr-o varietate de surse, care sunt prelucrate automat prin algoritmi informatici și tehnici avansate de prelucrare a datelor. Aceste tehnici utilizează atât datele stocate, cât și datele difuzate pentru a genera anumite corelații, tendințe și regularități (analiza volumelor mari de date). Datele utilizate pentru IA nu provin doar de la persoane fizice; Aplicațiile IA utilizează în principal date provenite din industrie, întreprinderi și sectorul public, prelucrate în diverse scopuri. Chiar dacă datele utilizate de aplicațiile IA pot fi uneori fără caracter personal, activitatea IA implică foarte des o prelucrare a datelor cu caracter personal, deoarece adesea activitatea IA conduce la decizii automatizate cu efect direct asupra persoanelor. Prin urmare, aceste caracteristici ale IA ne cer să acordăm o atenție deosebită respectării principiilor fundamentale ale protecției datelor și vieții private.

 

IA oferă posibilități deosebite în domeniul aplicării legii și justiției penale, în special în îmbunătățirea metodelor de lucru ale agențiilor de aplicare a legii și ale autorităților judiciare și în combaterea mai eficientă a anumitor tipuri de infracționalitate, în special a infracționalității financiare, a spălării banilor și a finanțării terorismului, precum și a anumitor tipuri de infracționalitate informatică. În acest sector, aplicațiile bazate pe IA includ, printre altele, tehnologii de recunoaștere facială, recunoașterea automată a numărului de înmatriculare, identificarea vorbitorului, identificarea vocală, tehnologii de lectură labială, supraveghere sonoră (adică algoritmi de detectare a focurilor de armă), cercetare și analiză autonomă a bazelor de date identificate, prognoză (activități polițienești predictive și de analiză a focarelor infracționale), instrumente de detectare a comportamentului, instrumente autonome de identificare a fraudelor financiare și a finanțării terorismului, monitorizarea platformelor de comunicare socială (extragere și recoltare de date în vederea explorării conexiunilor), sisteme de identificare a identității internaționale de abonat mobil (IMSI), precum și sisteme automate de supraveghere care includ diferite capacități de detectare (cum ar fi detectarea bătăilor inimii și camerele cu termoviziune). În sistemul judiciar, instrumentele IA pot fi utilizate pentru calcularea probabilităților de recidivă și pentru determinarea perioadei de probațiune sau pentru decizii în privința stabilirii pedepselor.

 

În pofida beneficiilor IA, problema este că IA presupune, în același timp, mai multe riscuri potențiale, cum ar fi opacitatea procesului decizional, diferite tipuri de discriminare, intruziunea în viața noastră privată, riscuri în materie de protecția datelor cu caracter personal, la adresa demnității umane și a libertății de exprimare și de informare. Aceste riscuri potențiale sunt agravate în sectorul aplicării legii și în cel al justiției penale, deoarece ele pot afecta prezumția de nevinovăție, drepturile fundamentale la libertatea și securitatea persoanelor, precum și dreptul la o cale de atac eficientă și la un proces corect.

 

Prezentul raport urmărește să abordeze chestiunile ridicate de utilizarea IA în dreptul penal și utilizarea acesteia de către autoritățile polițienești și judiciare în materie penală. Deși recunoaște potențialele posibilități și avantaje pe care le-ar putea implica IA, raportul scoate în evidență și riscurile și efectele semnificative pe care aceasta le poate avea.

 

Raportul subliniază necesitatea de a respecta pe deplin drepturile fundamentale, așa cum sunt consacrate în Carta drepturilor fundamentale a Uniunii Europene, în legislația Uniunii privind protecția vieții private și protecția datelor, și anume Directiva (UE) 2016/680 (Directiva privind cooperarea polițienească) și necesitatea de a include mai multe principii de bază în ciclul de viață al IA, cum ar fi explicabilitatea și transparența algoritmilor, trasabilitatea, efectuarea de evaluări obligatorii ale impactului asupra drepturilor fundamentale înainte de implementarea sau utilizarea oricărui sistem de IA și audituri obligatorii. Toate aceste cerințe sunt necesare nu numai pentru a asigura legalitatea sistemelor de IA, ci și pentru a obține încrederea cetățenilor în utilizarea acestora de către autoritățile de aplicare a legii și de către autoritățile judiciare penale.

 

În sfârșit, raportorul solicită ca introducerea sistemelor de recunoaștere facială în scopul aplicării legii să fie supusă unui moratoriu. Stadiul actual al acestor tehnologii și impactul semnificativ asupra drepturilor fundamentale necesită o dezbatere aprofundată și deschisă la nivelul societății pentru a analiza diferitele probleme ridicate și justificarea introducerii lor.


 

 

AVIZ AL COMISIEI PENTRU PIAȚA INTERNĂ ȘI PROTECȚIA CONSUMATORILOR (3.9.2020)

destinat Comisiei pentru libertăți civile, justiție și afaceri interne

privind inteligența artificială în dreptul penal și utilizarea sa de către autoritățile polițienești și judiciare în procedurile penale

(2020/2016(INI))

Raportor pentru aviz: Marcel Kolaja

 

 

SUGESTII

Comisia pentru piața internă și protecția consumatorilor recomandă Comisiei pentru libertăți civile, justiție și afaceri interne, care este comisie competentă, includerea următoarelor sugestii în propunerea de rezoluție ce urmează a fi adoptată:

A. întrucât, având în vedere atât potențialul societal pozitiv, cât și riscurile inerente ale inteligenței artificiale (IA), funcționarea pieței unice digitale ar trebui îmbunătățită prin creșterea securității juridice pentru furnizorii de IA, precum și prin creșterea securității și încrederii consumatorilor, întărind garanțiile pentru a asigura statul de drept și respectarea drepturilor fundamentale, în special dreptul la viața privată și la protecția datelor cu caracter personal, dreptul la egalitate și nediscriminare, dreptul la buna administrație, dreptul la un proces echitabil și dreptul la un nivel ridicat de protecție a consumatorilor; întrucât este necesar să se adopte o abordare europeană comună privind IA și să se reglementeze utilizarea sa de către autoritățile polițienești și cele responsabile de aplicarea legii în materie penală pentru a evita fragmentarea pieței unice;

B. întrucât autoritățile polițienești și judiciare utilizează adesea IA, cu titlu experimental sau în mod obișnuit, ceea ce implică diferite tipuri de utilizări, consecințe și riscuri, fie că este vorba de sisteme de recunoaștere facială, crearea de profiluri ADN, cartografierea predictivă a infracțiunilor, extragerea datelor din telefoanele mobile, motoare avansate de căutare a jurisprudenței, soluționarea online a litigiilor și învățarea automată pentru administrarea justiției;

C. întrucât utilizarea IA poate reprezenta o schimbare de paradigmă în administrarea justiției penale;

D. întrucât, potrivit raportului Agenției pentru Drepturi Fundamentale, în prezent, există doar puține informații disponibile cu privire la posibila utilizare sau testare a tehnologiilor de recunoaștere facială în statele membre[11];

E. întrucât, în statele membre în care au existat informații disponibile cu privire la utilizarea tehnologiilor de recunoaștere facială, autoritățile de protecție a datelor au constatat că utilizarea acestor tehnologii nu respecta legislația în materie de protecție a datelor și nu exista un temei juridic pentru utilizarea acestora;

F. întrucât, în domeniul pieței interne, prin reformarea procedurilor de achiziții publice, Uniunea își poate aduce o contribuție semnificativă în ceea ce privește alinierea acțiunilor și a comportamentelor guvernelor la obiective de politică secundare, cum ar fi protecția datelor și nediscriminarea;

G. întrucât discriminarea în procesele decizionale algoritmice bazate pe date poate avea loc în faza de proiectare, de testare și de punere în aplicare, prin tendințele părtinitoare incorporate în seturile de date sau în algoritmi;

H. întrucât este necesară o dezvoltare tehnică și o aplicare a IA bazate pe principii pentru a asigura respectarea drepturilor omului și a drepturilor fundamentale;

I. întrucât, la 4 decembrie 2018, Comisia Europeană pentru Eficiența Justiției din cadrul Consiliului Europei a publicat Carta etică pentru utilizarea inteligenței artificiale în sistemele judiciare, care stabilește principii etice pentru utilizarea IA în sistemele judiciare;

J. întrucât anumite utilizări ale tehnologiilor IA sunt deosebit de sensibile și predispuse la abuzuri, iar acest lucru a determinat recent anumite întreprinderi tehnologice să decidă să nu mai ofere programe informatice conexe,

1. consideră că IA utilizată de autoritățile polițienești și judiciare trebuie să fie clasificată, în general, ca având un grad ridicat de risc și să fie tratată cu cea mai mare atenție și însoțită de cele mai ridicate standarde de protecție a datelor, având în vedere rolul acestor autorități în apărarea interesului public și natura responsabilităților lor; consideră că este nevoie în mod urgent de un cadru european comun de reglementare a IA pe piața internă; consideră că UE ar trebui să preia inițiativa pentru stabilirea de reglementări la nivelul Uniunii, inclusiv în domeniul achizițiilor publice, bazate pe norme clare și pe principii de etică și drepturi fundamentale, în ceea ce privește dezvoltarea și utilizarea IA, astfel încât să se asigure același nivel ridicat de protecție a consumatorilor și standarde uniforme în acest sector în întreaga UE, pentru a permite o mai bună funcționare a pieței interne, încurajând în același timp inovarea și promovând securitatea juridică pentru întreprinderi, în special pentru IMM-uri; invită Comisia să examineze aplicarea legislației în vigoare și asigurarea respectării sale înainte de a face orice noi propuneri legislative;

2. recunoaște că utilizarea IA în domeniul justiției poate contribui la îmbunătățirea eficienței și a calității procedurilor; subliniază, în acest context, că trebuie respectate în special normele prevăzute de Convenția europeană a drepturilor omului și de Convenția Consiliului Europei pentru protejarea persoanelor față de prelucrarea automatizată a datelor cu caracter personal;

3. invită Comisia să evalueze, pentru fiecare țară, tehnologiile IA disponibile pe piață și măsura în care ele sunt utilizare de către autoritățile polițienești și judiciare;

4. subliniază că IA ar trebui să ușureze sarcina administrativă a autorităților publice și să sporească eficiența procesului decizional al acestora, și că sistemele de IA ar trebui să se bazeze pe supravegherea, colaborarea și coordonarea umană; subliniază, în acest sens, că responsabilitatea finală pentru orice proces decizional în materie penală ar trebui să le revină întotdeauna oamenilor; subliniază importanța unor seturi de date exacte atunci când acestea sunt utilizate pentru a sprijini procese de e-guvernare și procese decizionale administrative corespunzătoare în întreaga Uniune;

5. subliniază importanța de a permite inovarea, transparența, trasabilitatea și verificarea; subliniază că IA cu sursă deschisă ar putea contribui la acestea, consolidând, în același timp, cooperarea și promovând o cultură a schimbului de idei și de experiențe legate de utilizarea și crearea de algoritmi;

6. consideră că IA utilizată de autoritățile polițienești și de aplicare a legii în materie penală ar trebui considerată software cu sursă deschisă, atunci când este posibil în cadrul unei proceduri de achiziții publice, în conformitate cu legislația aplicabilă, inclusiv Directiva (UE) 2019/790 a Parlamentului European și a Consiliului din 17 aprilie 2019 privind dreptul de autor și drepturile conexe pe piața unică digitală, asigurând accesibilitatea documentației de software și a algoritmilor și permițând astfel autorităților competente să examineze modul în care sistemul de IA a ajuns la o anumită concluzie; subliniază că o evaluare prealabilă a conformității ar trebui să includă un audit privind drepturile fundamentale; consideră că, asigurând respectarea dreptului și a valorilor UE și a normelor aplicabile privind protecția datelor și fără a pune în pericol cercetările sau urmăririle penale, este esențial ca algoritmii să fie explicabili și imparțiali, precum și să îndeplinească obligația privind o transparență suficientă, și să fie utilizate date deschise pentru antrenament, în conformitate cu legislația aplicabilă, inclusiv Directiva (UE) 2019/1024 privind datele deschise și reutilizarea informațiilor din sectorul public, fără a aduce atingere Regulamentului (UE) 2016/679, pentru a se asigura că întreprinderile și cetățenii, inclusiv consumatorii, pot avea încredere în servicii publice mai bune, accesibile, nediscriminatorii și fiabile și pot beneficia de acestea la un cost echitabil;

7. subliniază că monitorizarea persoanelor și colectarea de date bazate pe IA ar trebui să se limiteze la persoanele suspectate de comiterea unor infracțiuni și la supravegherea aprobată de instanțe în conformitate cu legislația națională aplicabilă, ținând seama de respectarea vieții private și de prezumția de nevinovăție, inclusiv cea a altor utilizatori și consumatori care ar putea fi afectați fără voie de astfel de sisteme și practici; subliniază că, atunci când luarea de decizii este asistată de calcule statistice, factorii de decizie ar trebuie să dispună de o pregătire și calificare profesională adecvată care să garanteze că aceștia sunt formați cu privire la potențialul de părtinire, deoarece seturile de date se pot baza pe date discriminatorii și întemeiate pe prejudecăți; subliniază, în acest sens, importanța calității algoritmilor și a datelor originale și reamintește că utilizarea IA trebuie să se bazeze pe principiul nediscriminării la introducerea datelor și în cadrul analizelor; solicită ca procedurile de achiziții publice pentru astfel de aplicații să conțină garanții împotriva unor eventuale părtiniri; solicită schimburi de informații și de bune practici în ceea ce privește aplicarea tehnicilor și instrumentelor IA de către autoritățile judiciare și polițienești din statele membre, pentru a evita o abordare fragmentată în cadrul pieței unice și pentru a asigura protecția consumatorilor și a cetățenilor în întreaga Uniune;

8. insistă ca statele membre, în conformitate cu legislația penală aplicabilă, să se asigure că cetățenii și consumatorii sunt informați atunci când fac obiectul utilizării IA și că cetățenilor și consumatorilor li se pun la dispoziție proceduri de reclamație și căi de atac, inclusiv căi de atac judiciare, simple, eficace și ușor accesibile pentru a le permite să își apere în mod eficace drepturile;

9. reamintește riscul ridicat al anumitor tipuri de IA, inclusiv al tehnologiilor de recunoaștere facială în spațiile publice, al detectării automate a comportamentului și al creării de profiluri pentru a împărți persoanele în categorii de risc la trecerea frontierei, al detectării biometrice și recunoașterii în scopul supravegherii în masă, al atribuirii la scară largă a unui punctaj minim cetățenilor și al activităților polițienești predictive, și invită Comisia să reglementeze achiziționarea și utilizarea acestora pentru a elimina riscul de abuz; salută, în acest sens, activitatea în curs a Comisiei de a evalua utilizarea tehnologiilor biometrice și de a lua în considerare opțiunile de reglementare, inclusiv o abordare bazată pe riscuri și interzicerea acestora în anumite circumstanțe, și de a introduce garanțiile necesare în cazul în care utilizarea lor este justificată;

10. subliniază că puterea suverană a judecătorilor și luarea deciziilor de la caz la caz trebuie să fie menținute pentru a se evita standardizarea deciziilor pe baza unor calcule de natură pur statistică.


,

INFORMAȚII PRIVIND ADOPTAREA
ÎN COMISIA SESIZATĂ PENTRU AVIZ

Data adoptării

3.9.2020

 

 

 

Rezultatul votului final

+:

–:

0:

40

4

0

Membri titulari prezenți la votul final

Alex Agius Saliba, Andrus Ansip, Alessandra Basso, Brando Benifei, Adam Bielan, Hynek Blaško, Biljana Borzan, Vlad-Marius Botoș, Markus Buchheit, Dita Charanzová, Deirdre Clune, David Cormand, Petra De Sutter, Carlo Fidanza, Evelyne Gebhardt, Sandro Gozi, Maria Grapini, Svenja Hahn, Virginie Joron, Eugen Jurzyca, Arba Kokalari, Marcel Kolaja, Kateřina Konečná, Andrey Kovatchev, Jean-Lin Lacapelle, Maria-Manuel Leitão-Marques, Morten Løkkegaard, Adriana Maldonado López, Antonius Manders, Beata Mazurek, Leszek Miller, Dan-Ștefan Motreanu, Kris Peeters, Anne-Sophie Pelletier, Christel Schaldemose, Andreas Schwab, Tomislav Sokol, Ivan Štefanec, Kim Van Sparrentak, Marion Walsmann, Marco Zullo

Membri supleanți prezenți la votul final

Maria da Graça Carvalho, Anna Cavazzini, Krzysztof Hetman

 



VOT FINAL PRIN APEL NOMINAL ÎN COMISIA COMPETENTĂ

40

+

EPP

Maria da Graça Carvalho, Deirdre Clune, Krzysztof Hetman, Arba Kokalari, Andrey Kovatchev, Antonius Manders, Dan-Ștefan Motreanu, Kris Peeters, Andreas Schwab, Tomislav Sokol, Ivan Štefanec, Marion Walsmann

S&D

Alex Agius Saliba, Brando Benifei, Biljana Borzan, Evelyne Gebhardt, Maria Grapini, Maria-Manuel Leitão-Marques, Adriana Maldonado López, Leszek Miller, Christel Schaldemose

RENEW

Andrus Ansip, Vlad-Marius Botoş, Dita Charanzová, Sandro Gozi, Svenja Hahn, Morten Løkkegaard

ID

Hynek Blaško

GREENS/EFA

Anna Cavazzini, David Cormand, Petra De Sutter, Marcel Kolaja, Kim Van Sparrentak

ECR

Adam Bielan, Carlo Fidanza, Eugen Jurzyca, Beata Mazurek

EUL/NGL

Kateřina Konečná, Anne-Sophie Pelletier

NI

Marco Zullo

 

4

-

ID

Alessandra Basso, Markus Buchheit, Virginie Joron, Jean-Lin Lacapelle

 

0

0

 

 

 

Legenda simbolurilor utilizate:

+  :  pentru

-  :  împotrivă

0  :  abțineri

 


 

 

AVIZ AL COMISIEI PENTRU AFACERI JURIDICE (15.9.2020)

destinat Comisiei pentru libertăți civile, justiție și afaceri interne

privind inteligența artificială în dreptul penal și utilizarea sa de către autoritățile polițienești și judiciare în procedurile penale

(2020/2016(INI))

Raportor pentru aviz: Angel Dzhambazki

 

SUGESTII

Comisia pentru afaceri juridice recomandă Comisiei pentru libertăți civile, justiție și afaceri interne, care este comisie competentă, includerea următoarelor sugestii în propunerea de rezoluție ce urmează a fi adoptată:

A. întrucât dreptul la un proces echitabil este un drept fundamental și juridic obligatoriu, consacrat în Carta drepturilor fundamentale a Uniunii Europene și în Convenția europeană a drepturilor omului, în scopul aplicării legii; întrucât acest drept se aplică pe întreaga durată a procedurilor penale, inclusiv în ceea ce privește aplicarea legii, iar respectarea sa exclude, în toate etapele procedurii, luarea de măsuri, inclusiv tehnice, a căror consecință directă sau indirectă este de a priva de substanță drepturile apărării; întrucât garanțiile atașate acestui principiu, în special „independența instanței”, „egalitatea în fața legii” și prezumția de nevinovăție, sunt mai stricte în domeniul dreptului penal; întrucât aceste drepturi trebuie respectate în toate circumstanțele, în special în contextul utilizării inteligenței artificiale (IA), având în vedere mai ales faptul că tehnologiile bazate pe IA pot avea impact asupra mai multor drepturi ale omului;

B. întrucât protecția datelor personale, în conformitate cu Regulamentul general privind protecția datelor (RGPD)[12] și cu alte acte legislative relevante, unde este cazul, se aplică întotdeauna;

C. întrucât IA și tehnologiile conexe, inclusiv capacitățile lor de autoînvățare, implică întotdeauna un anumit nivel de intervenție umană;

D. întrucât IA ar putea deveni o parte permanentă a sistemelor de drept penal;

E. întrucât IA și tehnologiile conexe reprezintă o prioritate pentru Uniune, având în vedere evoluția rapidă a sectorului tehnologiei și importanța vigilenței cu privire la impactul lor prezent și viitor asupra sistemului european unic al drepturilor de proprietate intelectuală; întrucât diverse sectoare, cum ar fi robotica, transporturile și asistența medicală, pentru a numi doar câteva, implementează deja IA și tehnologiile conexe;

F. întrucât tehnologiile precum IA și tehnologiile conexe pot fi utilizate în domeniul dreptului penal pentru a reduce rata criminalității, pentru a facilita anumite proceduri prin utilizarea lor în prelucrarea datelor statistice pentru analiza și prevenirea infracțiunilor penale, precum și pentru a identifica și investiga cauzele penale; întrucât Uniunea ar trebui să-și dezvolte în continuare capacitățile în ceea ce privește software-ul, stocarea datelor și tehnologiile IA, pentru a remedia deficiențele legate de protecția datelor și a vieții private;

G. întrucât aceste tehnologii pot fi utilizate pentru a crea baze de date statistice anonimizate care să ajute autoritățile, cercetătorii și legislatorii să analizeze datele numerice, să conceapă politici eficiente de prevenire a infracționalității și să îi ajute pe infractori să se reintegreze cu succes în societate;

H. întrucât cadrul juridic al IA și aplicarea sa în dreptul penal ar trebui să includă, dacă este necesar, măsuri legislative, și în primul rând măsuri obligatorii de prevenire a practicilor care subminează clar drepturile și libertățile fundamentale;

I. întrucât, având în vedere natura intrinsec opacă a sistemelor de IA, noile instrumente utilizate în contextul justiției penale ar putea încălca anumite libertăți fundamentale;

J. întrucât trebuie prevenite și atenuate posibilele riscuri legate de aplicarea sistemelor de IA în domeniul justiției penale, pentru a garanta drepturile fundamentale ale suspecților și inculpaților în cadrul procedurilor penale;

1. subliniază că este de o importanță vitală ca riscurile utilizării sistemelor IA, cum ar fi discriminarea și încălcarea confidențialității, să fie evaluate corect și să fie luate în considerare toate implicațiile etice și operaționale ale utilizării IA și a tehnologiilor conexe în societatea noastră, în special de către autoritățile statului, poliție și autoritățile judiciare din sistemele de justiție penală, precum și chestiunile legate de răspundere și de regimul probatoriu; consideră că este necesar un cadru de reglementare clar, care să stabilească limite și să ofere garanțiile necesare; consideră că principiile etice, cum ar fi cele stabilite în „Carta etică europeană privind utilizarea inteligenței artificiale în sistemele judiciare și în contextele lor” a Consiliului Europei, trebuie luate în considerare și respectate de entitățile publice și private responsabile de proiectarea inițială și dezvoltarea instrumentelor și serviciilor de IA, astfel încât toți actorii sociali să aibă un acces complet la informațiile privind structurile corporative ale întreprinderilor care produc programe de IA; subliniază importanța factorului uman, care trebuie să fie întotdeauna factorul de decizie final în utilizarea programelor informatice bazate pe tehnologiile de IA și în cadrul sistemului penal, atât în misiunile poliției, cât și în justiția penală; reiterează faptul că software-ul de recunoaștere biometrică ar trebui utilizat numai în situațiile în care acest lucru este în mod clar justificat;

2. evidențiază necesitatea creării și menținerii unui echilibru între utilizarea sistemelor IA în cadrul procedurilor penale și respectarea tuturor drepturilor fundamentale și garanțiilor procedurale prevăzute în dreptul european și în cel internațional;

3. subliniază că este important ca IA să fie folosită respectând principiile statului de drept și independenței sistemului judiciar în cursul procesului decizional;

4. invită Comisia să clarifice normele privind protecția și schimbul datelor colectate prin IA și tehnologiile conexe de către autoritățile abilitate să colecteze și/sau să prelucreze astfel de date, inclusiv datele fără caracter personal și datele anonimizate care identifică direct sau indirect persoane, cu respectarea deplină a RGPD și a Directivei asupra confidențialității și comunicațiilor electronice[13]; subliniază, de asemenea, că dreptul la un proces echitabil ar trebui să includă dreptul cetățenilor și justițiabililor de a avea acces la aceste date, mai ales atunci când sunt colectate de la dispozitivele sau echipamentele lor personale, în conformitate cu RGPD, dar și în scopul dreptului lor la apărare, imediat ce răspunderea lor juridică este angajată;

5. subliniază importanța creșterii transparenței sistemelor de IA utilizate în justiția penală, pentru a permite controlul judiciar și a verifica dacă dezvoltatorii de IA și tehnologiile conexe asigură un nivel suficient de transparență a algoritmilor și a deciziilor algoritmice, în beneficiul autorităților competente și al cetățenilor; subliniază dreptul general al părților de a avea acces la procesele legate de colectarea datelor, de evaluările predictive utilizate în prevenirea criminalității, de catalogarea și evaluarea probelor penale, și de stabilirea măsurii în care o persoană suspectată ar putea fi un pericol pentru societate, dacă nu este limitat de legislația UE în vigoare, cum ar fi Directiva (UE) 2016/680[14]; subliniază, în plus, importanța accesului la rezultatele produse direct sau asistate de IA și, în cele din urmă, a stabilirii responsabilității pentru procedurile de notificare și rolului IA și al tehnologiilor conexe în materie penală, în special în ceea ce privește analiza unor volume mari de probe în anchetele penale și identificarea suspecților și a victimelor infracțiunilor penale; reamintește importanța aspectelor legate de guvernare, drepturile fundamentale și garanțiile procedurale, nediscriminare, responsabilitate, transparență, imparțialitate, corectitudine și integritatea intelectuală a IA și a tehnologiilor conexe, subliniind, în același timp, necesitatea de a asigura o supervizare umană permanentă; insistă asupra faptului că autoritățile judiciare trebuie să fie obligate să își justifice deciziile, inclusiv atunci când utilizează elemente de probă furnizate de IA sau obținute cu asistența IA, care necesită un nivel ridicat de control jurisdicțional și criterii de admisibilitate stricte, în conformitate cu Rezoluția sa din 16 februarie 2017 referitoare la robotică[15], în care se subliniază că ar trebui să fie întotdeauna posibil să fie comunicat raționamentul de la baza oricărei decizii luate cu ajutorul IA care poate avea un impact asupra vieții uneia sau mai multor persoane; reamintește distincția dintre utilizarea IA și a tehnologiilor conexe în prevenirea criminalității și în justiția penală; subliniază că tehnologiile IA trebuie să aibă întotdeauna un rol subordonat;

6. reamintește că cele mai grave utilizări abuzive ale IA și ale tehnologiilor conexe - cum ar fi supravegherea în masă, crearea de profiluri, programele de poliție predictive care pot estima locul probabil al producerii unei infracțiuni, localizarea suspecților, probabilitatea ca o persoană să devină victimă, vulnerabilitatea, declararea unei persoane ca dispărută sau victimă a violenței domestice sau a unei infracțiuni sexuale și încălcările dreptului la un proces echitabil - pot proveni de la autoritățile publice de aplicare a legii;

7. subliniază importanța utilizării datelor autogenerate în colectarea și analiza dovezilor; reamintește că atât în domeniul prevenirii criminalității, cât și în cel al justiției penale, erorile și utilizările abuzive ale analizei datelor de intrare și de ieșire, precum și interpretarea acestora, pot fi datorate factorului uman implicat și solicită, prin urmare, o abordare prudentă atunci când se analizează eficacitatea și caracterul adecvat al utilizării tehnologiilor IA în toate procesele decizionale;

8. invită toate autoritățile publice competente, în special autoritățile de aplicare a legii, cum ar fi poliția și sistemul judiciar, să informeze publicul și să ofere suficientă transparență în ceea ce privește utilizarea IA și a tehnologiilor conexe în aplicarea prerogativelor lor, în special în materie penală;

9. consideră că este fundamental ca aplicarea sistemelor de IA în contextul procedurilor penale să garanteze respectarea principiilor procesuale penale de bază, printre care dreptul la un proces echitabil, prezumția de nevinovăție și dreptul la o cale de atac eficientă, precum și să asigure monitorizarea și controlul independent al sistemelor de decizie automată;

10. subliniază importanța principiului controlului uman și al verificării rezultatelor produse integral de IA sau cu asistența acesteia; reamintește importanța chestiunilor legate de guvernanță, transparență, explicabilitate și responsabilitate pentru garantarea drepturilor fundamentale și pentru evitarea posibilelor deficiențe ale IA;

11. subliniază abordarea sa prudentă în privința utilizării programelor informatice de recunoaștere biometrică; subliniază ambiguitatea care rezultă dintr-o insuficiență inerentă în privința protecției datelor și a încălcărilor confidențialității datelor; ia act cu îngrijorare de acumularea datelor cu caracter personal ale cetățenilor din Uniunea Europeană de către țări străine, prin intermediul dezvoltatorilor și al furnizorilor din sectorul privat;

12. reamintește că, în conformitate cu normele UE în vigoare privind protecția datelor și cu Carta drepturilor fundamentale a Uniunii Europene, IA poate fi utilizată doar în scopul recunoașterii biometrice la distanță, dacă utilizarea este justificată corespunzător, proporțională și însoțită de garanții adecvate; salută recomandările Grupului de experți la nivel înalt al Comisiei privind IA, referitoare la o utilizare proporțională, atentă și bazată pe riscuri a tehnologiei de recunoaștere biometrică, cu respectarea legislației privind protecția datelor personale; sugerează ca aplicarea acestei tehnologii să fie justificată clar pe baza legislației existente și propune Comisiei să vadă cum pot fi integrate efectiv aceste recomandări, ținând seama, în special, de dreptul la viața privată și la protecția datelor cu caracter personal;

13. este ferm convins că deciziile luate de IA sau de tehnologiile conexe, în special în domeniul justiției și al aplicării legii, care au un impact direct și semnificativ asupra drepturilor și obligațiilor persoanelor fizice sau juridice, ar trebui să facă obiectul unei verificări umane riguroase, cu garanții procedurale;

14. consideră că trebuie analizat dacă este preferabil sau nu ca deciziile de aplicare a legii să fie delegate IA și, dacă da, în ce condiții și în ce privințe ar putea statele membre permite o astfel de utilizare a IA; consideră că IA și tehnologiile conexe care pot înlocui deciziile autorităților publice ar trebui tratate cu cea mai mare precauție; subliniază că trebuie stabilite coduri de conduită speciale pentru conceperea și utilizarea IA, pentru a ajuta autoritățile de aplicare a legii și autoritățile judiciare în cazul în care deciziile de aplicare a legii ar fi delegate IA; menționează activitatea în curs a Comisiei pentru afaceri juridice.


INFORMAȚII PRIVIND ADOPTAREA ÎN COMISIA SESIZATĂ PENTRU AVIZ

Data adoptării

10.9.2020

 

 

 

Rezultatul votului final

+:

–:

0:

22

3

0

Membri titulari prezenți la votul final

Manon Aubry, Gunnar Beck, Geoffroy Didier, Angel Dzhambazki, Ibán García Del Blanco, Jean-Paul Garraud, Esteban González Pons, Mislav Kolakušić, Gilles Lebreton, Karen Melchior, Jiří Pospíšil, Franco Roberti, Marcos Ros Sempere, Liesje Schreinemacher, Stéphane Séjourné, Raffaele Stancanelli, Marie Toussaint, Adrián Vázquez Lázara, Axel Voss, Marion Walsmann, Tiemo Wölken, Lara Wolters, Javier Zarzalejos

Membri supleanți prezenți la votul final

Heidi Hautala, Emil Radev

 


 

 

VOT FINAL PRIN APEL NOMINAL ÎN COMISIA SESIZATĂ PENTRU AVIZ

22

+

EPP

Geoffroy Didier, Esteban González Pons, Jiří Pospíšil, Emil Radev, Axel Voss, Marion Walsmann, Javier Zarzalejos

S&D

Ibán García Del Blanco, Franco Roberti, Marcos Ros Sempere, Tiemo Wölken, Lara Wolters

RENEW

Karen Melchior, Liesje Schreinemacher, Stéphane Séjourné, Adrián Vázquez Lázara

ID

Gunnar Beck, Jean-Paul Garraud, Gilles Lebreton

ECR

Angel Dzhambazki, Raffaele Stancanelli

NI

Mislav Kolakušić

 

3

-

VERTS/ALE

Heidi Hautala, Marie Toussaint

GUE/NGL

Manon Aubry

 

0

0

 

 

 

Legenda simbolurilor utilizate:

+ : pentru

- : împotrivă

0 : abțineri

 

 


INFORMAȚII PRIVIND ADOPTAREA ÎN COMISIA COMPETENTĂ

Data adoptării

29.6.2021

 

 

 

Rezultatul votului final

+:

–:

0:

36

24

6

Membri titulari prezenți la votul final

Magdalena Adamowicz, Konstantinos Arvanitis, Malik Azmani, Katarina Barley, Pernando Barrena Arza, Pietro Bartolo, Nicolas Bay, Vladimír Bilčík, Vasile Blaga, Ioan-Rareş Bogdan, Patrick Breyer, Saskia Bricmont, Joachim Stanisław Brudziński, Jorge Buxadé Villalba, Damien Carême, Caterina Chinnici, Marcel de Graaff, Anna Júlia Donáth, Lena Düpont, Cornelia Ernst, Laura Ferrara, Nicolaus Fest, Jean-Paul Garraud, Maria Grapini, Sylvie Guillaume, Andrzej Halicki, Evin Incir, Sophia in ‘t Veld, Patryk Jaki, Marina Kaljurand, Fabienne Keller, Peter Kofod, Łukasz Kohut, Moritz Körner, Alice Kuhnke, Jeroen Lenaers, Juan Fernando López Aguilar, Lukas Mandl, Roberta Metsola, Nadine Morano, Javier Moreno Sánchez, Maite Pagazaurtundúa, Nicola Procaccini, Emil Radev, Paulo Rangel, Terry Reintke, Diana Riba i Giner, Ralf Seekatz, Michal Šimečka, Birgit Sippel, Sara Skyttedal, Martin Sonneborn, Tineke Strik, Ramona Strugariu, Annalisa Tardino, Tomas Tobé, Dragoş Tudorache, Milan Uhrík, Tom Vandendriessche, Bettina Vollath, Elissavet Vozemberg-Vrionidi, Jadwiga Wiśniewska, Elena Yoncheva, Javier Zarzalejos

Membri supleanți prezenți la votul final

Tanja Fajon, Miguel Urbán Crespo

 


VOT FINAL PRIN APEL NOMINAL ÎN COMISIA COMPETENTĂ

36

+

NI

Laura Ferrara, Martin Sonneborn

Renew

Malik Azmani, Anna Júlia Donáth, Sophia in ‘t Veld, Fabienne Keller, Moritz Körner, Maite Pagazaurtundúa, Michal Šimečka, Ramona Strugariu, Dragoş Tudorache

S&D

Katarina Barley, Pietro Bartolo, Caterina Chinnici, Tanja Fajon, Maria Grapini, Sylvie Guillaume, Evin Incir, Marina Kaljurand, Łukasz Kohut, Juan Fernando López Aguilar, Javier Moreno Sánchez, Birgit Sippel, Bettina Vollath, Elena Yoncheva

The Left

Konstantinos Arvanitis, Pernando Barrena Arza, Cornelia Ernst, Miguel Urbán Crespo

Verts/ALE

Patrick Breyer, Saskia Bricmont, Damien Carême, Alice Kuhnke, Terry Reintke, Diana Riba i Giner, Tineke Strik

24

-

ID

Nicolas Bay, Nicolaus Fest, Jean-Paul Garraud, Marcel de Graaff, Peter Kofod, Annalisa Tardino, Tom Vandendriessche

NI

Milan Uhrík

PPE

Magdalena Adamowicz, Vladimír Bilčík, Vasile Blaga, Ioan-Rareş Bogdan, Lena Düpont, Andrzej Halicki, Jeroen Lenaers, Lukas Mandl, Roberta Metsola, Nadine Morano, Paulo Rangel, Ralf Seekatz, Sara Skyttedal, Tomas Tobé, Elissavet Vozemberg-Vrionidi, Javier Zarzalejos

6

0

ECR

Joachim Stanisław Brudziński, Jorge Buxadé Villalba, Patryk Jaki, Nicola Procaccini, Jadwiga Wiśniewska

PPE

Emil Radev

 

Legenda simbolurilor utilizate:

+  :  pentru

-  :  împotrivă

0  :  abțineri

 

Ultima actualizare: 3 septembrie 2021
Aviz juridic - Politica de confidențialitate