Πρόεδρος. – Το επόμενο σημείο στην ημερήσια διάταξη αφορά την έκθεση του κ. Brando Benifei και του κ. Dragoş Tudorache σχετικά με την πρόταση κανονισμού του Ευρωπαϊκού Κοινοβουλίου και του Συμβουλίου για τη θέσπιση εναρμονισμένων κανόνων σχετικά με την τεχνητή νοημοσύνη (πράξη για την τεχνητή νοημοσύνη) και για την τροποποιίηση ορισμένων νομοθετικών πράξεων της Ένωσης [COM(2021)0206 - C9-0146/2021 - 2021/0106(COD)] (A9-0188/2023).
Brando Benifei, Relatore. – Signor Presidente, onorevoli colleghi, il mondo intero ci sta guardando mentre si susseguono allarmi su intelligenza artificiale in generale, rischio di estinzione della razza umana ad opera di algoritmi senzienti, allarmi spesso lanciati dalle stesse Big Tech che temono quello che hanno creato.
L'Europa nel frattempo è andata avanti, senza fermarsi, e negli scorsi mesi ha lavorato alacremente per proporre una risposta concreta ai rischi che già esistono, non quelli futuribili, di tecnologie potenti come l'intelligenza artificiale. Ci dicevano: così frenerete l'innovazione, così l'Europa non sarà mai competitiva. Mentre invece oggi molti di questi stessi ci danno ragione: le regole sono necessarie.
Oggi, quindi, siamo qui a chiedere al Parlamento il mandato per avviare i negoziati sulla prima legge al mondo in materia. La nostra posizione contiene molti miglioramenti alla proposta della Commissione, che chiariscono e aggiornano il testo, promuovono certezza giuridica, evitano le duplicazioni con le leggi esistenti, stimolano l'innovazione, mantenendo però come punto fermo l'essere umano e i suoi diritti fondamentali.
Esso deve rimanere il centro dell'approccio europeo all'intelligenza artificiale. Cito solo alcuni dei punti chiave della nostra proposta: una definizione chiara ed equilibrata, in linea con il lavoro delle organizzazioni internazionali; un capitolo per regolamentare i sistemi come ChatGPT, prima esclusi dal testo, per ottenere trasparenza e mitigare i rischi di discriminazione e di generazione di contenuti illegali; oltre al watermarking per rendere identificabili i contenuti prodotti dall'IA generativa che, seppure già previsto di fatto dall'articolo 52, penso andrà ancora più chiaramente specificato in sede di trilogo. Ma non abbiamo neanche dimenticato i rischi per l'ambiente nell'allenare gli algoritmi con miliardi di dati e parametri. Abbiamo introdotto l'obbligo per le aziende e per le autorità pubbliche che usano un'intelligenza artificiale ad alto rischio di effettuare una valutazione di impatto sui diritti fondamentali in base al contesto specifico di uso, come ulteriore salvaguardia per i gruppi vulnerabili.
Vanno inoltre ricordati l'aggiunta del diritto a un rimedio giudiziario, a una spiegazione, a essere rappresentati da un'azione collettiva in caso di impatto negativo sulla salute, sulla sicurezza o sui propri diritti fondamentali, e l'aggiunta dell'ambiente, della democrazia e dello Stato di diritto fra gli obiettivi da proteggere, oltre all'obbligo di discutere la messa in uso di un'intelligenza artificiale sul posto di lavoro con i sindacati e di informare i lavoratori coinvolti, oltre all'espansione delle pratiche considerate inaccettabili, come la polizia predittiva, la categorizzazione biometrica, la raccolta indiscriminata di immagini facciali dal web, il riconoscimento emotivo in alcuni contesti e l'opposizione all'uso del riconoscimento biometrico negli spazi pubblici a finalità di sorveglianza.
L'uso di queste telecamere non ha nessun beneficio provato sulla sicurezza dei cittadini, mentre sono provati i rischi di abuso, discriminazione e inaccuratezza, soprattutto su alcune persone, donne, persone non bianche, bambini. L'introduzione di queste tecnologie presenta rischi per la tenuta dei nostri paesi, per la sua tenuta democratica, e per questo ci batteremo con il Consiglio nei prossimi mesi per difendere questo approccio e contrastare pericoli per la nostra libertà.
Penso alle parole preoccupanti di alcuni ministri degli Interni, compreso quello italiano Piantedosi. Vogliamo che l'intelligenza artificiale dispieghi tutto il suo potenziale positivo per la creatività, la produttività e il miglioramento della vita quotidiana. Per questo ci siamo impegnati anche in un intenso lavoro di confronto con i legislatori di tutto il mondo perché si trovino approcci comuni.
Per questo sosteniamo il lavoro sull'AI Pact per anticipare gli effetti del regolamento e dell'AI Code of conduct per l'intelligenza artificiale generativa. Ma poniamo anche un chiaro monito: tutte le attività di avvicinamento e di adattamento sono utili, a patto che non pensino di sostituire le regole vincolanti che andremo a stabilire. Non ci faremo influenzare da tentativi che potrebbero arrivare da grandi imprese o istituzioni governative e non per diluire e indebolire questo sforzo di rendere più forti le nostre democrazie nel contesto della trasformazione tecnologica. Faremo del nostro meglio nell'interesse degli europei insieme alla Commissione, che ringrazio, insieme al Consiglio, insieme a tutti i colleghi.
Dragoş Tudorache, rapporteur. – Mr President, dear Commissioners, dear colleagues, as we move into this debate, I want to address the one question that I got the most over the past four years, working with many of you in the AIDA Committee and then working on this file. Is this the right time? Is this the right time for Europe to regulate AI?
And my question is resolutely ‘yes’. It is the right time because of the profound impact the AI has. And I am convinced that all of you today will be bringing these arguments to the fore. It is the right time also because hoping that companies will self-regulate is not enough to safeguard our citizens in our societies. And we are now hearing more and more of the digital giants out there fearing their own products. It is also the right time because we’ve done preparations and worked seriously, responsibly on this file.
And I want to start by thanking the Commission for having the foresight already some years ago to start preparing these rules and put them forward. I want to thank the leadership of all political groups and the leadership of this House for having the foresight to establish a Special Committee on Artificial Intelligence, because we are now better prepared as lawmakers and I think we have ever been, to actually tackle these rules.
And now let me move on to the rules themselves. What will we vote tomorrow? I will walk you through some of the key elements in many thanks to my co-rapporteur Brando with whom I worked very well for already pointing some out, I will try not to repeat them.
We have worked hard to provide a definition of AI that is not only agreed by all political groups in this House, but also aligned with that of the OECD and other partners such as the US. This gives the democratic world a starting point for developing a common terminology when discussing AI.
We are providing thorough texts developed in parliaments, start-ups and SMEs in Europe with a strong network of sandboxes so they can innovate, they can grow and develop technology in accordance with European values and in respect of fundamental rights, increasing the trust in their products as well as their competitiveness.
We have worked to put in place a coherent governance structure that makes sense. It is meant to ensure that we consolidate the digital single market, that Member States have the proper tools and support in place for the enforcement of this regulation, that Europe has a future-proof approach to new developments in AI and that we do not repeat some of the mistakes we have done with GDPR.
Ten or even five years down the line it is this governance structure that will give Europe the ability to deal with the rapid evolution of AI and to reap the most benefits from it. And we have worked first and foremost to ensure our citizens’ rights and freedoms are not just respected but protected and strengthened. We don’t want mass surveillance. We don’t want social scoring. We don’t want predictive policing in the European Union, full stop.
That’s what China does, not us. We want all public authorities, whether they distribute benefits or whether they enforce the law to be accountable, transparent and focused on our rights with strict democratic oversight.
Last but not least, I am proud that we had the foresight to devise a preliminary set of rules for AI. What took me by surprise and by storm is generative AI based on powerful foundation models. We worked on rules that allow technology to flourish and develop while ensuring that the models potentially used by millions of smaller companies and start-ups, as well as by hundreds of millions of individual users, that they are safe. We introduced obligations of diligence for content generated by these models and of transparency regarding copyrighted material used in their training. And very importantly, we found overwhelming consensus among all political groups on these rules. And that, I think, gives a very powerful statement,
Colleagues, I say, taking full responsibility for my words, we are making history. We are writing history. We are shaping the global development of AI in the right direction with humankind and human interests at the very centre.
Thank you very much. And I really want to give a special thanks to all the shadow rapporteurs for how we have come together around this text that we will vote on tomorrow.
Eva Maydell, rapporteur for the opinion of the Committee on Industry, Research and Energy. – Mr President, Executive Vice-President, Commissioner, dear colleagues, regulating artificial intelligence may at first sound like a very technical matter, but it is so much more than that. It is about asking ourselves the big question: what kind of society do we actually want to live in?
And to me, the answer is very clear. A society in which AI enables our democracy and not one in which it undermines it. But, of course, this is much more easier said than it is actually done in practice.
For us to get there, I think we should not be playing Whac-A-Mole or regulating the next big thing. It is about putting in place effective guardrails. It is about putting principles and mechanisms that will last for at least the next couple of years to come.
But it is also about working with our partners. It is about working with international partners to shape a global governance framework. It is about maximising the potential of AI, while at the same time addressing the existing and looming concerns.
So no, it is not technical. It is about the future of our democracy.
Marcel Kolaja, rapporteur for the opinion of the Committee on Culture and Education. – Mr President, Madam Executive Vice-President, Commissioner, colleagues, today we are writing history. The next era will be the era of artificial intelligence. And what we are about to do in this House is to give guarantees. Guarantees that European citizens will benefit from the development of AI, that they will not be discriminated, that AI will not be abused to spy on them.
We need to ensure that malfunctioning technologies will not ruin students’ future careers. That’s why technologies to proctor students during exams will be categorised as high risk.
Let me also speak about spying on citizens. We do not want governments to be able to identify everyone in every moment, to record where we walk, which places we visit, or who we talk to in the streets. Imagine your favourite example of the worst politician in your country. Now, would you want them to have a remote control to such spying? I don’t.
I believe that the use of facial recognition in public spaces must be banned.
Axel Voss, Verfasser der Stellungnahme des mitberatenden Rechtsausschusses. – Herr Präsident, Frau Vizepräsidentin, Herr Kommissar! Liebe Kolleginnen und Kollegen, recht herzlichen Dank auch für die ganze Zusammenarbeit, die uns zu einem Kompromiss gebracht hat. Die Wichtigkeit von KI muss man noch einmal, glaube ich, herausstellen. Das ist die Grundlage jeglicher Entwicklungen, die wir in der Zukunft im Digitalen haben werden.
Deshalb ist die Balance hier richtig: Es muss ausgewogen und es muss praxisnah sein. Während im KI-Weißbuch 2020 noch von einem Ökosystem der Exzellenz und einem Ökosystem des Vertrauens gesprochen wurde, haben wir hier in dem Vorschlag eigentlich nur noch das Ökosystem des Vertrauens, dazu die oftmals angstgetriebenen Vorschläge. Das macht das ganze Projekt aus meiner Sicht noch zu unausgewogen. Wie wollen wir so letztlich auch zur KI-Weltspitze aufschließen?
Das, was wir heute auf dem Tisch liegen haben und worüber wir morgen abstimmen werden, bedarf meines Erachtens zusätzlicher Maßnahmen, damit das auch für unsere Industrie am Ende zu einer Erfolgsgeschichte werden kann. Die Kommission und die Standardisierungsorganisationen müssen nun rechtzeitig die essenziellen Orientierungshilfen ergreifen und technische Standards bereitstellen. In den Trilogverhandlungen sollten wir meines Erachtens noch die Überschneidungen und Widersprüche mit vielen anderen Digitalgesetzen und sektoriellen Regelungen konsequent identifizieren und auch beheben. Es muss meines Erachtens auch sichergestellt werden, dass innerhalb der Europäischen Union tatsächlich dieselben Regeln gelten. Wir sollten also die Fehler der DSGVO hier nicht wiederholen.
Wir sollten über Innovationsförderung sprechen − durch besseres Training von Datensätzen muss es nämlich eben auch signifikant verbessert werden. Und meines Erachtens noch ein letzter Punkt: Für die KMU und Startups muss diese teure Einhaltung der Digitalgesetze irgendwie etwas erleichtert werden. Wir müssen dort mehr Ausnahmeregelungen schaffen und vielleicht auch in die KI-Wertschöpfungsketten unterstützend eingreifen, damit wir auch die Chance haben, als Kontinent insgesamt nach vorne zu kommen.
Margrethe Vestager,Executive Vice-President of the Commission. – Mr President, this is indeed big. It is historic, this debate and the vote tomorrow. I want to congratulate the European Parliament, the rapporteurs and the shadows for this impressive work, not only in relation to the proposal, but also in the preparation, in the in-depth understanding of what it is that we are dealing with. I think this is what has enabled you to strike a compromise on striking 3 300 amendments and developing a comprehensive legislative approach on general—purpose AI. An impossible task for the unprepared, nor even an easy task for the well prepared, as Parliament had been.
Just a few words about why we table this proposal in the first place. Because when it comes to technology, the most important thing when you embrace it is that you can trust it, and only by embracing something can you control it. If you keep it at arm’s length, it is very difficult to get a tight grip. And what we can do here is to create trust, legal certainty, to enable AI to develop in a positive manner, to serve our society, our ambitions, the sectors, the businesses, the industry. We can do amazing things with artificial intelligence when we can trust it.
When we started our journey, I frequently got the question, ‘Why are you regulating AI? This will hamper innovation. Why do not just let it go?’ But I think by now everyone realizes that this is the important moment. Yes, this is the time. And also, this has matured the outer world to see that the risk-based approach, the focus on the use of technology, that is the future-proof one.
I think this is also a chance to put a big line under the Brussels effect. The work of this Parliament is not to be seen in isolation. It is to be seen with the ambition of democracy not only catching up with technology, but shaping how we use technology in the best interest of the human being.
I commend you and I look very much forward to the debate, the vote tomorrow and the process from there on.
Thierry Breton,membre de la Commission. – Monsieur le Président, Mesdames et Messieurs les députés, avant toute chose, je voudrais à mon tour féliciter les rapporteurs et les rapporteurs fictifs des différentes commissions ainsi que tous les membres de ce Parlement pour l’immense travail qui a été accompli sur la législation relative à l’intelligence artificielle.
Cette proposition de loi fait partie de nos efforts pour organiser notre espace informationnel au sein de notre marché intérieur et autour de quatre grands piliers, que je veux rappeler brièvement ici. Tout d’abord, la régulation des plateformes numériques, avec le règlement sur les services numériques et le règlement sur les marchés numériques. Ensuite, la création d’un marché unique des données avec le règlement sur la gouvernance européenne des données et le règlement sur les données. Enfin, la sécurisation de l’espace numérique avec notre stratégie cyber autour de la sécurité des réseaux et des systèmes d’information, de l’autorité crypto et de la loi sur la cybersolidarité. Et maintenant, la législation sur l’intelligence artificielle. La Commission l’a proposée en 2021, et il faut dire que l’on s’est attaqués, tous ensemble, à un sujet compliqué, à l’intersection de nombreux intérêts, de nombreux principes: l’innovation technologique, que nous poussons et qui doit progresser, l’encadrement des applications, le respect de nos valeurs si importantes et la sécurité.
Je le crois profondément: nous sommes le continent qui dispose du système démocratique le plus à même de pouvoir mener cette réglementation de manière équilibrée, transparente, responsable et proportionnée. Nous avons là aussi, sans doute, la possibilité d’établir progressivement une norme mondiale.
Revenons à la législation sur l’intelligence artificielle. Nous n’avons pas attendu ces appels pour agir au niveau de l’Union. L’Europe a fait preuve d’anticipation puisque, depuis 2021, nous travaillons tous ensemble sur une réglementation sur l’intelligence artificielle. C’est ce travail qui nous permet d’être la première juridiction au monde à établir désormais, en discussion aujourd’hui, des règles claires, lisibles, anticipables et proportionnées aux risques que peuvent comporter certaines applications d’intelligence artificielle, en favorisant dans le même temps le progrès technologique et l’innovation. Il ne s’agit pas de faire une pause, comme on peut l’entendre ici ou là, mais au contraire d’agir en responsabilité politique pour établir un cadre clair, régulé et sécurisé. C’est ce que nous faisons tous ensemble au niveau européen.
Pour ce qui est du rapport du Parlement en discussion, je voudrais me féliciter et me réjouir de l’approche fondée sur les risques, comme la Commission l’a proposé et comme l’ensemble des rapporteurs l’ont préconisé. Je constate aussi que le texte du rapport introduit quelques éléments nouveaux, bienvenus, comme la classification à haut risque, la gouvernance et l’innovation.
Quelques mots, si vous le permettez, sur l’intelligence artificielle à usage général et l’intelligence artificielle générative. – un sujet qui est aujourd’hui au centre de nombreux débats internationaux. J’estime qu’une tâche importante pour nous dans les négociations sera de veiller à ce que la législation sur l’intelligence artificielle apporte des réponses concrètes aux défis de l’intelligence artificielle à usage général, en particulier aux systèmes d’intelligence artificielle générative tels que ChatGPT et DALL·E. Je note que le Parlement européen, le Conseil et la Commission ont une compréhension commune sur la nécessité d’agir et sur la nécessité de transparence pour l’intelligence artificielle générative. Pour être clair, il s’agit d’identifier ce qui est créé par l’intelligence générative (images, vidéos, textes) en y ajoutant un marquage numérique. C’est un point central afin d’accroître la confiance des utilisateurs, mais aussi des consommateurs.
Il y a aussi d’autres défis à relever, tels que les biais et la désinformation. Ce sont là des questions cruciales pour nos sociétés, en particulier au moment où nous entrons dans un cycle électoral important au niveau européen et dans de nombreux États membres. Ces défis sont couverts, du reste, par notre proposition.
C’est pourquoi je considère que nous devons travailler ensemble et en parallèle de nos négociations sur la législation relative à l’intelligence artificielle, laquelle n’entrera en vigueur, comme on le sait, qu’en 2026, afin d’envoyer d’ores et déjà, dès qu’elle sera votée par votre Parlement après les trilogues, un message clair à tous les acteurs de l’intelligence artificielle, dès maintenant. C’est le sens du pacte sur l’intelligence artificielle, proposé il y a quelques semaines, dont l’objectif est de soutenir les entreprises dans la mise en œuvre à venir du règlement relatif à l’intelligence artificielle, dès que celui-ci sera adopté, afin que la transition se fasse aussi facilement, harmonieusement et rapidement que possible.
Il ne s’agit pas de remettre en cause, ni même d’anticiper, les délibérations en cours, mais bien de préparer les entreprises aux grandes orientations de la législation dans les meilleurs délais dès l’adoption, et nous nous engageons déjà avec les parties prenantes. Je tiens à dire que leurs retours sont particulièrement encourageants.
Enfin, je voudrais redire clairement que nous n’accepterons bien entendu aucune interférence à ce stade de notre processus démocratique de l’Union, sur des sujets aussi essentiels que l’intelligence artificielle, de la part de quiconque, que ce soit des instances internationales, des pays tiers ou des intérêts privés.
En conclusion, je voudrais me réjouir que les colégislateurs avancent sur cette réglementation, et j’espère bien entendu que demain le Parlement votera sa position, ce qui nous permettra de commencer les trilogues sans délai. Vous pouvez compter sur la Commission, sur moi-même et sur tous nos services pour accompagner les colégislateurs jusqu’à un accord.
Susana Solís Pérez, ponente de opinión de la Comisión de Industria, Investigación y Energía. – Señor presidente, señor comisario, estamos ante una legislación histórica. Europa es pionera en tener una ley de inteligencia artificial. Una tecnología que puede traer muchísimos beneficios, pero que también plantea claros riesgos en derechos fundamentales, en seguridad o en desinformación.
Por eso celebro el enfoque que ha adoptado esta ley, porque creo que es vital distinguir entre tecnología y uso. No condenamos la inteligencia artificial en sí, sino las prácticas de riesgo. Tenemos muy claro lo que para Europa es inadmisible —los usos prohibidos, por intrusivos y discriminatorios— y que las excepciones solo deben darse bajo autorización judicial. Queremos sistemas seguros y transparentes sujetos a reglas, límites y rendición de cuentas para los usos de alto riesgo como son las aplicaciones de salud, medio ambiente, transporte, educación o justicia. También tenemos claro que necesitamos una ley flexible, que incentive la innovación, que dé certidumbre a las empresas y que se pueda adaptar rápidamente al espectacular avance de la tecnología, como lo hemos visto en el desarrollo de la IA generativa con el Chat GPT, donde el tiempo apremia para que establezcamos ya requisitos de transparencia y de uso seguro.
Hoy en Europa damos un paso importante. Esta ley ayudará a los ciudadanos a generar confianza en la tecnología y a posicionarnos a la vanguardia de la inteligencia artificial.
Josianne Cutajar, rapporteur for the opinion of the Committee on Transport and Tourism. – Mr President, Madam Commissioner, colleagues, rapporteurs, it was a pleasure working with you from the transport side of things. Today’s vote places Europe at the forefront of becoming a global hub for cutting—edge innovation, channelling the potential of fair, accessible, transparent and trustworthy AI for our citizens. The act strives to achieve an important balance, encouraging investment, digitalisation and technological progress whilst regulating via a risk—based approach, respecting our European values and fundamental rights.
Our strides in this field must continuously seek to improve our quality of life, relying on human—centric models, keeping people in the driver’s seat while also ensuring that AI serves as an enabler for inclusive mobility and transport. All this can only be achieved if we ensure that our workforce is sufficiently skilled and our SMEs are kept on board. Fostering ethical AI built on responsibility and clear liability will create a culture of trust for consumers and investors alike, incentivising the uptake of technologies that can improve the lives of European citizens and the resilience of critical infrastructure, whether it is in the health or transport fields.
Deirdre Clune, on behalf of the PPE Group. – Mr President, Commissioner and colleagues, this is a ground-breaking piece of legislation. It is among the first global attempts to regulate AI, and AI has the capacity to solve the most pressing issues, including climate change or serious illness. And we want to lay the foundations for doing this here in the European Union.
This law could become the de facto global approach to regulating AI and especially new types of AI like foundation models. We cannot do this entirely on our own, but we should be leaders in ensuring that this technology is developed and used in a responsible ethical manner, while also supporting innovation and economic growth. It is a clear signal of our openness and our willingness to engage with our international partners on AI that we have aligned the definition with that of the OECD.
The AI takes a risk-based approach, and if an AI system is high risk, it must meet fairness, transparency and safety requirements. Systems that present an unacceptable risk will be prohibited. And underpinning all of this is an ambitious regime to support innovation in Europe. Our proposals on sandbox will help ensure that they are developed in a safe, responsible manner in areas that offer the most value and ingenuity in the EU.
We are among the first to tackle the fast-moving and evolving technology with a concrete legislative proposal on how to address those powerful foundation models to build trust and provide transparency and oversight of these systems.
The absolute minimum that we need to offer here is transparency. It must be clear that this content has not been made by human. And we also go one step further and ask developers of these large models to be more transparent and share their information with providers and how these systems were trained and how they were developed. This should address and alter the environmental sustainability of these systems.
So this legislation will contribute to building public trust and certainty with AI by establishing a regulatory oversight body and ensuring that we have openness and transparency.
Petar Vitanov, on behalf of the S&D Group. – Mr President, Madam Commissioner, all the colleagues spoke about the benefits. I am not going to repeat it. I also believe that we are on the verge of adopting legislation that will find this thin balance between the protection of fundamental rights, protecting the rule of law and promoting innovations.
At the same time, I have to raise some concerns because some colleagues from the EPP, they already tabled some amendments concerning biometric identity that are almost watering down all that we agreed in the IMCO/LIBE committee meeting and negotiating to a point which make all those bans meaningless.
And I’ll give you this story. I remember that story. We all remember this Pentagon project, I believe, that used AI systems to detect and identify humans. And out of eight troops, nobody was detected. All those guys, they use different amusing tricks, some somersaulting for 300m, some hitting cardboard boxes and one even looked like fruit tree – don’t even ask me what that means. The AI could not detect them because it was never trained of data of people doing so, and it does not possess the creative intelligence of a human being.
Colleagues from EPP will try to make the case how these systems could be used to catch criminals. But one thing is very clear to me: those who want to hide from AI systems will always find a way to do so, and always the innocent will suffer.
So it’s not a question of whether the AI systems have the potential to result in racially biased and discriminatory outcomes. We actually know for sure that this is the case. We see confirmation of this in the data provided of multiple NGOs. We keep seeing it during the LIBE mission to Washington DC, and we have heard it even from the EU High Commissioner for Human Rights.
And no, AI is not dangerous only when used by autocratic governments – when a technology is flawed, it’s flawed no matter who uses it for what purposes.
Svenja Hahn, im Namen der Renew-Fraktion. – Herr Präsident! Das Potenzial von künstlicher Intelligenz ist so groß, das können wir uns heute kaum vorstellen − für alle Lebensbereiche, sei es Bildung, Arbeit oder Gesundheit. Deswegen ist es so wichtig, dass wir mit dem Gesetz über künstliche Intelligenz heute die Grundlage dafür legen wollen, welche Art der Anwendung von künstlicher Intelligenz wir in einer liberalen Demokratie haben wollen. Denn Chance und Risiko liegt immer in der Anwendung.
Gesichtserkennung − super praktisch, um ein Handy zu entsperren, aber biometrische Gesichtserkennung zur Überwachung im öffentlichen Raum, liebe Kollegen, das kennen wir aus China. Das hat in einer Europäischen Union nichts zu suchen.
Wir müssen solchen Gefahren einen klaren Riegel vorschieben und gleichzeitig Innovation made in Europe fördern. Dafür stärken wir zum Beispiel das Experimentieren in Reallaboren. Deshalb haben wir uns entschieden, für Allzweck-KI und generative KI, wie ChatGPT, auf Qualitätsstandards zu setzen und eben nicht auf Verbote oder eine Hochrisiko-Einstufung. Denn wir dürfen beim Gesetz über künstliche Intelligenz weder Fantasien von Überwachung noch von Überregulierung folgen.
Unser Ziel muss es sein, Bürgerrechte zu stärken, Wirtschaft und Innovation zu beflügeln, damit wir die Europäische Union zum Hotspot für Fortschritt und künstliche Intelligenz machen können.
Kim Van Sparrentak, namens de Verts/ALE-Fractie. – Voorzitter, hoe willen wij dat de toekomst van onze maatschappij eruitziet? Laten we computers bepalen wie goed of fout is, wie fraudeur of crimineel zal zijn, op basis van waar je woont, van welke sportclub je lid bent en welk beroep je ouders hebben? Of gaan we uit van het goede in mensen en geven we iedereen een eerlijke kans?
Kiezen we voor een samenleving waar mensen continu gevolgd worden door zogenaamd slimme camera’s, zodat overheden en bedrijven elke dag precies weten waar je bent en wat je doet? Of kiezen we voor een samenleving waar je vrij over straat kunt gaan?
Door de snelle opkomst van kunstmatige intelligentie moeten we fundamentele keuzes maken over onze toekomst. Bepalen verkozen volksvertegenwoordigers dat door het opstellen van stevige regels? Of leggen we de toekomst van onze samenleving in handen van grote techbedrijven onder het mom van innovatie?
Ik zeg: laten we kunstmatige intelligentie de goede kant opsturen, naar technologie die mens en milieu vooruithelpt en risico’s bij het gebruik van AI voor mensenrechten zoveel mogelijk beperken.
Na anderhalf jaar en honderden uren aan de onderhandelingstafel ben ik ook echt trots dat het Europees Parlement nu keuzes maakt en morgen stemt over een sterk recht op informatie en uitleg, zodat mensen bij de inzet van AI nooit met lege handen tegenover een computer staan en weten wanneer een algoritme wordt ingezet. Een verplichte mensenrechtentoets voordat we risicovolle AI inzetten. Strenge verplichtingen over hoe je je systemen ontwerpt en traint en hoe je met data omgaat. Want wat je in een AI-systeem stopt, komt er ook uit. Dat geldt ook voor discriminerende data en desinformatie. En dat we binnen de regels grenzen stellen in plaats van zelfregulering voor grote modellen zoals ChatGPT.
Voor het eerst wereldwijd gaan we rapporteren over de milieu-impact, en de milieustandaarden voor systemen als ChatGPT willen we verplicht stellen. Ook willen we een verbod op onethische technologieën als emotieherkenning, gender- of seksualiteitsherkenning en real time gezichtsherkenning in de publieke ruimte.
Europa moet tussen surveillance van China en techkapitalisme van Amerika zijn eigen weg kiezen. Door onze eigen voorwaarden te stellen voor nieuwe technologieën zorgen we ervoor dat deze technologieën in Europa betrouwbaar, ethisch, veilig en milieuvriendelijk zijn. Alleen zo beschermen we onze democratie en zorgen we ervoor dat technologie gebruikt wordt in dienst van mens en milieu in plaats van andersom.
Kosma Złotowski, w imieniu grupy ECR. – Pani Przewodnicząca! Cyfryzacja może być skutecznym lekarstwem na wiele wyzwań, przed którymi stoimy jako ludzkość. Sztuczna inteligencja otwiera przed nami nowe możliwości w wielu obszarach życia i sektorach gospodarki, ale tak jak każdy lek niesie z sobą także skutki uboczne. Dlatego musimy korzystać z tej technologii świadomie, rozumiejąc związane z nią zagrożenia i ryzyka, ale dostrzegając także, że jej rozwijanie i stosowanie może przynieść o wiele więcej korzyści niż problemów. Żeby to osiągnąć, potrzebujemy nie tylko unijnych regulacji, ale także solidnego globalnego partnerstwa na rzecz tworzenia godnej zaufania sztucznej inteligencji, która będzie bezpieczna i etyczna.
Dla grupy ECR najważniejszym w pracach nad tym rozporządzeniem było zapewnienie równowagi między nowymi obowiązkami administracyjnymi dla przedsiębiorstw, zwłaszcza europejskich małych i średnich firm technologicznych, a odpowiednim poziomem ochrony konsumentów i obywateli. Dziękuję sprawozdawcom za ich wysiłek włożony w znalezienie tego delikatnego kompromisu oraz moim współpracownikom i ekspertom, którzy wspierali mnie w trakcie negocjacji. Sztuczna inteligencja już z nami jest, dlatego potrzebujemy tych przepisów jak najszybciej, żeby ją kontrolować i rozumieć. Mam nadzieję, że jutro wykonamy kolejny krok w tym kierunku.
Anders Vistisen, for ID-Gruppen. – Hr. formand! Debatten, vi har her i dag om kunstig intelligens, er en, der er fyldt med etiske dilemmaer og svære spørgsmål. For på den ene side er der ingen tvivl om, at teknologien har en utrolig stor evne til potentielt at kunne forbedre menneskers levevilkår, kunne effektivisere store dele af den aktivitet, der foregår både inden for privatsfæren, men også inden for forretningsverdenen. Men på den anden side, så er der også nogle potentielle faldgrupper, som kan være dybt problematiske. Særligt forholdet omkring mindreåriges beskyttelse. Bekymringen for de såkaldte "deepfakes" synes jeg er helt reel og noget, der kræver en fornuftbaseret regulering, og derfor er vi også villige til at se på den regulering, der bliver fremført, med positivt sind for at se, om man ikke på europæisk plan kan finde en fornuftig retning i forhold til reguleringen af den kunstige intelligens. Et af de bekymringspunkter vi dog har, er, når vi ser historisk set på vores regulering af techgiganter, så har der været for lidt beskyttelse af ytringsfriheden. Der har været en tendens til at gå meget hårdt til techgiganterne, og det har medført ofte en censur og en selvcensur fra techgiganternes side, som har været en skævvridning af demokratiet og fundamentale rettigheder for brugerne af de platforme, der er tale om. Derfor har vi en stor og reel bekymring for, når vi indgår reguleringen på techgiganter omkring det teknologiske område, at vi også sørger for at varetage beskyttelsen af de fundamentale rettigheder, herunder ytringsfriheden i vores regulering, så den står hævet over den forretningsmæssige regulering, der selvfølgelig skal være af dette nye område.
Kateřina Konečná, za skupinu The Left. – Pane předsedající, vážená paní komisařko, kolegové, kolegyně, v případě přijetí by byl akt o umělé inteligenci prvními pravidly pro umělou inteligenci na světě. To je jistě pro Evropskou unii velmi ambiciózní cíl, být v této oblasti první na světě a udávat tak trendy regulace těchto rapidně se rozvíjejících technologií. A proto by také nemělo být ambiciózní pouze to, kolikátí na světě budeme, ale především také, zda budou tato pravidla ambiciózními a budou skutečně sloužit občanům a ochraně občanů Evropské unie, jejich základních práv či jejich zdraví.
Bohužel text, který vzešel z jednání výborů IMCO a LIBE, ambiciózní pravidla postrádá. Neexistují případy, kdy užívání AI k určování přístupu osob ke vzdělání, při hodnocení uchazečů o práci nebo rozhodování o udělení výpovědi nebude vysoce rizikové užívání. Pokud nám opravdu jde o ochranu občanů, musí pro tato užívání platit co nejpřísnější pravidla a kontroly. Ale v současném textu by tato užívání nebyla automaticky hodnocena jako vysoce riziková. Opakuji, neexistuje případ, kdy ponechání rozhodování o osudu zaměstnanců na umělé inteligenci nebude vysoce rizikové. Předběžná opatrnost je tedy zcela namístě a v textu ale nicméně chybí. Zároveň se nedá mluvit o dobré regulaci, pokud povoluje sledování zaměstnanců na pracovišti za pomocí umělé inteligence bez jejich souhlasu. Je vážně naším cílem dát najevo, že tato korporátní dystopie, kde každý krok zaměstnanců bude na pracovištích jejich nadřízenými a zaměstnavateli sledován, je v Evropě v pořádku? Pokud ne, je potřeba užívání AI za tímto účelem zakázat. Společně s kolegyní Ernstovou jsme podaly řadu pozměňovacích návrhů, které mají ochranu občanů na prvním místě. V případě jejich přijetí bude možné přijmout i tento návrh. Pokud ale tyto připomínky nebudou adresovány a naše pozměňovací návrhy nebudou přijaty, není pro mě možné tento návrh podpořit.
Milan Uhrík (NI). – Vážený pán predsedajúci, pracoval som na programovaní umelej inteligencie počas doktorandského štúdia a myslím si, že nič nevypovedá o hrôzostrašnosti umelej inteligencie viac ako ten prípad, čo sa stal študentovi, ktorý sa pýtal chatbotu od Microsoftu, že keby si mal vybrať medzi prežitím svojím a prežitím človeka, čo by si vybral? A chatbot mu odpovedal: moje prežitie. Umelú inteligenciu určite bude treba regulovať. Predstavte si, že napríklad nejaký automobil, ktorý riadi umelá inteligencia, havaruje. Kto bude zodpovedať za škodu? Predstavte si, že nedajbože to auto riadené umelou inteligenciou niekoho zabije. Kto pôjde do väzenia? Ten počítač? Nehovorím o ďalších rizikách v oblasti sociálnej. Umelá inteligencia, umelá neurónová sieť sa dokáže naučiť kresliť za polhodinu. Ľudskému dieťaťu to trvá štyri roky. Hrozí, že ľudia budú prichádzať o prácu. A to nehovorím o rizikách vo vojenskej oblasti, o rizikách masového sledovania občanov, deepfake videí alebo ďalších hrozbách. Čiže určite treba tie varovania vedcov z celého sveta, že umelú inteligenciu treba regulovať, brať vážne. Je to naozaj fascinujúca, ale zároveň aj veľmi desivá oblasť, ktorú treba rozumne regulovať.
Jeroen Lenaers (PPE). – Mr President, this AI act we’re discussing today is a very important piece of legislation, and I really thank the rapporteurs and all the shadows, everybody who worked on this, for their diligent work, because we need a European approach and we need a human-centred approach. And I don’t think anybody also today in the debate, nobody has denied the benefits and the potential of artificial intelligence to make our societies more prosperous and our economies more efficient.
And in order to reach that potential, we need to make sure that AI is safe, reliable and trustworthy. It needs to be developed and used in an ethically and morally correct way, and the fundamental rights of our citizens must be protected. But we should not only discuss how to protect our citizens from AI, we also need to make sure we can use AI to protect our citizens.
When a child goes missing, every second counts. Seventy-six per cent of abducted children that tragically do not survive the abduction die within the first three hours of their disappearance. Every second counts. And we need to make use of all the instruments at our disposal to prevent such tragedies from happening.
I think that we need a very realistic approach to this. I think the Commission proposal was very balanced on having targeted exceptions to a ban on this kind of technology. And this is also reflected in our amendment that we have tabled as the EPP to allow the use of technology in very targeted situations to find missing children, to prevent terrorist attacks and to fight heavy criminals. And I really count on the support of all the colleagues for such a balanced and targeted proposal.
Ibán García Del Blanco (S&D). – Señor presidente, efectivamente, estamos ante un día histórico, pero un día histórico que no surge de la casualidad, sino del trabajo madurado durante muchos años. Recuerdo el texto que se aprobó aquí sobre ética en inteligencia artificial en 2020, del que fui ponente, el trabajo de la Comisión Especial sobre Inteligencia Artificial y el gran trabajo de los ponentes en esta misma ley. Por supuesto, hace falta también agradecer a todo el personal técnico, a los ponentes alternativos y a la Comisión por su trabajo durante todos estos años para llegar hasta este punto.
Toca también lanzar un mensaje de confianza y de tranquilidad a la ciudadanía. La Unión Europea ha hecho los deberes, ha hecho su trabajo: ha cumplido con una legislación técnicamente solvente que aborda todos los problemas que se pueden generar en el uso de la inteligencia artificial, pero, al mismo tiempo, es optimista desde el punto de vista humanístico, que pone al ser humano en el centro, y que trata también de que haya una distribución equitativa de los beneficios que puede generar y que generará con seguridad la inteligencia artificial.
Asimismo, la Unión Europea toma su propio camino, se hace autónoma y madura, y también marca el camino para el resto del mundo. Tratamos de ser una brújula en la que puedan mirarse el resto de los países.
Esta es la mejor Europa y es la Europa también que queremos mostrar hacia el exterior: la Europa que protege los derechos y que, al mismo tiempo, también cuida de la inversión, de la investigación y del salto tecnológico hacia adelante.
Karen Melchior (Renew). – Mr President, dear colleagues, kære Margrethe, we made it: over a year of negotiations, the AI Act has finally reached plenary. The outcome is a careful balance. It is a text that promotes innovation, that protects fundamental rights and fosters trustworthy AI. And these three aims were key to our work in the Legal Affairs Committee.
We voted to guarantee that open source developers who are driving the AI revolution would have space to experiment without being buried in paperwork. We ensure that users of AI have the right to an explanation, because for citizens to trust AI, they have to understand the decisions that it makes. And finally, we ensure that citizens have a right to recourse because decisions made by AI should never be final.
All of these provisions have found their way into the final text. This is great. But tomorrow, when we vote, we still have some decisions to make. We need to ban biometric mass—surveillance. The police already have efficient tools without infringing on our fundamental rights. We need to prevent intrusive pseudo—scientific behavioural recognition. We need to stop heartless automated migration decision—making. So I urge colleagues: vote to ban these dangerous practices. Vote for trustworthy AI that respects our fundamental rights.
Thank you very much to the two rapporteurs, to all of the shadows and to the Commission for the excellent work on this directive.
Sergey Lagodinsky (Verts/ALE). – Herr Präsident! Vielen Dank an die Berichterstatter. Danke für Ihre Ehrlichkeit, Verlässlichkeit und Vertrauen in der Zusammenarbeit. Wir haben einen guten Kompromiss geschaffen, und diesen müssen wir respektieren und − das sage ich an die Adresse der EVP-Kolleginnen und -Kollegen − respektieren und nicht konterkarieren.
Ehrlichkeit, Verlässlichkeit und Vertrauen, das sind auch die drei Eckpunkte dieser Verordnung. KI in Europa braucht das Vertrauen der Verbraucherinnen und Verbraucher. Unternehmer brauchen Verlässlichkeit. Sie brauchen verlässliche Leitlinien, um Nachhaltigkeit und innovatives Wachstum zu sichern.
Aber als Europas Gesetzgeber müssen wir Mut und Ehrlichkeit beweisen und sagen: Wo Grundrechte gefährdet sind, wo Diskriminierung anfängt, wo Umweltschäden drohen, da ziehen wir die Grenze. Deswegen schieben wir Techniken den Riegel vor, die behaupten, sie können erkennen, ob Manfred Weber glücklich oder sauer ist, die vorgeben, die sexuelle Orientierung von allen, die hier sitzen, anhand ihrer Mimik oder ihres Verhaltens festzustellen.
Und ja, wir wollen keine Massenüberwachung mit KI. Wir sind nicht der chinesische Volkskongress, wir sind nicht die russische Duma − wir sind das Europäische Parlament, und wir wirken in einem Raum der Freiheit und Demokratie. Die meisten Anwendungen – das ist wichtig zu sagen – sind von dieser Regelung nicht betroffen. Das ist auch gut so! Zwischen Technologiepessimismus und Technologieoptimismus wählen wir die richtige Balance: Technologierealismus. Die Balance in diesem Paket ist richtig. Wir haben diesen Weg zusammen beschritten, und wir gehen diesen Weg in die Zukunft gemeinsam weiter.
Rob Rooken (ECR). – Voorzitter, er komt een vloedgolf op Europa af. Kunstmatige intelligentie kan en zal waarschijnlijk ook de grootste revolutie van deze eeuw zijn. Onze manier van leven zal volledig veranderen.
Voor mij staat voorop – en daarover zijn we het eigenlijk allemaal eens hier – dat we een vrije samenleving moeten blijven waarin de grondrechten van mensen ook veilig zijn. Ik kijk altijd heel kritisch naar wetgeving vanuit de Europese Unie. Meestal ben ik ertegen, maar dit wetsvoorstel steun ik. Het beschermt onze rechten en als we niet willen dat die vloedgolf onze vrije samenleving wegspoelt, moeten we ook in actie komen.
Ik ben tegen biometrische systemen voor identificatie in de openbare ruimte. In real time, maar ook achteraf. De Europese Commissie en de Raad willen die laatste mogelijkheid wel hebben “bij uitzondering”, zeggen ze dan. Maar uitzonderingen openen altijd deuren en daar ben ik tegen. Eerst gaat het over terroristen of over kinderen die zoek zijn, zware criminaliteit en dan ook over andere verdachten. Voordat je het weet, zijn we stapje voor stapje allemaal onder surveillance van een AI-systeem. Ik roep u allen op om daar niet mee akkoord te gaan.
Die vloedgolf komt op Europa af en we kunnen de richting van het water niet keren, maar we kunnen wel een dijk bouwen om onze mensen te beschermen. Laten we dat doen.
PRESIDENZA DELL'ON. PINA PICIERNO Vicepresidente
Philippe Olivier (ID). – Madame la Présidente, la révolution numérique – et même la révolution cognitive – est en route, et nous soutenons la volonté de l’Union d’y apporter les régulations nécessaires. Pour autant, cette réponse normative n’est pas suffisante. Les spécialistes prévoient que la machine dépassera l’intelligence humaine en 2029 et qu’en 2045, elle sera un milliard de fois plus intelligente que tous les cerveaux humains.
L’Union européenne a raté tous les tournants technologiques des trente dernières années: le téléphone, l’IA, les nanotechnologies, l’espace ou encore la cyberdéfense. Le seul retard de notre continent en matière numérique et d’IA scelle peut-être son déclassement. Déclassement technologique et donc industriel, déclassement scientifique et donc économique, déclassement militaire et donc politique. Notre retard fait de nous des pays du tiers-monde numérique. Nous exportons nos matières premières et notre matière grise, et nous importons des produits numériques et des services à haute valeur ajoutée. Chaque jour qui passe rend le retard plus difficilement rattrapable. Cette défaillance signifie notre incapacité à maîtriser nos systèmes militaires, les objets connectés, nos centrales nucléaires, le trafic aérien et les voitures autonomes.
L’Union doit se ressaisir. Mais en est-elle capable, quand elle a adhéré à l’idéologie «décroissantiste» véhiculée par des Verts qui rêvent d’extinction? Comment l’Union européenne post-moderniste peut-elle aller vers le troisième millénaire quand elle se résigne à la vassalisation numérique et qu’elle a révoqué toute confiance dans la science et toute idée de progrès – parce que, finalement, elle a renoncé à l’idée même de puissance?
Cornelia Ernst (The Left). – Frau Präsidentin! Künstliche Intelligenz in Kombination mit Digitalisierung hat die Geschichte der Menschheit revolutioniert, vergleichbar mit dem Zeitalter der Industrialisierung. KI kann die Welt besser machen − oder die Gräben vertiefen zwischen Kontinenten und Menschen. KI hat keine Moral, die haben wir Menschen, im Guten wie im Schlechten. Weil das so ist, haben wir kein Recht auf Naivität, wenn es um KI geht.
Fluch und Segen liegen nah beieinander. Um KI zum Segen für Mensch und Umwelt zu entwickeln, braucht es zwingend klare, strikte Regulierungen, Vorsorgeprinzipien. Sonst wird KI zum Spielball der Mächtigen. Denn schon jetzt werden KI-Systeme eingesetzt, um im öffentlichen Raum zu überwachen, zu identifizieren, unsere Kriminalitätswahrscheinlichkeit vorauszusagen. Mittels KI kommt es dann zu Schlussfolgerungen, die unser Leben beeinträchtigen: Zugang zu Sozialhilfe, Bildung, Beschäftigung − all das ist möglich. Ohne mutige Regulierung − und darum geht es: mutige Regulierung − werden KI-Systeme die bestehenden gesellschaftlichen Schäden durch Massenüberwachung, die es jetzt schon gibt, und strukturelle Diskriminierung eher verschärfen.
Deshalb brauchen wir auch Verbote, und zwar klare Verbote: zum Beispiel ein vollständiges Verbot jeglicher Gesichtserkennungstechnologien − nicht nur in Echtzeit, sondern auch im Nachhinein.
Noch etwas: Wir werden keiner Regulierung zustimmen, die dazu beiträgt, Menschenrechtsverletzungen an den EU-Außengrenzen zu perfektionieren.
Edina Tóth (NI). – Madam President, thank you for today’s debate. I asked artificial intelligence to write me a speech in rhyme about regulating AI. This is the result: ‘The AI Act is a crucial step we must take to ensure that AI is developed without mistake. We must establish ethical guidelines and rules to ensure that AI is used as a tool for the benefit of all citizens and society and not just for profit or propriety. The AI Act will provide a framework that’s fair and ensure that AI is used with care. We must protect the rights of every European and ensure that AI is developed with precision.
‘So let us support the AI Act with conviction and ensure that AI is developed with a clear vision. Let’s seize the opportunity to make a positive impact and ensure that AI is developed with a responsible pact. Thank you, colleagues, for your attention. Let’s work together to ensure a bright AI dimension.’
Andreas Schwab (PPE). – Frau Präsidentin, Frau Vizepräsidentin, liebe Kolleginnen und Kollegen! Zunächst einmal gilt ein großes Dankeschön all denjenigen, die einen wirklich ausnehmend guten Kompromiss für das Gesetz über künstliche Intelligenz erarbeitet haben. Denn es kommt natürlich darauf an, dass wir mit diesem weltweiten Meilenstein, den die Europäische Union setzen kann, sicherstellen, dass die Regeln, die wir in Europa schaffen, einheitlich für alle in Europa gelten und nicht einem Wettlauf zwischen 27 Mitgliedstaaten schon innerhalb der Europäischen Union ausgesetzt sind. Hier schafft der Vorschlag des Europäischen Parlaments eine sehr, sehr gute Grundlage auch für die Verhandlungen mit dem Rat. Ich hoffe, dass es uns gelingt, diesen Ansatz der Vollharmonisierung durchzusetzen.
Zum Zweiten, liebe Kolleginnen und Kollegen, war mir immer besonders wichtig, dass wir versuchen, eine Doppelregulierung in innovativen Industrien, wie beispielsweise der Medizintechnik, zu vermeiden. Natürlich wird in der Medizintechnik viel künstliche Intelligenz eingesetzt, aber die dortigen Anwendungen sind bereits durch die jeweiligen Fachregulierungen ausschließlich und abschließend geklärt. Hier muss Doppelregulierung vermieden werden, und auch das ist gelungen.
Zum Dritten verstehe ich natürlich das Anliegen von vielen Kollegen, die Ausgangssituation für die Verhandlungen mit dem Rat schon jetzt in eine bestimmte Richtung zu drängen. Die EVP-Fraktion hat immer gesagt, dass es bestimmte politische Überlegungen gibt, die viele unserer Mitglieder wichtig finden. Länder, in denen Terrorismus eine große Rolle gespielt hat, haben einfach eine bestimmte nationale Identität, die es hier zu respektieren gilt. Deswegen ist es gut, dass es entsprechende Möglichkeiten zur Abstimmung gibt.
(Der Redner ist damit einverstanden, auf eine Frage nach dem Verfahren der "blauen Karte" zu antworten.)
Sergey Lagodinsky (Verts/ALE), Frage nach dem Verfahren der „blauen Karte“. – Herr Kollege, eine Frage: Finden Sie es in Ordnung, Ihrem eigenen Berichterstatter in den Rücken zu fallen − beiden Berichterstatterinnen?
Und zweitens: Kennen Sie die Fälle, wo in Russland mithilfe der Gesichtserkennung mitten auf den Straßen Menschen praktisch aus den Metros, aus den Straßen weggezerrt worden sind und verhaftet worden sind, nur weil sie im öffentlichen Raum mit ihrem Gesicht unterwegs waren, erkannt wurden und aus politischen Gründen danach auch zur Verantwortung gezogen wurden in einem repressiven Staat? Und ist das nicht eine schiefe Ebene, auf die wir uns hier begeben? Denn das waren auch Gesetze – Kriminalgesetze, Strafrecht –, was dort angewendet wurde, wie Sie das hier möchten.
Andreas Schwab (PPE), Antwort auf eine Frage nach dem Verfahren der „blauen Karte“. – Das ist ein sehr, sehr wichtiger Punkt. Die EVP-Fraktion steht ganz eindeutig dazu, dass die unmittelbare Totalüberwachung durch künstliche Intelligenz verboten bleiben muss, genauso wie es im Gesetzgebungsverfahren vorgeschlagen ist.
Es gibt für uns nur zwei Ausnahmetatbestände, für die wir eine getrennte Abstimmung beantragt haben. Das war auch schon bei der Ausschussabstimmung so. Deswegen wollen wir auch niemandem in den Rücken fallen. Es war von Anfang an klar, dass es eine Vielzahl an Kollegen − übrigens weit über die EVP-Fraktion hinaus − gibt, die bei diesen zwei Fragen − bei vermissten Kindern und bei Terrorismus − einfach eine Lösung suchen, die die Schnelligkeit des Eingreifens von KI schneller wünschen, als der Gesetzgebungsvorschlag das vorsieht.
Ich glaube, dass es deswegen gut ist, dass wir darüber diskutieren, und deswegen ist es gut, dass wir uns darüber auch austauschen. Und ich glaube, es ist auch gut, dass wir darüber morgen abstimmen. Dann werden wir sehen, wie die Mehrheiten im Europäischen Parlament sind. Aber eins ist klar: Wir wollen nicht werden wie Russland und wir wollen nicht werden wie China.
Miapetra Kumpula-Natri (S&D). – Madam President, Commissioner, rapporteurs. colleagues, we are taking a historical step and the whole world is interested in what will happen here. This AI Act will boost AI usage, but not forget that societies are built on rules. Rules are there for safety, health, democracy, rule of law, privacy and environment. But now we hear police globally that do something as people start to see solutions in our lives. AIDA special committee and data strategy have been paving the way for balanced regulation and two years of work in Parliament improved already good Commission proposal. We do not want a predictive policing that you most probably are a criminal nor scoring citizens by pointing systems. And no, and it is good that the EPP position would also ban this also by private entities. Do you want to emotion recognition to be used at your children’s school or at the workplace? Parliament don’t. Last week I spent in Washington the most common sentence I heard was we are lagging so much behind EU. So the global interest and I am a strong believer of the Brussels effect. So the definition that aligns internationally and treaties also the generative AI helps us to do something good for the global societies.
Elsi Katainen (Renew). – Arvoisa puhemies, hyvä komissaari, tekoäly kehittyy huimaa vauhtia ja sen käyttö avaa aivan valtavia mahdollisuuksia esimerkiksi logistiikkaketjujen optimoinnissa tai älykkään liikenteen saralla. Nopea kehitys ja uudet käyttötarkoitukset ovat nostaneet esiin myös sääntelyn tärkeyden, jotta tekoälyä voidaan käyttää eettisesti, turvallisesti ja tarkoituksenmukaisesti, erityisesti silloin, kun puhumme muun muassa kasvojentunnistuksesta.
Olen erittäin tyytyväinen siitä, että parlamentin kanta luo selkeät säännöt tekoälylle ja tukee vahvasti innovaatioita ja tutkimusta. Varsinkin pienten ja keskisuurten yritysten helppo pääsy mukaan erilaisiin testausympäristöihin on ehdottoman tärkeää innovaatioiden ja tuotekehityksen osalta.
Olen myös tyytyväinen, että kanta huomioi alueellisten ja paikallisten viranomaisten merkityksen. Tekoäly tuo paljon mahdollisuuksia alueellisen elinvoiman vahvistamiseen ja siksi näiden toimijoiden tulee olla kiinteästi mukana myös tässä prosessissa.
Tämä on historiallinen lainsäädäntöaloite, jonka myötä EU tulee toimimaan globaalina suunnannäyttäjänä tekoälyn sääntelyssä.
Patrick Breyer (Verts/ALE). – Frau Präsidentin, Frau Kommissarin, verehrte Kolleginnen und Kollegen! Regierungen in Frankreich und anderswo träumen, dass Maschinen die Welt von allem Bösen befreien könnten, wenn sie uns nur zuflüstern könnten, wer wann mit wem wohin geht oder wer sich ungewöhnlich verhält. In der Realität wurde mit biometrischer Massenüberwachung noch kein einziger Terrorist gefunden, kein einziger Anschlag verhindert, stattdessen unzählige Festnahmen Unschuldiger − bis zu 99 % Falschverdächtigungen.
Ihre vermeintlichen Ausnahmen sind Augenwischerei − ständig sind doch Tausende durch Richterbeschluss gesucht. Sie öffnen die Büchse der Pandora und führen uns in eine dystopische Zukunft eines misstrauischen Hightech-Überwachungsstaates nach chinesischem Vorbild. Sie geben autoritären Regierungen der Gegenwart und der Zukunft eine nie dagewesene Unterdrückungswaffe in die Hand. Und unter ständiger Überwachung sind wir nicht mehr frei. Automatisierte Verhaltensüberwachung zerstört Freiheit, Vielfalt, Protest.
Wir wollen nicht in einer totalen, angepassten Konsumgesellschaft von Duckmäusern leben, die bloß nicht auffallen wollen. Lassen Sie uns Europa eine Zukunft frei von biometrischer Massenüberwachung sichern und unseren Kindern eine Zukunft in Freiheit und in Vielfalt.
Adam Bielan (ECR). – Madam President, dear Commissioner, artificial intelligence is transforming our world at an unprecedented pace. As it is increasingly becoming central to our daily lives, our economy and our democracy, it is clear that this technology holds immense potential, but also carries substantial risks. Our first horizontal legislation on AI introduces, among others, robust safeguards against high—risk AI systems and manipulative practices.
My group has been vocal on ensuring a comprehensive framework in line with other existing EU laws such as GDPR and DSA, as well as on the regulatory sandboxes, supporting SMEs and start-ups in innovation—testing within every Member State. I welcome the fact that these two major improvements are part of the final compromise, thus showing that we are also committed to fostering innovation. I believe that the AI Act in its current form represents our strong commitment to protect the public interest while encouraging AI progress.
Alessandro Panza (ID). – Signora Presidente, onorevoli colleghi, signora Commissaria, non ho mai risparmiato critiche, anche feroci, alla Commissione. Riconosco però che in questo caso, insieme al Parlamento, abbiano intrapreso la giusta strada, forse dettata anche dalla consapevolezza di non essere in grado di mettere in campo le risorse necessarie, soprattutto economiche, per tenere il passo di Cina e Stati Uniti.
Quindi ritengo giusta e doverosa la volontà di realizzare un quadro normativo che garantisca un uso sicuro di questo strumento, che sappiano offrire grandi opportunità ma che porta con sé un enorme potenziale distruttivo. Abbiamo sentito molte illustri personalità del mondo della tecnologia avanzare dubbi sulla sicurezza di questo strumento. Gli stessi Elon Musk o Sam Altman, il CEO di OpenAI, solo per citare i più famosi che hanno predicato cautela nella gestione di questa potentissima risorsa, senza dimenticare che l'implementazione di queste tecnologie potrebbe portare alla scomparsa di milioni di posti di lavoro. Ecco, nessuna di queste persone dovrà essere abbandonata.
Concludo facendo solo due considerazioni. La prima: attenzione a non lasciarsi prendere la mano dalla bulimia normativa che spesso pervade questi palazzi, creando il rischio di una disincentivazione all'utilizzo nelle nostre aziende, gravando con ulteriori pesanti adempimenti soprattutto per le piccole e medie imprese. La seconda: non abbiate il timore di utilizzare l'intelligenza artificiale ad esempio per prevenire gli odiosi reati come il terrorismo internazionale, perché le democrazie occidentali hanno la capacità e gli strumenti di garanzia per poter utilizzare queste tecnologie non solo per migliorare le nostre vite ma anche per garantirci la giusta sicurezza.
Sabrina Pignedoli (NI). – Signora Presidente, onorevoli colleghi, l'intelligenza artificiale è come un fiume. Possiamo metterci una diga per bloccarlo, ma prima o poi strariperà. Quello che dobbiamo fare è cercare di dirigerne il corso. La risposta europea è l'Artificial Intelligence Act, che segna un punto di arrivo importante, ma anche l'inizio di una sfida, perché servirà un'attenzione particolare per garantire la buona applicazione delle norme con tecnologie in continua evoluzione e tutelando la competitività delle aziende europee.
Ricordiamo sempre che l'intelligenza artificiale non è neutra, è un prodotto umano e nella gestione di questi sistemi non dovrà mai mancare il controllo dell'essere umano. Monitoraggio e correzione degli errori devono essere costanti, ma la norma non è sufficiente alla rivoluzione che sta arrivando. La buona politica deve prevedere anche risvolti sociali e culturali, per esempio uno stravolgimento del mondo del lavoro. E allora sarà il caso di cominciare a pensare a un reddito universale. C'è poi l'enorme questione della tutela dei dati raccolti e utilizzati. Bisognerà intervenire in cybersecurity per non costruire un castello di carte.
Javier Zarzalejos (PPE). – Señora presidenta, señora comisaria, la verdad es que hoy es un día para felicitarse por esta iniciativa. Tenemos que ser realistas: no va a haber pausas, no va a haber moratorias en el desarrollo de la inteligencia artificial y estamos, por tanto, ante el fenómeno de transformación más importante de nuestra civilización en siglos.
Por eso creo que también es importante que asumamos una visión constructiva, una visión optimista que no solamente subraye los riesgos, sino que también amplíe las oportunidades. No estamos ante la irreversible e inevitable distopía, sino que estamos ante una nueva era de oportunidades en la que nosotros podemos liderar desde la Unión Europea en lo que respecta a la regulación. Una regulación de este tipo tiene que ofrecer seguridad, tiene que facilitar innovación y tiene que generar confianza. Y nosotros creemos que, efectivamente, esta norma cumple estos tres objetivos.
Y, además, sí que lamento que cada vez que se han planteado preocupaciones legítimas de seguridad, se recurra al argumento de China como argumento final para silenciar este debate. Nadie está hablando de China ni de Rusia; estamos hablando del Estado de Derecho europeo, de preocupaciones legítimas de seguridad de sus ciudadanos para excepciones específicas en alguna utilización de las tecnologías disponibles.
Vlad-Marius Botoş (Renew). – Doamna președintă de ședință, doamna vicepreședintă executivă Vestager, stimați colegi, inteligența artificială este un instrument care poate aduce beneficii în multe sectoare de activitate. Tocmai de aceea este important să încurajăm dezvoltarea acesteia și să ne asigurăm că este folosită pentru bunăstarea oamenilor, la fel ca în cazul oricăror unelte.
Este nevoie să reglementăm domeniile în care există riscuri majore în ceea ce privește respectarea drepturilor omului, a siguranței, dar trebuie să păstrăm un echilibru între reglementare și dezvoltare, pentru că Uniunea Europeană nu este singura care dezvoltă inteligența artificială, iar în acest moment Europa este deja în urma altor state în ce privește progresele din domeniu. Nu putem impune condiții drastice și limitări inutile acolo unde nu este cazul.
Un alt aspect important pentru ca de beneficiile pe care le poate aduce inteligența artificială să se poată bucura toți cetățenii noștri, este să ne asigurăm că educația se adaptează la noile realități, la nivelul întregii Uniuni Europene, în toate statele noastre membre și că nimeni nu este lăsat în urmă.
Alexandra Geese (Verts/ALE). – Frau Präsidentin, Frau Kommissarin, verehrte Kolleginnen und Kollegen! Die Hälfte aller KI-Forscherinnen und -Forscher sagte auf eine entsprechende Umfrage 2022, es gebe eine 10%ige Wahrscheinlichkeit, KI könne zum Aussterben der Menschheit führen. Wer von Ihnen würde bei einer solchen Wahrscheinlichkeit eines Absturzes noch in ein Flugzeug steigen? Wenige wahrscheinlich. Genau deswegen gibt es Regeln zur Flugsicherheit, damit wir diese Technologie sicher nutzen können. Genau das machen wir auch für die künstliche Intelligenz.
Dabei sind nicht nur einzelne Hochrisikoanwendungen wichtig, sondern auch gerade die Verfahren, die sicherstellen, dass wir große generative Modelle wie zum Beispiel ChatGPT sicher nutzen können – und sicher auch für unsere Demokratie. Denn was zum Beispiel droht, sind in großem Stile generierte Desinformationen, die gemeinsam mit Deepfakes unsere Informationslandschaft fluten könnten. In kurzer Zeit kann man große Mengen von irreführenden Inhalten erstellen, die in sozialen Netzwerken wiederum durch die Algorithmen schneller verbreitet werden als journalistische Qualitätsinformation.
Dieses Risiko müssen wir auch angehen können, denn ohne Fakten keine Demokratie. Diese Demokratie wollen wir schützen, und dafür tun wir einen wichtigen ersten Schritt mit der neuen europäischen KI-Gesetzgebung.
Carlo Fidanza (ECR). – Signora Presidente, onorevoli colleghi, signora Commissaria, qualcuno dice che forse l'Unione europea si è spinta troppo in là e troppo presto rispetto all'evoluzione dell'intelligenza artificiale che ancora conosceremo nei prossimi mesi e anni. Forse sì, ma oggi, oltre a discutere il dettaglio normativo, è importante affermare un principio: qualsiasi evoluzione tecnologica, tanto più questa che può anche avere impatti disumanizzanti, deve essere messa al servizio dell'uomo.
Ecco perché è importante dotarci di uno strumento normativo che definisca che non tutte le infrastrutture hanno la stessa pericolosità e che diritti fondamentali, quali la proprietà intellettuale, la privacy e la tutela dei consumatori, o valori come la democrazia, la libertà di espressione, la dignità umana e la sicurezza non possono essere minati.
È fondamentale anche contemperare le esigenze dell'innovazione e della competitività del nostro sistema produttivo con l'occupazione e la tenuta sociale. Ma è anche fondamentale tenere aperta la finestra per governare i futuri avanzamenti ed evitare di trovarci, a breve, nella condizione paradossale di dover inseguire gli altri giganti globali che nel frattempo saranno andati avanti più in fretta di noi.
Francesca Donato (NI). – Signora Presidente, onorevoli colleghi, signora Commissaria, questo regolamento sull'intelligenza artificiale è il primo, a livello globale, che regolamenta la materia e pone delle condizioni precise per l'utilizzo di questi dispositivi. L'approccio basato sul rischio lascia alcuni spazi scoperti. Tuttavia, molti miglioramenti rispetto alla proposta iniziale della Commissione sono stati introdotti dai relatori nei compromessi.
L'importante, naturalmente, è che le pratiche vietate e le regole inserite vengano rese effettive da adeguate sanzioni in caso di violazioni. Rimane il dubbio rispetto ai rischi del possibile sviluppo fuori controllo dell'intelligenza artificiale, come segnalato con la richiesta di una moratoria da oltre 1 000 esperti imprenditori del settore, incluso Elon Musk.
Auspico quindi che anche negli altri paesi più sviluppati si introduca al più presto una regolamentazione efficace e stringente che consenta di minimizzare i rischi per la sicurezza e i diritti umani connessi allo sviluppo vertiginoso e all'utilizzo diffuso di queste nuove tecnologie.
Arba Kokalari (PPE). – Fru talman! Att få ner klimatutsläppen och bekämpa cancer är bara några exempel på hur utvecklingen inom AI revolutionerar världen just nu. Med möjligheterna kommer också ansvar, och världens ögon är på Europa just nu. Därför är det så viktigt att EU:s nya och världsunika AI-lag fungerar – att den fungerar både för att leda digitaliseringen framåt och för att skapa trygghet för våra medborgare.
Jag vill därför uppmana mina kollegor att rösta ja till att polisen ska kunna använda AI-teknik i realtid för att stoppa terrordåd, för att stoppa kidnappningar av barn. Vi ska skydda våra medborgare, inte terrorister. Ni måste förstå att digitaliseringen är redan här.
Vi ska inte låta den kinesiska kommuniststaten sätta spelreglerna för teknikutvecklingen och framtiden. Det är Europa som ska vara framtiden och för digitaliseringen.
Dita Charanzová (Renew). – Madam President, Madam Commissioner, AI is a tool that will help millions of Europeans live better lives. It will help us cure cancer. It will help us solve problems quicker. And yes, it can help us fight crime like terrorism. I do not think AI is a risk, but a chance: a chance for a better future.
It is true that AI is a tool that can be used for good or misused, but it is just a tool. Just because I can hit my finger with a hammer does not mean we should ban all of them and stop building houses. Just because I can hit my finger with a hammer doesn’t mean that we should stop developing better and safer tools in the future. I agree: we need guidelines to make sure we use this tool wisely. But banning innovation goes far too far. No technology is without risk. We never would have developed electricity, cars or aeroplanes if we didn’t take a risk. I believe AI, like other technologies, will make the future better, and I want it to develop in Europe.
Elżbieta Kruk (ECR). – Pani Przewodnicząca! Akt o sztucznej inteligencji to pierwsza tego typu regulacja na świecie. Naukowcy tymczasem od dłuższego czasu wskazują na zagrożenia, jakie sztuczna inteligencja za sobą niesie. Ostrzegają, że wdrażane są coraz potężniejsze cyfrowe umysły, których nikt nie jest w stanie w pełni kontrolować, również ich twórcy.
Opublikowany niedawno list otwarty z podpisami setek wybitnych badaczy sztucznej inteligencji i liderów branży technologicznej mówi nawet, że systemy o inteligencji konkurencyjnej wobec człowieka stanowią głębokie ryzyko dla społeczeństwa i ludzkości.
Zapisy rozporządzenia w sprawie sztucznej inteligencji mają właśnie zagwarantować bezpieczeństwo i podstawowe prawa obywateli. Zakazują użycia sztucznej inteligencji np. w systemach punktacji społecznej, identyfikacji biometrycznej czy w manipulacjach poprzez techniki podprogowe, czy pozwalających na ekstradykcyjne działania policyjne. Wprowadzają wymóg transparentności, taki jak informacja, że dana treść została stworzona przez sztuczną inteligencję.
Regulacje te są bardzo potrzebne. Miejmy nadzieję, że pojawią się podobne w innych częściach świata. Nie wolno ignorować zagrożenia. Nie możemy ryzykować utraty kontroli nad naszą cywilizacją.
Dino Giarrusso (NI). – Signora Presidente, onorevoli colleghi, l'intelligenza artificiale è un'opportunità, l'ennesima che ci viene donata dal progresso tecnologico, ma al tempo stesso può diventare un rischio per le nostre comunità. Per questo l'intelligenza artificiale sviluppata e utilizzata in Europa deve essere antropocentrica e rispettare i diritti fondamentali e i valori dell'Unione sanciti dai trattati.
Noi dobbiamo lavorare per sostenere l'innovazione e le imprese, aumentando la certezza del diritto in tutti gli Stati membri, rendendo chiara la regolamentazione del settore e facile per i privati e per le autorità pubbliche il rispetto dei nuovi obblighi. Dobbiamo indirizzare l'innovazione verso un miglioramento delle nostre vite, nel rispetto dei diritti, e per questo vedo con preoccupazione il diffondersi del riconoscimento facciale e di ogni altro strumento che possa essere usato a fini discriminatori.
Ringrazio il relatore per il lavoro svolto in questa direzione e auspico che non si ceda alle sirene di chi vorrebbe una deregulation pericolosa, ma al contrario si crei insieme un mercato unico digitale integrato e un contesto legislativo che premi l'imprenditorialità e l'innovazione, tutelando la sicurezza e i diritti, nostri e delle prossime generazioni.
Pablo Arias Echeverría (PPE). – Señora presidente, señora vicepresidente, la llegada de internet revolucionó nuestras vidas y conseguimos adaptarnos para aprovechar todo su potencial, que no está exento de riesgos. Hoy, con la llegada de la inteligencia artificial, ya estamos viendo cambios en nuestra vida cotidiana.
No son pocos los retos que afrontamos, pero, con la adopción de esta nueva ley, avanzamos hacia una inteligencia artificial más responsable sobre la base de los principios y valores europeos —el European way—, con la transparencia y la protección de la privacidad como pilares básicos.
También posicionamos a la Unión Europea en el mundo en cuanto al desarrollo de la inteligencia artificial. Debemos seguir protegiendo y fomentando nuestras pymes, para que tengan la capacidad real de competir y posicionar así a la Unión Europea en la carrera digital global.
Para que esta tecnología funcione, necesitamos generar confianza y, en este sentido, quiero destacar tres retos que abordamos con esta ley: la transparencia, la protección de la privacidad y la competitividad. Ya conocemos las oportunidades y los riesgos. Solo con seguridad jurídica seremos capaces de adaptar todo el potencial de la inteligencia artificial a nuestras vidas y en nuestro beneficio.
Laurence Farreng (Renew). – Madame la Présidente, Madame la Vice-Présidente, chers collègues, l’Union européenne va faire cette semaine une avancée majeure. Nous sommes en effet la première institution et le premier continent au monde à poser des règles pour l’intelligence artificielle. Ce texte est ambitieux; il est le fruit de deux ans de travail de la Commission et du Parlement. Il a été remis sur le métier pour répondre aux bouleversements de l’IA générative, dont ChatGPT est un exemple. Il va établir des responsabilités pour les concepteurs et pour les fournisseurs en classifiant les risques, pour garantir à nos concitoyens des IA dignes de confiance, qui respectent nos valeurs. C’est un début.
Cette révolution doit nous amener à des réflexions presque philosophiques sur l’avenir de notre civilisation. En tant qu’humaniste, je demande une IA toujours encadrée par l’intelligence humaine. Il faut former à la maîtrise de ces outils pour innover et pour transformer nos emplois, et non pour les détruire. Nous devons rapidement disposer d’un cadre pour la création culturelle qui s’appuie sur les acquis de la directive sur le droit d’auteur et qui la complète, pour que la machine ne remplace jamais ce qu’il y a d’unique dans la sensibilité humaine et que les droits d’auteur soient préservés.
Karlo Ressler (PPE). – Poštovana potpredsjednice, povjerenice, kolegice i kolege. Kao središnja tehnologija industrijske revolucije, umjetna inteligencija nepojmljivom brzinom mijenja naše društvo i neće biti ljudske djelatnosti koja će ostati netaknuta. Poput svih alata, može se koristiti i za dobro i za zlo, za kvalitetniju medicinsku dijagnostiku, veću kvalitetu života, veću produktivnost, manje jednoličnog posla, ali i za distopijske scenarije, masovnu kontrolu ili sustave društvenog vrednovanja. Zato uspostavom jasnih pravila moramo iskoristiti mogućnosti i minimizirati rizike. Oprez i osigurači su potrebni, ali nerazumno protivljenje pojedinim primjenama, poput biometrijske identifikacije radi pronalaska nestale djece, čini se potpuno promašenim.
Dame i gospodo, ovo je povijesni akt. Europi je potreban okvir povjerenja, Europi je potrebna pravna sigurnost, a Europi su također potrebne i inovativnost, inovacije i konkurentnost. Ovaj dokument to može postići. Zato čestitam svima koji ste sudjelovali u izradi ovoga. Bilo je i meni drago i nadam se da s ovim i u pregovorima s Vijećem možemo postići dobar, kvalitetan okvir.
Samira Rafaela (Renew). – Voorzitter, het is natuurlijk hartstikke goed dat we in de Europese Unie nu nieuwe wetgeving kunnen voorstellen, naar onszelf toe, naar de rest van de wereld. We laten hiermee een heel goed voorbeeld zien. Maar laten we ons ook realiseren dat kunstmatige intelligentie gaat over mensenrechten. We zullen te allen tijde de menselijke maat moeten bewaken.
Als het gaat om de sociale en de economische rechten van mensen, dan hebben we gezien dat kunstmatige intelligentie mensen kan uitsluiten. Het kan discrimineren, maar het kan ook een heleboel goede dingen doen voor de innovatie die we nodig hebben, voor de snelheid en de efficiëntie die we nodig hebben, of het nu gaat om de arbeidsmarkt of het onderwijs of onze veiligheidsdiensten die ermee moeten werken.
Er is een goede kant en er is een noodzakelijke kant. Maar er is ook een kant die we moeten bewaken vanuit het menselijk perspectief, het humane perspectief. Ik vind dat dit een hele goede stap is daarnaartoe en daar wil ik ook een compliment voor geven. Dus laten we ervoor zorgen dat we die waarborgen erin houden. Laten we ervoor zorgen dat we goed blijven monitoren hoe deze wetgeving toegepast wordt. Altijd de menselijke maat.
Krzysztof Hetman (PPE). – Pani Przewodnicząca! Pani Komisarz! Sztuczna inteligencja niesie za sobą niezwykły potencjał, ale też pozostawiona sama sobie może równocześnie stanowić źródło bardzo poważnych zagrożeń. W związku z tym stworzenie jasnych i stabilnych ram prawnych, w których określona jest gradacja ryzyka sztucznej inteligencji i wprowadzone bardzo konkretne obowiązki, w zależności od stopnia tego ryzyka, jest niezwykle potrzebne.
Niezwykle cieszę się, że właśnie Unia Europejska jest światowym pionierem we wprowadzaniu tych regulacji, dając tym samym konsumentom zaufanie do tej technologii, zaś inwestorom i przedsiębiorcom pewność i przewidywalność prawną.
Uważam również, że powinniśmy wykorzystywać potencjał sztucznej inteligencji do tak fundamentalnych kwestii jak zapobieganie zamachom terrorystycznym czy też poszukiwanie zaginionych, porwanych dzieci. Choć musi się to odbywać przy pełnym zagwarantowaniu podstawowych praw i wolności obywatelskich, w ściśle określonych przypadkach i przede wszystkim – co najważniejsze – wyłącznie na mocy decyzji niezależnego sądu.
Geoffroy Didier (PPE). – Madame la Présidente, l’encouragement, mais aussi la régulation de l’intelligence artificielle exigent des choix. Il y en a un qui n’est pas tout à fait anodin: celui concernant l’identification biométrique, c’est-à-dire concrètement la reconnaissance faciale. La droite demande que cette technologie puisse être utilisée dans certains cas précis et bien circonscrits: pour retrouver des enfants disparus, pour prévenir les actes terroristes et pour interpeller des auteurs d’infractions punissables d’au moins trois ans de prison. Plusieurs groupes politiques de gauche refusent de recourir à l’intelligence artificielle, alors qu’il s’agit ici de protéger des enfants, d’interpeller des criminels et de nous préserver du terrorisme.
Quand l’idéologie passe au-dessus de la sécurité, quand des postures de principe passent au-dessus de situations d’urgence, cela en dit beaucoup sur l’inconséquence de certains groupes politiques de cet hémicycle, ici, au Parlement européen. Ils devront s’expliquer devant les citoyens, car face à l’exigence absolue de protection des citoyens d’Europe, chacun doit prendre ses responsabilités.
Pilar del Castillo Vera (PPE). – Señora presidenta, señora vicepresidenta, la inteligencia artificial es esencial para la innovación y el crecimiento, pero para su desarrollo hay un elemento fundamental del que se ha hablado mucho hoy aquí: la confianza. Si las personas desconfían de su uso, no va a poder desplegar todo su potencial.
Debatimos hoy la primera legislación europea en materia de inteligencia artificial: una legislación que deberá garantizar aspectos de naturaleza ética, responsabilidad legal y transparencia, como el derecho a ser informado cuando sea un sistema de alto riesgo el que tome la decisión o el derecho a solicitar una reparación colectiva.
Es crucial también garantizar la seguridad. Por eso, esta legislación debe contar con instrumentos eficientes para, por ejemplo, prevenir un atentado terrorista, buscar personas desaparecidas y, en especial, poder actuar en todo aquello que afecte a la vida de los niños. En todos estos casos debe haber una autorización judicial y una definición temporal de la aplicación.
Europa se caracteriza por el valor central que tienen los derechos fundamentales de las personas y ese es precisamente el fundamento de este reglamento sobre inteligencia artificial.
Angelika Winzig (PPE). – Frau Präsidentin, Frau Kommissarin, geschätzte Kolleginnen und Kollegen! Im vergangenen Jahr wurde der Umsatz im Bereich künstlicher Intelligenz auf 433 Milliarden US-Dollar geschätzt. KI hat nicht nur in der Wirtschaft, sondern schon längst im Privatleben Einzug gefunden. Diese Entwicklungen bergen große Chancen, aber auch Risiken, die wir beherrschen müssen und in einer Demokratie auch beherrschen können.
Wichtig ist mir natürlich Rechtssicherheit für Entwickler und Unternehmer. Und als Vorsitzende der interfraktionellen Arbeitsgruppe „KMU“ wünsche ich mir natürlich auch Unterstützung für KMU und Start-ups, damit sie in diesem Bereich auch erfolgreiche business cases entwickeln können.
Procedura "catch the eye"
Sara Skyttedal (PPE). – Fru talman! Utvecklingen av artificiell intelligens innebär både fantastiska möjligheter men också svåra utmaningar. Därför behöver vi ha klok lagstiftning på EU-nivå som gör att vi kan ta till vara möjligheterna.
Men det är inte klok lagstiftning att förhindra möjligheten att använda AI för att öka säkerheten i Europa, där vänstern i Europaparlamentet aktivt vill förhindra att använda AI under till exempel pågående terrorbrott eller under tiden ett barn kidnappas. Det är tydligt att AI här har potentialen att rädda liv, och det är möjligheter som vi vill kunna använda.
Därtill vill vänstern också stoppa möjligheten att använda detta för att öka gränsbevakningen och se till att vi kan kontrollera migrationen till Europa bättre. Det är inte klok AI-lagstiftning att stoppa de möjligheterna, så jag hoppas att de förslagen faller här i morgon.
Barbara Thaler (PPE). – Frau Präsidentin! Ich habe die letzten eineinhalb Stunden hier, vor allem von der linken Seite, viele Argumente gehört, die vor allem Angst machen. Das ist irgendwie schade. Aber es war auch irgendwie immer schon so, wenn es um Digitalisierung ging.
Ja, die KI wird unser Leben mindestens genauso verändern, wie es der Computer gemacht hat. Es ist nur nicht so sichtbar; es ist nur nicht so spürbar wie in den letzten 20, 30 Jahren. Der Grund dafür ist, dass künstliche Intelligenz erst dann zur vollen Stärke kommt, wenn Automatisierung und Schnittstellen dazukommen. Weil es nicht so sichtbar ist, weil diese Stärke nicht so spürbar ist wie zu der Zeit, als wir mechanischen Lochkartenmaschinen beim Rechnen zugesehen haben, müssen gerade wir hier in dem Haus noch genauer darauf schauen. Und das tun wir mit diesem Rechtsakt.
Meine Devise lautet: Keine Angst vor künstlicher Intelligenz, aber Hochrisikogebiete regulieren. Und ich bin davon überzeugt: Beides ist möglich.
Henna Virkkunen (PPE). – Arvoisa puhemies, tekoälyyn sisältyy erittäin paljon mahdollisuuksia, ja on tärkeää, että luomme lainsäädäntökehyksen, joka innostaa ja kannustaa investoimaan ja innovoimaan tekoälyyn Euroopassa. Samaan aikaan on tärkeää myös tunnistaa mahdolliset riskit. On hyvä, että Eurooppa ensimmäisenä maailmassa on nyt saattamassa voimaan sääntöjä siitä, mihin tekoälyä saa käyttää ja millä tavoin.
Mielestäni lähestymistapa, jossa tekoälyn käyttö on luokiteltu riskin mukaan, on perusteltu. Suurin osa tekoälyn käytöstä voidaan katsoa matalariskiseksi toiminnaksi, mutta silloin kun tekoäly alkaa tehdä päätöksiä ihmisten koulutusvalinnoista, työpaikkaan pääsystä tai pankkilainasta, on perusteltua, että nuo järjestelmät ovat tarkemman auditoinnin ja valvonnan kohteena. Samoin on perusteltua, että tietty tekoälyn käyttötarkoitus kielletään Euroopassa kokonaan, kuten ihmisten kontrollointi ja massavalvonta tekoälyn avulla.
Pidän silti perusteltuna poikkeusta, jota EPP-ryhmä esittää. Sen mukaan tuemme komissiota siinä, että tietyissä ihmisten terveyttä ja turvallisuutta vakavasti vaarantavissa tilanteissa tekoälyä saisi käyttää oikeuden päätöksellä, jotta ihmisten elämää ja terveyttä voidaan turvata ja jolloin myös reaaliaikaista kasvojentunnistusta saisi käyttää. Se on mielestäni perusteltu asia ja toivon, että parlamentin enemmistö äänestää tuon muutoksen puolesta. Tekoäly tuo meille paljon mahdollisuuksia. Meidän kannattaa Euroopassa ilman muuta ne hyödyntää. Mutta on muistettava, että tekoäly ei toimi arvovapaasti. Tärkeää ovat ne arvot, joiden pohjalta tekoälyä koulutetaan ja kehitetään.
Maria-Manuel Leitão-Marques (S&D). – Senhora Presidente, esta tecnologia que hoje vamos regular pode ser muito positiva para as políticas públicas para detetar padrões de adição no jogo online, prever o afluxo às urgências hospitalares, gerir melhor o insucesso escolar e preveni-lo e, até, os fundos europeus. Todos são projetos em desenvolvimento em Portugal.
Mas estas vantagens têm de ser olhadas com cuidado, evitando riscos elevados e discriminações, por exemplo, a recusa de um seguro a um morador apenas porque habita num determinado bairro, ou um brinquedo inteligente que ponha uma criança em perigo.
Esta legislação é a primeira a nível mundial a estabelecer um equilíbrio entre a prevenção do risco e a inovação, conferindo maior segurança às empresas que trabalham nesta área e mais confiança aos cidadãos.
Esperemos, Senhora Presidente, que ela seja suficientemente flexível para conseguir acompanhar o avanço tecnológico e, assim, manter-se relevante durante bastante tempo.
Juan Fernando López Aguilar (S&D). – Señora presidenta, señora vicepresidenta Vestager, estamos aprobando nada menos que una ley europea de inteligencia artificial, uno de los grandes objetivos de legislatura.
Una inteligencia artificial que nos va a acechar el resto de nuestras vidas y el esfuerzo de la Comisión de Libertades Civiles, Justicia y Asuntos de Interior en su informe ha tenido como objetivo hacerla compatible con la Carta de los Derechos Fundamentales de la Unión Europea, no solo desde el punto de vista ético, sino desde el punto de vista jurídico y normativo. A tal fin, ha establecido usos prohibidos como, por ejemplo, la inteligencia predictiva, policial y judicial o el reconocimiento biométrico indiscriminado y ex ante a la comisión de ningún delito, y, por supuesto, los usos discriminatorios incompatibles con la igualdad y el principio de no discriminación que están consagrados en la Carta.
Esto va a situar a la Unión Europea a la vanguardia de un desarrollo tecnológico imparable, al que seguramente la norma llegará siempre un poco tarde con respecto a los vertiginosos desarrollos futuros y potenciales, pero que está lanzando un mensaje al mundo: la Unión Europea tiene la firme determinación de controlar la agenda de la inteligencia artificial.
Barry Andrews (Renew). – Madam President, I'm fundamentally opposed to the use of AI systems and remote biometric facial recognition. In mass surveillance, there have already been too many cases of mistaken identity, there have already been too many cases of abuses of the system to surrender the right of privacy to a technology that is developing and evolving as fast as this.
AI's potential for positive transformation is vast, especially in medicine and education, as many speakers have pointed out. However, as the godfather of AI, Geoffrey Hinton has said, AI also presents an existential threat to humanity, or in the vivid words of Yuval Noah Harari, it has the potential to hack the operating system of our civilization. However, let's not forget that AI did not create nuclear weapons, did not create genocide, did not create hate speech. Left to our own devices, we are more than capable of moral collapse, and that is why it is important that the legislation focuses on the intended use of the technology and not on the technology itself.
Beata Mazurek (ECR). – Pani Przewodnicząca! Jesteśmy świadkami zjawiska prawdziwej rewolucji. XXI wiek jest bez wątpienia wiekiem danych. Sztuczna inteligencja jest już częścią naszego codziennego życia, ale ma dużo większe możliwości niż to, co zobaczyliśmy dotychczas.
Poza korzyściami technologia niesie ze sobą też zagrożenia, które powinniśmy minimalizować, wprowadzając skuteczne ramy legislacyjne gwarantujące bezpieczeństwo i ochronę praw podstawowych obywateli, a jednocześnie takie, które nie zahamują jej rozwoju. W przeciwnym bowiem przypadku zostaniemy w tyle światowego wyścigu innowacji.
Sztuczna inteligencja to również szansa na skok rozwojowy dla polskich firm i polskiej gospodarki, ponieważ znacznie łatwiej jest budować swoją pozycję w nowej, dopiero co rodzącej się branży. Dlatego wierzę, że staniemy się państwem twórców i kreatorów nowych rozwiązań w zakresie właśnie sztucznej inteligencji.
Jeżeli Unia Europejska ma zostać liderem w dziedzinie tego, o czym mówimy, a więc sztucznej inteligencji, musi wykorzystać swoje mocne strony i wesprzeć rozwój bezpiecznej i nowoczesnej sztucznej inteligencji opracowanej tu u nas, w Europie.
Clare Daly (The Left). – Madam President, AI is being sold to us as the latest in a series of ground-breaking technological leaps. It’ll make our lives easier. It’ll make the world a better place.
Well, don’t believe the hype. Like so much before us, AI will be used for surveillance and control. It won’t give us a four-day working week or longer summer holidays. It won’t solve the climate crisis or redistribute wealth. It won’t make public services better or policing more effective. It will be just more of the same, but faster and probably much worse.
That judicial systems around the world are exploring using AI in judicial decision-making should scare the hell out of us. That Ukraine has been held up as a living lab for AI warfare is frightening. We should be approaching this subject cautiously like every new technology. Instead, we’re far too quick to follow industry.
Governments across Europe are chomping at the bit to use facial recognition, to hell with people’s rights. The Irish Government, who have MEPs who were in that, coming in here saying they disagree with it, but they’re moving legislation before a possible EU ban. The EPP should be ashamed of themselves for reneging on the hard hours of negotiation at committee.
(Fine della procedura "catch the eye")
Margrethe Vestager,Executive Vice-President of the Commission. – Madam President, thank you very much for this very far—reaching, nuanced debate. I hope that it will pave the way for a good vote tomorrow for a strong Parliament mandate so that we can get at it.
Many, many speakers today have touched upon the fact that Europe is the first to move on legislation, on binding obligation, on enforcement. But AI develops as we speak, and it is important that we also reach out to international partners to see how many we can bring on board, at least until we have binding obligations to have the possibilities for businesses to voluntarily commit as to how they develop, as to how they enable third—party control of what they do, as to how they have a feedback loop to make sure that things are done right.
Nothing has the right to impede on Parliament’s position on the trilogues that we will start, and nothing does that. So I think all the many different approaches to making the world a safe space – where innovative, strong technology will serve humans – is absolutely crucial. Eventually, of course, we also need a United Nations response to this. And here I hope that this debate will pave the way, because it’s a debate that shows the balances that needs to be maintained: freedom and safety. And it is really the future that we are talking about. How should these balances be made? Between the freedom, as many have spoken of today, the freedom of surveillance, the freedom to do what you want without someone looking over your shoulder, while at the same time having the safety to know that if the worst things happen, the police can do their job. Also the balance between innovation and of course that risks of our fundamental rights are being prevented.
I think this debate has had at all. I think that you have all heard and probably agree that AI is too important not to regulate and it’s too important to badly regulate. A good regulation that we all agree on as soon as possible must be a common objective. And of course, we need sound enforcement. We need these obligations that this law gives us to be a real thing on the ground for people to be safe.
The Commission’s role is to be an honest broker between the European Parliament and the Council. We will do our best to facilitate your work in this crucial file. I think I speak also on behalf of my colleague Thierry Breton, myself, our services, we will of course be fully available. I am grateful for the ambitions of Parliament on this very important file. It has been an impressive debate. It is no exaggeration that the world is following this work. I want to thank you very much for taking the lead.
Brando Benifei, rapporteur. – Madam President, I thank the Vice-President and all the colleagues for the debate. Thanks to my co-rapporteur Dragoș Tudorache and all the shadow rapporteurs for this great work, and also their contribution to this discussion that has been showing also the different angles to which we can look at the topic.
I think it emerged very clearly that we need to work very strongly on some innovations that came after we have been starting this work. We started doing it with generative AI, with our proposal on general purpose AI, and this will be crucial that we maintain this ambition when we negotiate with the Council on these topics that are, we can say, on the forefront of the of the work. We need to defend our approach that strengthens fundamental rights, that has been clear, for example, with the fundamental rights impact assessment.
But also I think it is important that we put value to our effort to strengthen innovation, to support start-ups with the work on the sandboxes. I think we did a thorough job on this, and I think it is important to clarify that, as was said earlier by the Commissioner, that when the worst happens, we can act. This is something we all agree on and we know that with this text, we the text that came out of the committee with the usage of non-real time, biometric identification in cases that are to pursue crimes that have been already committed and, with the control of a judge, we can pursue this balance.
I wanted to specify this because I heard many colleagues speaking on this topic, but I think it’s important to clarify that the existing text is already very advanced and clear, and that is also why I think we should keep the text that we voted in the committee. We are ready to work for the upcoming trilogues. Thank you for all the work and for the efforts to put this chamber, this Parliament, at the centre of the effort to build a human-centric AI, not just for us but for the whole world.
Dragoş Tudorache, rapporteur. – Madam President, thank you very much for the debate today. We all use big words. We said change the world. Transformative impact. Turning points for humankind. Oftentimes we use these words as political exaggerations, but with AI, these are right on point. We are facing a turning point in history. Many may not see it yet. And we needed a small demonstration provided by a powerful chatbot over the past months to alert leaders and policymakers around the world. But we, here in the EU, we are doing something about it. We are taking up our responsibility as lawmakers to protect our society from potential harm and give our economies a clear direction as to how AI can be used for good, of that we can all be proud.
Two last points that I consider important. First, as also Executive Vice President Vestager said, is global convergence. As we vote to negotiate these rules, we must look also outward and invest politically in the effort of a global framework for addressing the benefits and risks of AI. The Brussels effect is one thing, and our rules will inevitably be a model for other jurisdictions, but we must work with a sense of shared responsibility and interests with all our like-minded partners to achieve the geopolitical objective of having AI alignment.
Second, the AI revolution must leave no one behind. We must push our governments to engage citizens to explain what is coming, to rethink education and reskilling of our workforce, to face confidently the transformation around them. Otherwise, all good intentions may go to waste.
So in the end, I make this plea in front of you. Vote tomorrow with this sense of responsibility and with the satisfaction that we are on the right side of history.
Presidente. – La discussione è chiusa.
La votazione si svolgerà mercoledì 14 giugno 2023.
Dichiarazioni scritte (articolo 171)
Andrus Ansip (Renew), kirjalikult. – Euroopas väljatöötatavad tehisintellektil põhinevad lahendused peavad olema turvalised, läbipaistvad ning inimesi ja keskkonda arvestavad. Tehnoloogia peab jääma inimese kontrolli alla, ilma et ohustaks inimeste eraelu puutumatust, ning olema kooskõlas liidus kehtivate õiguste ja väärtustega. Ma olen vastu ühe süsteemi, nimelt näotuvastussüsteemi kasutamise täielikule ärakeelamisele avalikes kohtades reaalajas. Sellel süsteemil on potentsiaali ühiskonnas turvalisust tagavate innovaatiliste lahenduste loomiseks. Tehisintellektil põhinevad näotuvastussüsteemid on juba maailmas oma kohta leidmas, Euroopa Liidus tuleks selliste süsteemide kasutamist reaalajas avalikes kohtades lubada vaid kohtu loal eriti raskete kuritegude ennetamiseks või juba sooritatud ränkade kuritegude avastamiseks. Seadused peaksid piirama tehnoloogiate kasutamist ning mitte üritama keelata juba eksisteerivat tehnoloogiat tervikuna. Ilma kasutamispotentsiaalita ei hakka taolist tehnoloogiat Euroopas keegi arendama. Totaalse keeluga loobub Euroopa järjekordse suure potentsiaaliga digitehnoloogia arendamisest.
András Gyürk (NI), írásban. – A mesterséges intelligencia elterjedésével újabb technológiai mérföldkőhöz érkeztünk, mely megkerülhetetlen gazdasági és társadalmi változásokat fog hozni az elkövetkező évek során. Az AI-alapú programok szerepe meghatározó lesz Magyarországon is, ahol az előrejelzések szerint 2030-ra a termelékenység akár 26 százalékkal, míg a bruttó nemzeti össztermék akár 15 százalékkal is növekedhet az új technológiáknak köszönhetően. A ChatGPT-hez hasonló chatbotok és applikációk megjelenésével pedig mára az AI lakossági szintű felhasználása is elkezdődött.
Napjainkban így már nem kérdés, hogy az AI-alapú alkalmazások térnyerése visszafordíthatatlan jelenség, mely számos lehetőséget és kihívást hordoz magában. Ahhoz azonban, hogy az AI-technológiákban rejlő gazdasági és társadalmi potenciált kiaknázhassuk, mindenek előtt egyértelmű és az etikai határokat világosan meghúzó szabályozási környezetre van szükség. Egy olyan jogi keretrendszerre, mely garantálja, hogy a mesterséges intelligenciát csak felelős, átlátható és emberközpontú módon lehessen felhasználni Európában. A Fidesz európai parlamenti delegációja ezért támogat minden olyan törekvést, mely biztonságos kereteket állít fel a technológiai fejlődésnek, hiszen csak így gondoskodhatunk az alapvető emberi jogok és az állampolgárok érdekeinek védelméről.
Eugen Jurzyca (ECR), písomne. – Umelá inteligencia (AI) dokáže výrazne zvyšovať produktivitu práce. Už dnes je možné využívať ju vo vzdelávaní, v zdravotníctve či v práve. V EÚ však investujeme do AI dramaticky menej než v USA alebo v Číne. Aj preto by sme si mali dať záležať na kvalite regulácie EÚ. Spojené kráľovstvo (UK) to zobralo vážne a má reguláciu AI s desaťkrát nižšími nákladmi než v EÚ, navyše regulácia EÚ je menej pružná a zameraná viac na detaily. Regulácia UK sa venuje princípom, ako napríklad spravodlivosť a transparentnosť, regulácia EÚ ukladá napríklad firmám povinnosť starať sa o gramotnosť svojich zamestnancov v oblasti AI.
Karol Karski (ECR), na piśmie. – Rozwój sztucznej inteligencji, wdrażanie systemów SI w różnych gałęziach gospodarki, z włączeniem służby zdrowia, wykorzystanie SI przez przedsiębiorstwa oraz wkraczanie SI w nasze codzienne życie to już nie futurystyczna wizja, ale rzeczywistość. Do tej pory żadne prawo nie regulowało zasad tworzenia, wprowadzania do obrotu i wdrażania SI. Żadne prawo nie określało również wymogów bezpieczeństwa, które powinny spełniać systemy SI. Trzeba wypełnić tę lukę prawną i opracować spójne ramy dla tworzenia produktów i usług opartych na SI, wprowadzania ich na rynek i zarządzania ryzykiem związanym z SI.
Główne obawy dotyczą stosowania SI w życiu obywateli, wdrażania modeli wysokiego ryzyka, braku kontroli algorytmów samouczących się, braków technologicznych, dyskryminujących wyników, braku nadzoru w zakresie gromadzenia danych i prywatności użytkowników. Przyszłe regulacje muszą z jednej strony wspierać innowacyjność, zwłaszcza działające w tym obszarze polskie MŚP, a z drugiej minimalizować realne ryzyko, które niesie ze sobą zastosowanie systemów w społeczeństwie i gospodarce.
Projekt PE zapewnia odpowiednią równowagę między nowymi obowiązkami administracyjnymi dla przedsiębiorstw a bezpieczeństwem, prawami konsumentów, swobodą badań i rozwoju tej technologii. Ważne jest, iż PE zapewnia swobodne funkcjonowanie piaskownic regulacyjnych, czyli bezpiecznych i zamkniętych przestrzeni do testowania europejskich innowacji opartych na SI, oraz gwarantuje środki pomagające MŚP w korzystaniu z tej technologii.
Marian-Jean Marinescu (PPE), în scris. – Inteligența artificială nu mai este de multă vreme ceva ce aparține viitorului. Este deja o realitate în viețile noastre și își face simțită prezența din ce în ce mai pregnant. Asemeni oricărei noi invenții care începe să fie aplicată în tot mai multe domenii, și folosirea inteligenței artificiale are nevoie de reglementări.
În esență, actul privind inteligența artificială stabilește norme armonizate pentru dezvoltarea, introducerea pe piață și utilizarea sistemelor de inteligență artificială în Uniune, urmând o abordare proporțională bazată pe riscuri.
Cadrul juridic propus urmărește să se asigure că sistemele de inteligență artificială introduse pe piața Uniunii și utilizate sunt centrate pe om, demne de încredere, sigure și respectă legislația existentă privind drepturile fundamentale și valorile Uniunii.
Pentru a limita abuzurile de orice natură atunci când vine vorba despre inteligența artificială este foarte important să stabilim foarte clar care sunt domeniile în care aceasta este interzisă, iar textul propus de Parlamentul European stabilește că acestea sunt: scorul social, controlul predictiv sau clasificarea biometrică.
Sirpa Pietikäinen (PPE), kirjallinen. – Tekoäly voi mahdollistaa yhteiskunnissamme monia asioita. Terveydenhuollossa tai liikenteessä voidaan kehittää parempaa sairauksien diagnostiikkaa ja terveysteknologiaa ja parantaa vaikkapa lääkkeiden jakelua tai mahdollistaa parempaa ja personoidumpaa joukkoliikennepalvelua eri ihmisryhmille. Emme kuitenkaan saa vähätellä tekoälyn riskejä.
Tekoälyjärjestelmien vääristyminen ja siitä aiheutuva syrjintä on ongelma. Tiedämme, että suurimman osan järjestelmistä on kehittänyt valkoinen länsimainen mies, mikä voi johtaa esimerkiksi naisten, ikäihmisten, vammaisten henkilöiden tai muiden vähemmistöjen jäämiseen sivurooliin tekoälyjärjestelmissä.
Tekoälyn algoritmien on pysyttävä ihmisten hallinnassa ja purettavissa. Tekoälyjärjestelmille täytyy asettaa myös ympäristövaatimuksia.
Tarvitsemme EU-tasolle kestävän digitalisaation ohjelman. Parlamentin teksti ottaa kohtuullisen hyvin huomioon tekoälyn riskit. Mahdollisuudet pitää voida hyödyntää, mutta samalla puolustautua riskeiltä, jotka voivat kohdistua demokratiaan ja kansalaisvapauksiin. Erityisesti syrjimättömyyden periaate on tärkeä. Tekoälyn täytyy hyödyttää kaikkia, sen pitää olla saavutettavaa eikä syrjiä tiettyjä ihmisryhmiä esimerkiksi sukupuolen, iän tai vammaisuuden perusteella. Varovaisuusperiaate biometrisen kasvojentunnistuksen, tunteiden tunnistusjärjestelmien ja ennakoivan poliisitoiminnan kohdalla on paikallaan.
Meidän on huolehdittava siitä, ettei ihmisiä voida vainota tai heidän turvallisuuttaan vaarantaa siinäkään tapauksessa, että tiedot jostain syystä joutuisivat ääriainesten käsiin tai sellaiset olisivat kyseisen maan johdossa. Tekoäly on ihmisen luoma ja sellaisena sen täytyy pysyä. Toisenlaisen tekoälyn käytön on oltava rikollista. Meidän täytyy huolehtia, että tekoäly pysyy ihmisten hallinnassa. Parlamentin kanta on askel oikeaan suuntaan.
Ivan Štefanec (PPE), písomne. – Dovoľte mi poznamenať, že tu dnes ide o historický míľnik vytvorenia prvých pravidiel pre umelú inteligenciu, pričom tieto pravidlá majú potenciál ovplyvniť používanie umelej inteligencie na celom svete. Prostredníctvom umelej inteligencie chceme čistejšiu a bezpečnejšiu dopravu, lepšiu zdravotnú starostlivosť, či lacnejšiu a udržateľnejšiu energiu. Umelá inteligencia však musí mať nad sebou ľudský dohľad a podliehať pravidlám, ktoré budú vysoko etické, a v súlade s európskymi hodnotami ochrany súkromia a nediskriminácie. Takisto musia byť jasne nastavené pravidlá právnej zodpovednosti a transparentnosti jej využívania.
Mihai Tudose (S&D), în scris. – Raportul supus dezbaterii și votului acestei sesiuni plenare este important, în primul rând, pentru semnificația sa: este vorba despre prima încercare de reglementare în domeniul inteligenței artificiale din lume. Spun încercare, pentru că mai sunt multe de făcut pentru a ține pasul cu progresul tehnologic, dar și din cauză că raportul nu asigură întotdeauna raportul cel mai bun între garantarea drepturilor omului și valorificarea potențialului inteligenței artificiale, spre exemplu, în combaterea criminalității și terorismului.
Dar avem, de acum, o bază de lucru în acest plan cu rol tot mai important în economie și societate. Constat, însă, că Uniunea Europeană rămâne, și de această dată, o campioană a reglementării, fără performanțe asemănătoare în zona inovării.
Impactul acestui tip de norme va depinde, în mod covârșitor, de greutatea Uniunii în sfera globală a inteligenței artificiale. Pentru ca securitatea juridică pe care dorim să o conferim prin această legislație inedită să devină realitate efectivă, e nevoie de un impuls urgent și masiv pentru industria europeană de profil.
Tom Vandenkendelaere (PPE), schriftelijk. – Europa kiest resoluut voor ethisch verantwoorde AI. Dit staat in groot contrast met de VS waar innovatie vaak neigt naar een online Wilde Westen en China waar controle over burgers de overhand dreigt te krijgen. Europa kiest voor een wettelijk kader dat innovatie bevordert voor bedrijven én de grondrechten van burgers beschermt. Een moeilijk evenwicht, maar een waarvan ik vind dat deze wetgeving dat bereikt.
Het Europees Parlement wil bovendien ook nu al de kans grijpen om generatieve AI te reguleren. We pleiten ervoor om generatieve AI zoals ChatGPT niet allemaal over dezelfde kam te scheren en automatisch als hoog risico te classificeren maar als een tussencategorie met bijkomende transparantieverplichtingen. In het geval dat generatieve AI toch voor risicovolle toepassingen wordt ingezet die de gezondheid van de mensen zou kunnen schaden of fundamentele rechten zou schenden, worden er extra veiligheidsgrendels ingebouwd. Waar ik echter niet achter sta, is een volledig verbod op realtimegezichtsherkenning in de publieke ruimte. In zeer uitzonderlijke gevallen moet dit wel mogelijk zijn, mits na voorafgaande rechterlijke toestemming en beperkt in de tijd en ruimte. Denk aan het opsporen van een vermist kind of een terrorist die na een aanslag op de loop is.
Carlos Zorrinho (S&D), por escrito. – A Inteligência Artificial tem que ser regulada e regulamentada para assegurar o princípio de que a transição digital deve ser centrada no ser humano e garantir os seus direitos fundamentais. A dinâmica tecnológica no tratamento de dados, utilização de algoritmos inteligentes e desenvolvimento generativo e regenerativo de conteúdos, coloca a regulamentação da Inteligência Artificial num patamar a que não basta responder com delimitação de fronteiras, proibições ou suspensões.
A proposta legislativa em apreciação é um passo importante no sentido certo, gerando clareza legal na proibição de práticas danosas para as pessoas e para o funcionamento de uma sociedade livre e transparente nos seus processos políticos, económicos e sociais.
Sublinho a importância do reforço da capacidade de implementação do regulamento pelas autoridades competentes, designadamente através da criação do Gabinete da IA no plano europeu e da dotação de mais meios para as autoridades nacionais. Reitero a importância determinante na aposta na educação e na literacia digital dos indivíduos como base sistémica para que a IA seja instrumental para as pessoas e para o desenvolvimento sustentável e inclusivo e não se constitua como um referencial de dominação e destruição dos fundamentos da vida em sociedade.