Christelle Lechevalier (ENF). – Monsieur le Président, il est bon pour la sécurité internationale qu’un débat soit ouvert sur le sujet des robots tueurs. En effet, les systèmes d’armes létales autonomes soulèvent de légitimes questions morales, du fait de l’ampleur des dégâts qu’ils peuvent causer et de la non-discrimination entre leurs cibles potentielles.
De plus, ces robots tueurs devenus ultradéveloppés pourraient à l’avenir échapper au contrôle humain. L’idée d’une convention sur les systèmes d’armes autonomes pourrait être une réponse adaptée, si elle imposait un moratoire ou une interdiction totale aux États signataires, mais il faudrait que cette convention comprenne la Chine, les États-Unis, l’Iran, l’Israël et la Russie, qui ne participent déjà pas à la convention d’Osaka sur les mines antipersonnel, sans quoi elle ne servirait absolument à rien.
Quels que soient les problèmes éthiques en présence, il n’est pas question que le manque de lucidité et de développement militaire des États européens rende ceux-ci toujours plus dépendants des grandes puissances.
Bien que les intentions initiales soient louables, il n’est aucunement dans les compétences de l’Union européenne de signer une convention sur un tel sujet. Même si nous pouvons partager des constats de manière communautaire, les États membres restent maîtres de la position juste à adopter sur ce sujet et, de notre point de vue, nous doutons de la pertinence d’une convention encadrant l’usage des armes autonomes.
Jonathan Arnott (EFDD). – Mr President, artificial intelligence is improving at an incredible pace. We have seen a revolution in how machines learn, some of it reported by the media and sensationalised in the usual way, and the big change in the last couple of years has been the speed at which machines learn. For a computer, for example, to beat the best humans at chess is one thing, but for a new engine to go from learning the rules to beating the best computer in the world in the space of hours, that says that artificial intelligence has improved and is changing. We have computer systems now learning languages to communicate with each other, creating their own languages, in ways that humans don’t even understand.
But real-life military situations are not games of complete information like chess, they are games of incomplete information, based on a fog of war, more like Stratega.
If we cannot understand how machines are making decisions then there are serious future questions, especially when it comes to matters of life and death. So although I disagree with aspects of this report, the debate certainly matters, not just in the UK, not just in Europe, but throughout the whole world and through the United Nations.