Πράξη Τεχνητής Νοημοσύνης της ΕΕ: πρώτος κανονισμός για την τεχνητή νοημοσύνη

Η χρήση της τεχνητής νοημοσύνης στην ΕΕ ρυθμίζεται από τον νόμο AI, τον πρώτο ολοκληρωμένο νόμο στον κόσμο για την τεχνητή νοημοσύνη. Μάθετε πώς σας προστατεύει..

Ένας άντρας αντικρίζει μια φιγούρα που δημιουργήθηκε από υπολογιστή με τη γλώσσα προγραμματισμού, όπως φαίνεται στο φόντο
Αυτή η απεικόνιση τεχνητής νοημοσύνης δημιουργήθηκε με την βοήθεια της τεχνιτής νοημοσύνης

Ως μέρος της ψηφιακής στρατηγικής της, στόχος της ΕΕ είναι να ρυθμίσει την τεχνητή νοημοσύνη (AI) για να εξασφαλίσει καλύτερες συνθήκες για την ανάπτυξη και τη χρήση αυτής της καινοτόμου τεχνολογίας. Η τεχνητή νοημοσύνη μπορεί να αποφέρει πολλά οφέλη, όπως καλύτερη υγειονομική περίθαλψη, ασφαλέστερη και καθαρότερη μεταφορά, αποτελεσματικότερη παραγωγή, φθηνότερη και βιωσιμότερη ενέργεια.

Κανονισμός τεχνητής νοημοσύνης στην Ευρώπη: το πρώτο ολοκληρωμένο πλαίσιο

Τον Απρίλιο του 2021, η Ευρωπαϊκή Επιτροπή πρότεινε το πρώτο ρυθμιστικό πλαίσιο της ΕΕ για την τεχνητή νοημοσύνη. Προτείνει τα συστήματα τεχνητής νοημοσύνης που μπορούν να χρησιμοποιηθούν σε διαφορετικές εφαρμογές να αναλυθούν και να ταξινομηθούν ανάλογα με τον κίνδυνο που ενέχουν για τους χρήστες. Τα διαφορετικά επίπεδα κινδύνου θα σημαίνουν περισσότερη ή λιγότερη ρύθμιση.

Μάθετε περισσότερα για το τι είναι η τεχνητή νοημοσύνη και πώς χρησιμοποιείται

Τι θέλει το Κοινοβούλιο στη νομοθεσία για την τεχνητή νοημοσύνη


Προτεραιότητα του Κοινοβουλίου ήταν να διασφαλίσει ότι τα συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται στην ΕΕ είναι ασφαλή, διαφανή, ανιχνεύσιμα, χωρίς διακρίσεις και φιλικά προς το περιβάλλον. Για την πρόληψη επιβλαβών αποτελεσμάτωνα, τα συστήματα τεχνητής νοημοσύνης θα πρέπει να επιβλέπονται από ανθρώπους και όχι από αυτοματισμούς.


Το Κοινοβούλιο ήθελε επίσης να καθιερώσει έναν τεχνολογικά ουδέτερο, ενιαίο ορισμό για την τεχνητή νοημοσύνη που θα μπορούσε να εφαρμοστεί σε μελλοντικά συστήματα τεχνητής νοημοσύνης.


Μάθετε περισσότερα για το Κοινοβούλιο και το όραμά του για το μέλλον της τεχνητής νοημοσύνης.

Πράξη Τεχνητής Νοημοσύνης: διαφορετικοί κανόνες για διαφορετικά επίπεδα κινδύνου

Οι νέοι κανόνες θεσπίζουν υποχρεώσεις για τους παρόχους και τους χρήστες ανάλογα με το επίπεδο κινδύνου από την τεχνητή νοημοσύνη. Ενώ πολλά συστήματα τεχνητής νοημοσύνης ενέχουν ελάχιστο κίνδυνο, πρέπει να αξιολογηθούν.


Απαράδεκτος κίνδυνος


Οι απαγορευμένες εφαρμογές τεχνητής νοημοσύνης στην ΕΕ περιλαμβάνουν:


• γνωστική συμπεριφορική χειραγώγηση ατόμων ή συγκεκριμένων ευάλωτων ομάδων: για παράδειγμα παιχνίδια που ενεργοποιούνται με φωνή που ενθαρρύνουν επικίνδυνη συμπεριφορά στα παιδιά

• κοινωνική βαθμολογία: ταξινόμηση ατόμων με βάση τη συμπεριφορά, την κοινωνικοοικονομική κατάσταση, τα προσωπικά χαρακτηριστικά

• βιομετρική ταυτοποίηση και κατηγοριοποίηση φυσικών προσώπων

• συστήματα βιομετρικής αναγνώρισης σε πραγματικό χρόνο και εξ αποστάσεως, όπως η αναγνώριση προσώπου σε δημόσιους χώρους.


Ενδέχεται να επιτρέπονται ορισμένες εξαιρέσεις για σκοπούς επιβολής του νόμου. Τα συστήματα απομακρυσμένης βιομετρικής ταυτοποίησης «σε πραγματικό χρόνο» θα επιτρέπονται σε περιορισμένο αριθμό σοβαρών υποθέσεων, ενώ τα «μετα» απομακρυσμένα βιομετρικά συστήματα ταυτοποίησης, όπου η ταυτοποίηση γίνεται μετά από σημαντική καθυστέρηση, θα επιτρέπεται να διώκουν σοβαρά εγκλήματα και μόνο μετά από δικαστική έγκριση.

Υψηλός κίνδυνος

Τα συστήματα τεχνητής νοημοσύνης που επηρεάζουν αρνητικά την ασφάλεια ή τα θεμελιώδη δικαιώματα θα θεωρούνται υψηλού κινδύνου και θα χωρίζονται σε δύο κατηγορίες.


1. Συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται σε προϊόντα που εμπίπτουν στη νομοθεσία της ΕΕ για την ασφάλεια των προϊόντων. Αυτό περιλαμβάνει παιχνίδια, αεροπορία, αυτοκίνητα, ιατρικές συσκευές και ανελκυστήρες.


2. Συστήματα τεχνητής νοημοσύνης που εμπίπτουν σε συγκεκριμένους τομείς που θα πρέπει να καταχωρηθούν σε μια βάση δεδομένων της ΕΕ:

• διαχείριση και λειτουργία υποδομών ζωτικής σημασίας

• εκπαίδευση και επαγγελματική κατάρτιση

• απασχόληση, διαχείριση εργαζομένων και πρόσβαση στην αυτοαπασχόληση

• πρόσβαση και απόλαυση βασικών ιδιωτικών υπηρεσιών και δημόσιων υπηρεσιών και παροχών

• επιβολή του νόμου

• διαχείριση μετανάστευσης, ασύλου και ελέγχου των συνόρων

• βοήθεια στη νομική ερμηνεία και εφαρμογή του νόμου.



Όλα τα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου θα αξιολογηθούν πριν διατεθούν στην αγορά και καθ' όλη τη διάρκεια του κύκλου ζωής τους. Οι πολίτες θα έχουν το δικαίωμα να υποβάλλουν παράπονα για συστήματα τεχνητής νοημοσύνης σε καθορισμένες εθνικές αρχές.

Αναγκαιότητα για διαφάνεια


Η γενετική τεχνητή νοημοσύνη, όπως το ChatGPT, δεν θα ταξινομηθεί ως υψηλού κινδύνου, αλλά θα πρέπει να συμμορφώνεται με τις απαιτήσεις διαφάνειας και τη νομοθεσία της ΕΕ για τα πνευματικά δικαιώματα:

  • Αποκαλύπτοντας ότι το περιεχόμενο δημιουργήθηκε από AI
  • Σχεδιασμός του μοντέλου για να αποτρέψει τη δημιουργία παράνομου περιεχομένου
  • Δημοσίευση περιλήψεων δεδομένων που προστατεύονται από πνευματικά δικαιώματα που χρησιμοποιούνται για εκπαίδευση

Τα μοντέλα τεχνητής νοημοσύνης γενικής χρήσης, με υψηλό αντίκτυπο, που ενδέχεται να ενέχουν συστημικό κίνδυνο, όπως το πιο προηγμένο μοντέλο τεχνητής νοημοσύνης GPT-4, θα πρέπει να υποβληθούν σε διεξοδικές αξιολογήσεις και να αναφέρουν τυχόν σοβαρά περιστατικά στην Επιτροπή.

Περιεχόμενο που είτε δημιουργείται είτε τροποποιείται με τη βοήθεια τεχνητής νοημοσύνης (εικόνες, αρχεία ήχου ή βίντεο π.χ. deepfakes), πρέπει να επισημαίνονται με σαφήνεια ως τεχνητής νοημοσύνης, ώστε οι χρήστες να γνωρίζουν πότε συναντούν τέτοιο περιεχόμενο

Ενθάρρυνση της καινοτομίας της τεχνητής νοημοσύνης και των start-ups στην Ευρώπη


Ο νόμος στοχεύει να υποστηρίξει την καινοτομία τεχνητής νοημοσύνης και τις νεοφυείς επιχειρήσεις στην Ευρώπη, επιτρέποντας στις εταιρείες να αναπτύξουν και να δοκιμάσουν μοντέλα τεχνητής νοημοσύνης γενικής χρήσης πριν από την κυκλοφορία τους στο ευρύ κοινό.

Για αυτόν τον λόγο απαιτείται από τις εθνικές αρχές να παρέχουν στις εταιρείες ένα περιβάλλον δοκιμών για την τεχνητή νοημοσύνη που προσομοιώνει συνθήκες κοντά στον πραγματικό κόσμο.
Αυτό θα βοηθήσει τις μικρές και μεσαίες επιχειρήσεις (ΜΜΕ) να ανταγωνιστούν στην αναπτυσσόμενη αγορά τεχνητής νοημοσύνης της ΕΕ.

Υλοποίηση

Το Κοινοβούλιο έχει συστήσει μια ομάδα εργασίας για την επίβλεψη της εφαρμογής και επιβολής του νόμου για την τεχνητή νοημοσύνη. Οι ευρωβουλευτές θέλουν να βεβαιωθούν ότι οι εγκεκριμένοι κανόνες τεχνητής νοημοσύνης συμβάλλουν στην ανάπτυξη του ψηφιακού τομέα στην Ευρώπη.

Ο όμιλος συνεργάζεται με το γραφείο τεχνητής νοημοσύνης της Ευρωπαϊκής Επιτροπής στην ΕΕ, το οποίο δημιουργήθηκε για να διευκρινίσει βασικές διατάξεις του νόμου.

Χρονοδιάγραμμα συμμόρφωσης με τον νόμο AI της ΕΕ


Το Κοινοβούλιο ενέκρινε τον νόμο περί τεχνητής νοημοσύνης, τον Μάρτιο του 2024 και το Συμβούλιο ακολούθησε, δίνοντας την έγκρισή του τον Μάιο του 2024.

Θα ισχύει πλήρως 24 μήνες μετά την έναρξη εφαρμογής, αλλά ορισμένα μέρη θα τεθούν σε ισχύ νωρίτερα:

• Η απαγόρευση συστημάτων τεχνητής νοημοσύνης που ενέχουν απαράδεκτους κινδύνους άρχισε να ισχύει στις 2 Φεβρουαρίου 2025
• Οι κώδικες πρακτικής θα εφαρμόζονται εννέα μήνες μετά την έναρξη ισχύος
• Οι κανόνες για συστήματα τεχνητής νοημοσύνης γενικής χρήσης που πρέπει να συμμορφώνονται με τις απαιτήσεις διαφάνειας θα ισχύουν 12 μήνες μετά την έναρξη ισχύος

Τα συστήματα υψηλού κινδύνου θα έχουν περισσότερο χρόνο για να συμμορφωθούν με τις απαιτήσεις, καθώς οι υποχρεώσεις που τα αφορούν θα τεθούν σε ισχύ 36 μήνες μετά την έναρξη ισχύος.