Πράξη Τεχνητής Νοημοσύνης της ΕΕ: πρώτος κανονισμός για την τεχνητή νοημοσύνη
Η χρήση της τεχνητής νοημοσύνης στην ΕΕ θα ρυθμίζεται από τον νόμο AI, τον πρώτο ολοκληρωμένο νόμο στον κόσμο για την τεχνητή νοημοσύνη. Μάθετε πώς θα σας προστατεύσει.
Ως μέρος της ψηφιακής στρατηγικής της, η ΕΕ θέλει να ρυθμίσει την τεχνητή νοημοσύνη (AI) για να εξασφαλίσει καλύτερες συνθήκες για την ανάπτυξη και τη χρήση αυτής της καινοτόμου τεχνολογίας. Η τεχνητή νοημοσύνη μπορεί να αποφέρει πολλά οφέλη, όπως καλύτερη υγειονομική περίθαλψη, ασφαλέστερη και καθαρότερη μεταφορά, αποτελεσματικότερη παραγωγή, φθηνότερη και βιωσιμότερη ενέργεια.
Τον Απρίλιο του 2021, η Εθρωπαϊκή Επιτροπή πρότεινε το πρώτο ρυθμιστικό πλαίσιο της ΕΕ για την τεχνητή νοημοσύνη. Προτείνει τα συστήματα τεχνητής νοημοσύνης που μπορούν να χρησιμοποιηθούν σε διαφορετικές εφαρμογές να αναλυθούν και να ταξινομηθούν ανάλογα με τον κίνδυνο που ενέχουν για τους χρήστες. Τα διαφορετικά επίπεδα κινδύνου θα σημαίνουν περισσότερη ή λιγότερη ρύθμιση.
Μάθετε περισσότερα για το τι είναι η τεχνητή νοημοσύνη και πώς χρησιμοποιείται
Τι θέλει το Κοινοβούλιο στη νομοθεσία για την τεχνητή νοημοσύνη
Προτεραιότητα του Κοινοβουλίου είναι να διασφαλίσει ότι τα συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται στην ΕΕ είναι ασφαλή, διαφανή, ανιχνεύσιμα, χωρίς διακρίσεις και φιλικά προς το περιβάλλον.Για την πρόληψη επιβλαβών αποτελεσμάτωνα, τα συστήματα τεχνητής νοημοσύνης θα πρέπει να επιβλέπονται από ανθρώπους και όχι από αυτοματισμούς.
Το Κοινοβούλιο θέλει επίσης να καθιερώσει έναν τεχνολογικά ουδέτερο, ενιαίο ορισμό για την τεχνητή νοημοσύνη που θα μπορούσε να εφαρμοστεί σε μελλοντικά συστήματα τεχνητής νοημοσύνης.
Μάθετε περισσότερα για το έργο του Κοινοβουλίου σχετικά με την τεχνητή νοημοσύνη και το όραμά του για το μέλλον της τεχνητής νοημοσύνης.
Πράξη Τεχνητής Νοημοσύνης: διαφορετικοί κανόνες για διαφορετικά επίπεδα κινδύνου
Οι νέοι κανόνες θεσπίζουν υποχρεώσεις για τους παρόχους και τους χρήστες ανάλογα με το επίπεδο κινδύνου από την τεχνητή νοημοσύνη. Ενώ πολλά συστήματα τεχνητής νοημοσύνης ενέχουν ελάχιστο κίνδυνο, πρέπει να αξιολογηθούν.
Απαράδεκτος κίνδυνος
Τα συστήματα τεχνητής νοημοσύνης απαράδεκτου κινδύνου είναι συστήματα που θεωρούνται απειλή για τους ανθρώπους και θα απαγορευθούν. Αυτά περιλαμβάνουν:
• γνωστική συμπεριφορική χειραγώγηση ατόμων ή συγκεκριμένων ευάλωτων ομάδων: για παράδειγμα παιχνίδια που ενεργοποιούνται με φωνή που ενθαρρύνουν επικίνδυνη συμπεριφορά στα παιδιά
• κοινωνική βαθμολογία: ταξινόμηση ατόμων με βάση τη συμπεριφορά, την κοινωνικοοικονομική κατάσταση, τα προσωπικά χαρακτηριστικά
• βιομετρική ταυτοποίηση και κατηγοριοποίηση φυσικών προσώπων
• συστήματα βιομετρικής αναγνώρισης σε πραγματικό χρόνο και εξ αποστάσεως, όπως η αναγνώριση προσώπου
Ενδέχεται να επιτρέπονται ορισμένες εξαιρέσεις για σκοπούς επιβολής του νόμου. Τα συστήματα απομακρυσμένης βιομετρικής ταυτοποίησης «σε πραγματικό χρόνο» θα επιτρέπονται σε περιορισμένο αριθμό σοβαρών υποθέσεων, ενώ τα «μετα» απομακρυσμένα βιομετρικά συστήματα ταυτοποίησης, όπου η ταυτοποίηση γίνεται μετά από σημαντική καθυστέρηση, θα επιτρέπεται να διώκουν σοβαρά εγκλήματα και μόνο μετά από δικαστική έγκριση.
Υψηλός κίνδυνος
Τα συστήματα τεχνητής νοημοσύνης που επηρεάζουν αρνητικά την ασφάλεια ή τα θεμελιώδη δικαιώματα θα θεωρούνται υψηλού κινδύνου και θα χωρίζονται σε δύο κατηγορίες.
1. Συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται σε προϊόντα που εμπίπτουν στη νομοθεσία της ΕΕ για την ασφάλεια των προϊόντων. Αυτό περιλαμβάνει παιχνίδια, αεροπορία, αυτοκίνητα, ιατρικές συσκευές και ανελκυστήρες.
2. Συστήματα τεχνητής νοημοσύνης που εμπίπτουν σε συγκεκριμένους τομείς που θα πρέπει να καταχωρηθούν σε μια βάση δεδομένων της ΕΕ:
• διαχείριση και λειτουργία υποδομών ζωτικής σημασίας
• εκπαίδευση και επαγγελματική κατάρτιση
• απασχόληση, διαχείριση εργαζομένων και πρόσβαση στην αυτοαπασχόληση
• πρόσβαση και απόλαυση βασικών ιδιωτικών υπηρεσιών και δημόσιων υπηρεσιών και παροχών
• επιβολή του νόμου
• διαχείριση μετανάστευσης, ασύλου και ελέγχου των συνόρων
• βοήθεια στη νομική ερμηνεία και εφαρμογή του νόμου.
Όλα τα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου θα αξιολογηθούν πριν διατεθούν στην αγορά και καθ' όλη τη διάρκεια του κύκλου ζωής τους. Οι πολίτες θα έχουν το δικαίωμα να υποβάλλουν παράπονα για συστήματα τεχνητής νοημοσύνης σε καθορισμένες εθνικές αρχές.
Αναγκαιότητα για διαφάνεια
Η γενετική τεχνητή νοημοσύνη, όπως το ChatGPT, δεν θα ταξινομηθεί ως υψηλού κινδύνου, αλλά θα πρέπει να συμμορφώνεται με τις απαιτήσεις διαφάνειας και τη νομοθεσία της ΕΕ για τα πνευματικά δικαιώματα:
- Αποκαλύπτοντας ότι το περιεχόμενο δημιουργήθηκε από AI
- Σχεδιασμός του μοντέλου για να αποτρέψει τη δημιουργία παράνομου περιεχομένου
- Δημοσίευση περιλήψεων δεδομένων που προστατεύονται από πνευματικά δικαιώματα που χρησιμοποιούνται για εκπαίδευση
Τα μοντέλα τεχνητής νοημοσύνης γενικής χρήσης, με υψηλό αντίκτυπο, που ενδέχεται να ενέχουν συστημικό κίνδυνο, όπως το πιο προηγμένο μοντέλο τεχνητής νοημοσύνης GPT-4, θα πρέπει να υποβληθούν σε διεξοδικές αξιολογήσεις και να αναφέρουν τυχόν σοβαρά περιστατικά στην Επιτροπή.
Περιεχόμενο που είτε δημιουργείται είτε τροποποιείται με τη βοήθεια τεχνητής νοημοσύνης (εικόνες, αρχεία ήχου ή βίντεο π.χ. deepfakes), πρέπει να επισημαίνονται με σαφήνεια ως τεχνητής νοημοσύνης, ώστε οι χρήστες να γνωρίζουν πότε συναντούν τέτοιο περιεχόμενο.
Υποστήριξη της καινοτομίας
Στόχος του νόμου είναι να προσφέρει στις νεοσύστατες και στις ΜΜΕ (Μικρές και Μεσαίες Επιχειρήσεις), ευκαιρίες να αναπτύξουν και να εκπαιδεύσουν μοντέλα τεχνητής νοημοσύνης πριν από την κυκλοφορία τους στο ευρύ κοινό.
Για αυτόν τον λόγο απαιτείται από τις εθνικές αρχές να παρέχουν στις εταιρείες ένα περιβάλλον δοκιμών που προσομοιώνει συνθήκες κοντά στον πραγματικό κόσμο.
Επόμενα βήματα
Το Κοινοβούλιο ενέκρινε τον νόμο περί τεχνητής νοημοσύνης, τον Μάρτιο του 2024 και το Συμβούλιο ακολούθησε, δίνοντας την έγκρισή του τον Μάιο του 2024.
Θα ισχύει πλήρως 24 μήνες μετά την έναρξη εφαρμογής, αλλά ορισμένα μέρη θα τεθούν σε ισχύ νωρίτερα:
• Η απαγόρευση συστημάτων τεχνητής νοημοσύνης που ενέχουν απαράδεκτους κινδύνους θα ισχύει έξι μήνες μετά την έναρξη ισχύος
• Οι κώδικες πρακτικής θα εφαρμόζονται εννέα μήνες μετά την έναρξη ισχύος
• Οι κανόνες για συστήματα τεχνητής νοημοσύνης γενικής χρήσης που πρέπει να συμμορφώνονται με τις απαιτήσεις διαφάνειας θα ισχύουν 12 μήνες μετά την έναρξη ισχύος
Τα συστήματα υψηλού κινδύνου θα έχουν περισσότερο χρόνο για να συμμορφωθούν με τις απαιτήσεις, καθώς οι υποχρεώσεις που τα αφορούν θα τεθούν σε ισχύ 36 μήνες μετά την έναρξη ισχύος.
Περισσότερα για την ψηφιακή δράση της ΕΕ:
- Οι κίνδυνοι των κρυπτονομισμάτων και τα οφέλη της νομοθεσίας της ΕΕ
- Καταπολέμηση του εγκλήματος στον κυβερνοχώρο: εξηγούνται οι νέοι νόμοι της ΕΕ για την ασφάλεια στον κυβερνοχώρο
- Ενίσχυση της κοινής χρήσης δεδομένων στην ΕΕ: ποια είναι τα οφέλη;
- Νόμος της ΕΕ για τις ψηφιακές αγορές και νόμος για τις ψηφιακές υπηρεσίες
- Πέντε τρόποι που θέλει το Ευρωπαϊκό Κοινοβούλιο να προστατεύσει τους διαδικτυακούς παίκτες