Изкуствен интелект: как ЕС ще регламентира технологията

Използването на технологии с изкуствен интелект в ЕС ще бъде регламентирано с правила, които са първи в света. Научете как те ще Ви защитават.

Мъж се е изправил пред компютърно генерирана фигура с програмен език на заден фон
Тази илюстрация е създадена от изкуствен интелект

Част от стратегията на ЕС за развитие на цифровата икономика е стремежът за регулиране на изкуствения интелект. Целта е едновременно да се създадат подходящи условия за развитие на технологията и да се защитят потребителите.

Изкуственият интелект може да донесе много ползи – по-добро медицинско обслужване, по-безопасен и по-чист транспорт, по-ефективно производство, по-устойчиво потребление на енергия.

През април 2021 г. Европейската комисия предложи първата регулативна рамка за изкуствения интелект. Тя предвижда да се направи оценка и да се класифицират системите, използващи технологията, в групи според риска, на който са изложени потребителите. Системите с по-висок риск ще бъдат подложени на по-строги регулации.

Защо Европейският парламент приема законодателството


Приоритетът на Парламента е системите с изкуствен интелект в ЕС да бъдат безопасни, с ясни правила и ясен произход, да не дискриминират срещу някои групи хора и да не вредят на околната среда. Технологията трябва да подлежи на контрол от хора, а не от автоматични системи.

Парламентът също така настояваше да бъде установено единно определение за изкуствен интелект, което не е свързано с конкретна технология и може да се прилага и към бъдещи системи.

Различни изисквания в зависимост от риска


Законодателният акт за изкуствения интелект налага изисквания към доставчиците и потребителите на системи с изкуствен интелект в зависимост от риска, свързан с конкретните системи. Всички приложения трябва да бъдат оценени, за да се определи подходът към тях.

Неприемлив риск


Системи, които се смятат за заплаха за хората, ще бъдат забранени. Такива могат да бъдат:

  • системи, които манипулират познанията или поведенията на групи от хора: например, играчки с активирани гласови функции, които насърчават опасно поведение на децата;
  • системи, които оценяват и класифицират хората въз основа на поведение, социално-икономически статус или лични характеристики;
  • системи за биометрична идентификация и категоризация на хора;
  • системи за биометрична идентификация в реално време и от разстояние, например за лицево разпознаване.


Някои изключения могат да бъдат допуснати за нуждите на правоприлагането. Системи за дистанционна биометрична идентификация в реално време ще бъдат разрешени в ограничен брой сериозни случаи, докато системи за последваща биометрична идентификация (която не се извършва в реално време) могат да бъдат допуснати при разследването на тежки престъпления, въз основа на съдебно решение.

Висок риск


Системи, които имат отрицателно влияние върху основни права, ще бъдат смятани за високорискови. Те ще преминават през оценяване преди допускането им на пазара и през целия цикъл на използването им. Потребителите ще имат право да подават жалби срещу системи с изкуствен интелект към съответните държавни органи.

Като високорискови са определени:

- системи, които се използват в продукти, обхванати от законодателството за общата безопасност на продуктите (например, играчки, самолети, автомобили, медицински апарати и асансьори);

- системи за управление на критично важна инфраструктура;

- системи за обучение и практически стажове;

- системи за назначаване на хора и управление на човешките ресурси;

- системи за достъп до основни услуги, предоставяни от частния сектор, и до обществени и социални услуги;

- системи за правораздаване;

- системи за управление на миграцията, предоставянето на убежище и контрола на границите;

- системи за оказване на правна помощ и консултации.

Генеративен изкуствен интелект

Генеративният изкуствен интелект като ChatGPT е способен да създава различни видове съдържание (текст, изображения, видеоклипове). Той няма да се класифицира като високорисков, но ще трябва да спазва изисквания за прозрачност и да спазва правилата на ЕС в областта на авторското право.

Когато такъв вид системи се използват, ще трябва да бъде ясно оповестявано, че съдържанието (текст, изображения, видеоклипове) е създадено с помощта на изкуствен интелект, за да бъде това ясно на потребителите.

По-усъвършенствани модели на изкуствен интелект като GPT-4 биха могли да представляват системен риск. Затова те ще трябва да се подлагат на задълбочени оценки, а сериозни инциденти ще трябва да бъдат докладвани на Европейската комисия.

Подкрепа на иновациите


Законът има за цел да предложи на малките фирми и стартиращи предприятия възможности да разработват и обучават модели на изкуствен интелект преди тяхното пускане на пазара.

Поради тази причина има изискване към националните органи да осигурят на предприятията подходяща тестова среда, която симулира условия, близки до реалния свят.

Следващи стъпки


Европейският парламент одобри законодателния акт за изкуствения интелект през март 2024 г., а през май 2024 г. това стори и Съветът на ЕС. Актът ще бъде напълно приложим 24 месеца след влизането му в сила, но прилагането на определени части ще стане възможно преди това:

  • Забраната на системите на изкуствения интелект, които представляват неприемлив риск, ще се прилага шест месеца след влизането на законодателния акт в сила;
  • Кодексите за добри практики ще бъдат приложими девет месеца след влизането на закона в сила;
  • Правилата за модели на изкуствен интелект, които трябва да спазват изискванията за прозрачност, ще бъдат приложими 12 месеца след влизането на закона в сила.


Високорисковите системи ще имат повече време, за да отговорят на изискванията - те ще разполагат с 36 месеца след влизането на закона в сила.

Научете повече за мерките на ЕС в цифровата област: