ДОКЛАД с препоръки към Комисията относно рамка за етичните аспекти на изкуствения интелект, роботиката и свързаните с тях технологии

8.10.2020 - (2020/2012(INL))

Комисия по правни въпроси
Докладчик: Ибан Гарсия дел Бланко
Докладчици по становище (*):
Урмас Пает, Комисия по външни работи
Александра Гезе, Комисия по вътрешния пазар и защита на потребителите
Валтер Флего, Комисия по транспорт и туризъм
Асита Канко, Комисия по граждански свободи, правосъдие и вътрешни работи
(*) Асоциирани комисии — член 57 от Правилника за дейността
(Право на инициатива – член 47 от Правилника за дейността)


Процедура : 2020/2012(INL)
Етапи на разглеждане в заседание
Етапи на разглеждане на документа :  
A9-0186/2020
Внесени текстове :
A9-0186/2020
Приети текстове :

ПРЕДЛОЖЕНИЕ ЗА РЕЗОЛЮЦИЯ НА ЕВРОПЕЙСКИЯ ПАРЛАМЕНТ

с препоръки към Комисията относно рамка за етичните аспекти на изкуствения интелект, роботиката и свързаните с тях технологии

(2020/2012(INL))

Европейският парламент,

 като взе предвид член 225 от Договора за функционирането на Европейския съюз,

 като взе предвид член 114 от Договора за функционирането на Европейския съюз,

 като взе предвид Хартата на основните права на Европейския съюз,

 като взе предвид Регламент № 2018/1488 на Съвета от 28 септември 2018 г. за създаване на Съвместно предприятие за европейски високопроизводителни изчислителни технологии[1],

 като взе предвид Директива 2000/43/ЕО на Съвета от 29 юни 2000 г. относно прилагане на принципа на равно третиране на лица без разлика на расата или етническия произход[2] (Директива за равенството между расите),

 като взе предвид Директива 2000/78/EО на Съвета от 27 ноември 2000 г. за създаване на основна рамка за равно третиране в областта на заетостта и професиите[3] (Директивата за равно третиране в областта на заетостта),

 като взе предвид Регламент (ЕС) 2016/679 на Европейския парламент и на Съвета от 27 април 2016 г. относно защитата на физическите лица във връзка с обработването на лични данни и относно свободното движение на такива данни и за отмяна на Директива 95/46/EО (Общ регламент относно защитата на данните)[4] (ОРЗД) и като взе предвид Директива (ЕС) 2016/680 на Европейския парламент и на Съвета от 27 април 2016 г. относно защитата на физическите лица във връзка с обработването на лични данни от компетентните органи за целите на предотвратяването, разследването, разкриването или наказателното преследване на престъпления или изпълнението на наказания и относно свободното движение на такива данни и за отмяна на Рамково решение 2008/977/ПВР на Съвета[5],

 като взе предвид Междуинституционалното споразумение от 13 април 2016 г. за по-добро законотворчество[6],

 като взе предвид предложението за регламент на Европейския парламент и на Съвета от 6 юни 2018 г. за създаване на програмата „Цифрова Европа“ за периода 2021 – 2027 г. (COM(2018)0434),

 като взе предвид съобщението на Комисията до Европейския парламент, Съвета, Европейския икономически и социален комитет и Комитета на регионите от 11 декември 2019 г., озаглавено „Европейският зелен пакт“ (COM(2019)0640),

 като взе предвид съобщението на Комисията до Европейския парламент, Съвета, Европейския икономически и социален комитет и Комитета на регионите от 19 февруари 2020 г. относно изкуствения интелект – Европа в търсене на високи постижения и атмосфера на доверие (COM(2020)0065),

 като взе предвид съобщението на Комисията до Европейския парламент, Съвета, Европейския икономически и социален комитет и Комитета на регионите от 19 февруари 2020 г. относно Европейска стратегия за данните (COM(2020)0066),

 като взе предвид съобщението на Комисията до Европейския парламент, Съвета, Европейския икономически и социален комитет и Комитета на регионите от 19 февруари 2020 г. относно Изграждане на цифровото бъдеще на Европа (COM(2020)0067),

 като взе предвид заключенията на Съвета на Европейския съюз относно изграждането на цифровото бъдеще на Европа от юни 2020 г.,

 като взе предвид своята резолюция от 16 февруари 2017 г., съдържаща препоръки към Комисията относно гражданскоправни норми за роботиката[7],

 като взе предвид своята резолюция от 1 юни 2017 г. относно цифровизацията на европейската промишленост[8],

 като взе предвид своята резолюция от 12 септември 2018 г. относно автономните оръжейни системи[9],

 като взе предвид своята резолюция от 11 септември 2018 г. относно езиковото равенство в ерата на цифровите технологии[10],

 като взе предвид своята резолюция от 12 февруари 2019 г. относно всеобхватната европейска промишлена политика в областта на изкуствения интелект и роботиката[11],

 като взе предвид доклада от 8 април 2019 г. на създадената от Комисията експертна група на високо равнище по въпросите на изкуствения интелект, озаглавен „Насоки относно етичните аспекти за надежден ИИ“,

 като взе предвид общите прегледи и проучванията, изготвени по искане на Комитета за бъдещето на науката и технологиите (STOA), ръководен от Отдела за научни прогнози към Генералната дирекция за парламентарни изследвания, озаглавени What if algorithms could abide by ethical principles? („Какво би станало, ако алгоритмите можеха да следват етични принципи?“), Artificial Intelligence ante portas: Legal & ethical reflections („Изкуственият интелект пред вратите ни: правни и етични разсъждения“), A governance framework for algorithmic accountability and transparency („Рамка за управление за алгоритмична отчетност и прозрачност“), Should we fear artificial intelligence? (Трябва ли да се страхуваме от изкуствения интелект?“) и The ethics of artificial intelligence: Issues and initiatives („Етика на изкуствения интелект: проблеми и инициативи“),

 като взе предвид Рамковата конвенция на Съвета на Европа за защита на националните малцинства, Протокол № 12 към Конвенцията за защита на правата на човека и основните свободи и Европейската харта за регионалните или малцинствените езици,

 като взе предвид препоръката на Съвета на ОИСР относно изкуствения интелект, приета на 22 май 2019 г.,

 като взе предвид членове 47 и 54 от своя Правилник за дейността,

 като взе предвид становището на комисията по външни работи, становището на комисията по вътрешния пазар и защита на потребителите, становището на комисията по транспорт и туризъм, становището на комисията по граждански свободи, правосъдие и вътрешни работи, становището на комисията по заетост и социални въпроси, становището на комисията по околна среда, обществено здраве и безопасност на храните и становището на комисията по култура и образование,

 като взе предвид доклада на комисията по правни въпроси (A9-0186/2020),

Увод

А. като има предвид, че разработването, внедряването и използването на т.нар. „изкуствен интелект“ (наричан също „ИИ“), роботиката и свързаните с тях технологии се извършва от хора и техният избор определя потенциала на тези технологии да носят полза на обществото;

Б. като има предвид, че изкуственият интелект, роботиката и свързаните с тях технологии, които имат потенциал да създават възможности за предприятията и ползи за гражданите и които могат да оказват пряко въздействие върху всички аспекти на нашите общества, включително основните права и социалните и икономическите принципи и ценности, както и да оказват трайно влияние върху всички области на дейност, се насърчават и се развиват бързо;

В. като има предвид, че изкуственият интелект, роботиката и свързаните с тях технологии ще доведат до съществени промени на пазара на труда и на работното място; като има предвид, че те могат потенциално да заменят работниците, които извършват повтарящи се дейности, да улеснят системите за съвместна работа човек-машина, да повишат конкурентоспособността и просперитета и да създадат нови възможности за работа за квалифицираните работници, като същевременно породят сериозни предизвикателства по отношение на реорганизацията на работната сила;

Г. като има предвид, че развитието на изкуствения интелект, роботиката и свързаните с тях технологии може също така да допринесе за постигане на целите за устойчивост на Европейския зелен пакт в много различни сектори; като има предвид, че цифровите технологии могат да увеличат въздействието на политиките по отношение на опазването на околната среда; като има предвид, че те могат също така да допринесат за намаляване на задръстванията и на емисиите на парникови газове и замърсители на въздуха;

Д. като има предвид, че в сектори като обществения транспорт подпомаганите от изкуствен интелект интелигентни транспортни системи може да се използват за свеждане до минимум на чакането на опашка, оптимизиране на маршрутите, предоставяне на възможност на хората с увреждания да бъдат по-независими и увеличаване на енергийната ефективност, като по този начин се увеличат усилията за декарбонизация и бъде намален екологичният отпечатък;

Е. като има предвид, че тези технологии създават нови бизнес възможности, които могат да допринесат за възстановяване на европейската индустрия след настоящата здравна и икономическа криза, ако бъдат използвани в по-голяма степен, например в транспортната индустрия; като има предвид, че такива възможности могат да създадат нови работни места, тъй като внедряването на въпросните технологии има потенциала да увеличи производителността на предприятията и да допринесе за повишаване на ефективността; като има предвид, че програмите за иновации в тази област могат да спомогнат регионалните клъстери да процъфтяват;

Ж. като има предвид, че Съюзът и неговите държави членки носят особена отговорност да оползотворяват, насърчават и увеличават добавената стойност на изкуствения интелект и да гарантират, че технологиите с ИИ са безопасни и допринасят за благосъстоянието и общия интерес на техните граждани, тъй като могат да имат огромен принос за постигането на общата цел за подобряване на живота на гражданите и насърчаване на просперитета в рамките на Съюза, като допринасят за разработването на по-добри стратегии и иновации в редица области и сектори; като има предвид, че за да се оползотвори пълният потенциал на изкуствения интелект и да бъдат добре запознати ползвателите с ползите и предизвикателствата, породени от технологиите с ИИ, е необходимо ИИ или цифровата грамотност да бъдат включени в образованието и обучението, включително във връзка с подкрепата за цифровото приобщаване, както и да се провеждат информационни кампании на равнището на Съюза, които да дават точна представа за всички аспекти на развитието на ИИ;

З. като има предвид, че една обща регулаторна рамка на равнището на Съюза за разработването, внедряването и използването на изкуствения интелект, роботиката и свързаните с тях технологии („регулаторна рамка за ИИ“) следва да позволява на гражданите да споделят ползите, извлечени от техния потенциал, като същевременно ги защитава от потенциалните рискове, свързани с такива технологии, и насърчава надеждността на тези технологии в Съюза и извън него; като има предвид, че тази рамка следва да се основава на правото и ценностите на Съюза и да се ръководи от принципите на прозрачност и обяснимост, справедливост, отчетност и отговорност;

И. като има предвид, че такава регулаторна рамка е от ключово значение за избягване на разпокъсаността на вътрешния пазар, произтичаща от различното национално законодателство, и ще спомогне за насърчаване на така необходимите инвестиции, за развитие на инфраструктура за данни и за подкрепа на научните изследвания; като има предвид, че тя следва да се състои от общи правни задължения и етични принципи, както е посочено в предложението за регламент, посочено в приложението към настоящата резолюция; като има предвид, че тя следва да бъде създадена в съответствие с насоките за по-добро регулиране;

Й. като има предвид, че Съюзът разполага със строга правна рамка, за да гарантира, наред с другото, защитата на личните данни, неприкосновеността на личния живот и недопускането на дискриминация, да насърчава равенството между половете, защитата на околната среда и правата на потребителите; като има предвид, че такава правна рамка, състояща се от обширен корпус от хоризонтално и секторно законодателство, включително съществуващите правила относно безопасността на продуктите и отговорността за тях, ще продължи да се прилага във връзка с изкуствения интелект, роботиката и свързаните с тях технологии, макар че може да са необходими някои корекции на специфични правни инструменти, за да се отрази цифровата трансформация и да се посрещнат новите предизвикателства, породени от използването на изкуствен интелект;

К. като има предвид съществуващите опасения, че е възможно действащата правна уредба на Съюза, включително правото в областта на защитата на потребителите и достиженията на трудовото и социалното право, правото в областта на защитата на данните, на безопасността на продуктите и на надзора на пазара, както и законодателството в областта на борбата срещу дискриминацията, вече да не е подходяща за ефективно посрещане на рисковете, породени от изкуствения интелект, роботиката и свързаните с тях технологии;

Л. като има предвид, че наред с корекциите на съществуващото законодателство, следва правните и етичните въпроси, свързани с технологиите с ИИ, да бъдат разгледани чрез ефективна, всеобхватна и ориентирана към бъдещето законодателна рамка на Съюза, отразяваща принципите и ценностите на Съюза, залегнали в Договорите и Хартата на основните права, която рамка следва да се въздържа от свръхрегулиране, като единствено запълни съществуващите пропуски в нормативната уредба и повиши правната сигурност както за предприятията, така и за гражданите, а именно чрез задължителни мерки за предотвратяване на практики, които безспорно биха подкопали основните права;

М. като има предвид, че една нова регулаторна рамка трябва да отчита всички засегнати интереси; като има предвид, че внимателното разглеждане – в рамките на оценка на въздействието – на последствията от една нова регулаторна рамка за всички участници следва да бъде предварително условие за предприемането на по-нататъшни законодателни стъпки; като има предвид, че ключовата роля на малките и средните предприятия (МСП) и стартиращите предприятия, особено в икономиката на Съюза, обосновава използването на строго пропорционален подход, който да им позволи да се развиват и да предприемат иновации;

 

Н. като има предвид, че изкуственият интелект, роботиката и свързаните с тях технологии могат да имат сериозни последици върху физическата и нематериалната неприкосновеност на отделни лица, групи и обществото като цяло и че тази индивидуална и колективна вреда трябва да намери отговор в законодателни действия;

О. като има предвид, че за да бъде спазена регулаторната рамка на Съюза за ИИ, може да се наложи приемането на специфични правила за транспортния сектор на Съюза;

П. като има предвид, че технологиите с ИИ са от стратегическо значение за транспортния сектор, включително поради това, че те повишават безопасността и достъпността на всички видове транспорт и създават нови възможности за заетост и по-устойчиви бизнес модели; като има предвид, че един подход на Съюза към разработването на изкуствения интелект, роботиката и свързаните с тях технологии в транспорта има потенциала да повиши световната конкурентоспособност и стратегическата автономност на икономиката на Съюза;

Р. като има предвид, че човешката грешка все още е в основата на близо 95% от всички пътнотранспортни произшествия в Съюза; като има предвид, че Съюзът имаше за цел да намали смъртните случаи на година при пътнотранспортни произшествия в Съюза с 50% до 2020 г. в сравнение с 2010 г., но с оглед на липсата на напредък поднови усилията си в рамката за политиката относно пътната безопасност за периода 2021 – 2030 г. – Следващи стъпки към визия „Нулева смъртност“; като има предвид, че в това отношение изкуственият интелект, автоматизацията и други нови технологии имат голям потенциал и съществено значение за повишаване на пътната безопасност чрез намаляване на възможността от човешка грешка;

С. като има предвид, че регулаторната рамка на Съюза за ИИ следва също така да отразява необходимостта да се гарантира спазването на правата на работниците; като има предвид, че следва да се обърне необходимото внимание на Рамковото споразумение на европейските социални партньори относно цифровизацията от юни 2020 г.;

Т. като има предвид, че обхватът на регулаторната рамка на Съюза за ИИ следва да бъде подходящ, пропорционален и подложен на цялостна оценка; като има предвид, че тя следва да покрива широк спектър от технологии и техните компоненти, включително алгоритми, софтуер и данни, използвани или генерирани от тях, необходим е основан на риска целенасочен подход, за да се избегне възпрепятстването на бъдещи иновации и създаването на ненужни тежести, особено за МСП; като има предвид, че разнообразието от приложения, които се задействат от изкуствен интелект, роботика и свързаните с тях технологии, усложнява намирането на единно решение, което да е подходящо за целия спектър от рискове;

У. като има предвид, че анализът на данни и ИИ оказват все по-голямо въздействие върху информацията, която се предоставя на гражданите; като има предвид, че ако с подобни технологии се злоупотребява, те могат да застрашат основните права на свобода на изразяване и на получаване на информация, както и свободата и плурализма на медиите;

Ф. като има предвид, че географският обхват на регулаторната рамка на Съюза за ИИ следва да обхваща всички компоненти на изкуствения интелект, роботиката и свързаните с тях технологии, разработени, внедрени или използвани в Съюза, включително в случаите, когато част от технологиите може да се намират извън Съюза или да нямат конкретно местоположение;

Х. като има предвид, че регулаторната рамка на Съюза за ИИ следва да обхваща всички съответни етапи, а именно разработването, внедряването и използването на съответните технологии и техните компоненти, като изисква надлежно отчитане на съответните правни задължения и етични принципи, и следва да определя условията, за да се гарантира, че разработчиците, внедрителите и ползвателите спазват изцяло тези задължения и принципи;

Ц. като има предвид, че хармонизираният подход към етичните принципи, свързани с изкуствения интелект, роботиката и свързаните с тях технологии, изисква общо разбиране в Съюза на концепциите, които формират основата на технологиите, като алгоритми, софтуер, данни или биометрично разпознаване;

Ч. като има предвид, че действията на равнището на Съюза са оправдани от необходимостта да се избягва регулаторна разпокъсаност или поредица от национални регулаторни разпоредби без общ знаменател и да се гарантира хомогенно прилагане на общите етични принципи, заложени в правото, при разработването, внедряването и използването на високорискови изкуствен интелект, роботика и свързани с тях технологии; като има предвид, че когато рисковете са значителни, са необходими ясни правила;

Ш. като има предвид, че общите етични принципи са ефикасни само когато са заложени и в законодателството и когато са определени лицата, отговорни за гарантирането, оценяването и мониторинга на съответствието;

Щ. като има предвид, че етичните насоки – като например принципите, приети от експертната група на високо равнище по въпросите на изкуствения интелект – представляват добра отправна точка, но не могат да гарантират, че разработчиците, внедрителите и ползвателите ще действат честно и ще гарантират ефективната защита на отделните лица; като има предвид, че тези насоки са от още по-голямо значение по отношение на високорисковите изкуствен интелект, роботика и свързани с тях технологии;

АА. като има предвид, че всяка държава членка следва да определи национален надзорен орган, който да отговаря за осигуряването, оценяването и мониторинга на съответствието на разработването, внедряването и използването на високорискови изкуствен интелект, роботика и свързани с тях технологии с регулаторната рамка на Съюза за ИИ, както и за създаването на възможност за дискусии и обмен на гледни точки в тясно сътрудничество със съответните заинтересовани страни и гражданското общество; като има предвид, че националните надзорни органи следва да сътрудничат помежду си;

АБ. като има предвид, че за да се гарантира хармонизиран подход в целия Съюз и оптимално функциониране на цифровия единен пазар, следва да се направи оценка на координацията на равнището на Съюза от страна на Комисията и всички/или съответните институции, органи, служби и агенции на Съюза, които биха могли да бъдат определени в този контекст, по отношение на новите възможности и предизвикателства, по-специално тези от трансгранично естество, произтичащи от текущото технологично развитие; като има предвид, че за тази цел на Комисията следва да бъде възложено да намери подходящо решение за структуриране на упоменатата координация на равнището на Съюза;

Ориентиран към човека и създаден от човека изкуствен интелект

1. счита, че без да се засяга специфичното за сектора законодателство, е необходима ефективна и хармонизирана регулаторна рамка, основана на правото на Съюза, Хартата на основните права на Европейския съюз („Хартата“) и международното право в областта на правата на човека и приложима по-специално за високорисковите технологии, за да се установят еднакви стандарти в целия Съюз и ефективно да се защитят ценностите на Съюза;

2. счита, че всяка нова регулаторна рамка за ИИ, състояща се от правни задължения и етични принципи за разработването, внедряването и използването на изкуствения интелект, роботиката и свързаните с тях технологии, следва да зачита изцяло Хартата и съответно да зачита човешкото достойнство, самостоятелността и самоопределянето на личността, да предотвратява вреди, да насърчава справедливостта, приобщаването и прозрачността, да премахва предубежденията и дискриминацията, включително по отношение на малцинствените групи, и да зачита и спазва принципите за ограничаване на отрицателните външни ефекти на използваната технология, за обяснимост на технологиите и гарантиране, че технологиите съществуват, за да служат на хората, а не да ги заменят или да вземат решения вместо тях, като крайната цел е увеличаване на благоденствието на всеки отделен човек;

3. подчертава асиметрията между хората, които си служат с технологии с ИИ, и онези, които си взаимодействат с тях и са предмет на тяхното въздействие; подчертава в тази връзка, че доверието на гражданите в ИИ може да се изгради единствено върху регулаторна рамка, основаваща се на „етика по подразбиране“ и „етика при проектирането“, която да гарантира, че всеки пуснат в действие ИИ изцяло зачита и спазва Договорите, Хартата и вторичното право на Съюза; счита, че надграждането върху такъв подход следва да съответства на принципа на предпазливост, който направлява законодателството на Съюза, и следва да бъде в центъра на всяка рамка за ИИ; във връзка с това призовава за ясен и последователен модел на управление, който да даде възможност на дружествата и новаторите да развиват допълнително изкуствения интелект, роботиката и свързаните с тях технологии;

4. счита, че всяко законодателно действие, свързано с изкуствения интелект, роботиката и свързаните с тях технологии, следва да бъде в съответствие с принципите на необходимост и пропорционалност;

5.  счита, че такъв подход ще позволи на дружествата да въвеждат иновативни продукти на пазара и да създават нови възможности, като същевременно се гарантира защитата на ценностите на Съюза, чрез насочване към развитие на системи с ИИ, които включват етичните принципи на Съюза при проектирането; счита, че такава основаваща се на ценности регулаторна рамка ще представлява добавена стойност чрез предоставянето на Съюза на уникално конкурентно предимство и ще допринесе значително за благосъстоянието и благоденствието и просперитета на гражданите и предприятията на Съюза чрез поощряване на вътрешния пазар; подчертава, че такава регулаторна рамка за ИИ ще представлява също така добавена стойност по отношение на насърчаването на иновациите на вътрешния пазар; счита, че например в транспортния сектор този подход дава възможност на предприятията от Съюза да се превърнат в световни лидери в тази област;

6. отбелязва, че правната рамка на Съюза следва да се прилага за изкуствения интелект, роботиката и свързаните с тях технологии, включително софтуера, алгоритмите и данните, използвани или генерирани от такива технологии;

7. отбелязва, че възможностите, основаващи се на изкуствения интелект, разчитат на големи информационни масиви, като е необходима критична маса от данни за обучение на алгоритмите и прецизиране на резултатите; приветства във връзка с това предложението на Комисията за създаване на общо пространство на данни в Съюза, за да се засили обменът на данни и да се подпомогнат научните изследвания при пълно зачитане на европейските правила за защита на данните;

8. счита, че настоящата правна рамка на Съюза, по-специално относно защитата на неприкосновеността на личния живот и на личните данни, ще трябва да се прилага в пълна степен по отношение на ИИ, роботиката и свързаните с тях технологии и е да бъде подложена на редовен преглед и при необходимост да бъде актуализирана, за да може ефективно да се справи с рисковете, породени от тези технологии, и във връзка с това може да се подобри чрез допълване със стабилни ръководни етични принципи; посочва, че в случаите, в които би било прибързано да се приемат правни актове, следва да се използва незадължителна правна рамка;

9. очаква от Комисията да включи силен етичен подход в законодателно предложение, посочено в приложението към настоящата резолюция, като последващо действие във връзка с Бялата книга относно изкуствения интелект, включително във връзка с безопасността, отговорността и основните права, която да увеличава максимално възможностите и да свежда до минимум рисковете от технологиите с ИИ; очаква, че посоченото законодателно предложение ще включва политически решения на основните признати рискове, свързани с изкуствения интелект, включително, наред с другото, относно етичното събиране и използване на големи информационни масиви, въпроса за прозрачността и пристрастността на алгоритмите; призовава Комисията да разработи критерии и показатели за етикетиране на технологиите с ИИ, за да се стимулира прозрачността, обяснимостта и отчетността и да се стимулират допълнителни предпазни мерки от страна на разработчиците; подчертава необходимостта да се инвестира в интегрирането на нетехнически дисциплини в изследването и проучването на ИИ, като се отчита социалният контекст;

10. счита, че изкуственият интелект, роботиката и свързаните с тях технологии трябва да бъдат съобразени с нуждите на човека в съответствие с принципа, че тяхното развитие, внедряване и използване следва винаги да бъдат в услуга на хората – никога обратното – и следва да се стремят към подобряване на благосъстоянието и личната свобода, както и към опазване на мира, предотвратяване на конфликти и укрепване на международната сигурност, като същевременно се максимизират предлаганите ползи и се предотвратяват и намаляват рисковете от тях;

11. заявява, че разработването, внедряването и използването на високорисков изкуствен интелект, роботика и свързани с тях високорискови технологии, включително, но не само от хора, следва винаги да се водят от етични принципи и да са проектирани така, че да зачитат и допускат човешко действие и демократичен надзор, както и да дават възможност за възвръщане на човешкия контрол, когато е необходимо, чрез прилагане на подходящи контролни мерки;

Оценка на риска

12. подчертава, че една бъдеща уредба би трябвало да следва диференциран, насочен към бъдещето и основан на риска подход за регулиране на изкуствения интелект, роботиката и свързаните с тях технологии, включително технологично неутрални стандарти във всички сектори, със специфични за сектора стандарти, когато това е целесъобразно; отбелязва, че за да се гарантира еднакво прилагане на системата за оценка на риска и спазване на съответните правни задължения с цел гарантиране на еднакви условия на конкуренция между държавите членки и предотвратяване на фрагментирането на вътрешния пазар, е необходим изчерпателен и кумулативен списък на високорисковите сектори и високорисковите употреби или цели; подчертава, че този списък трябва да бъде предмет на редовна преоценка, и отбелязва, че предвид развиващото се естество на тези технологии в бъдеще може да бъде необходимо да се преразгледа начинът, по който се извършва оценката на свързания с тях риск;

13. счита, че определянето на това дали изкуственият интелект, роботиката и свързаните с тях технологии следва да се считат за високорискови и следователно да подлежат на задължително спазване на правните задължения и етичните принципи, определени в регулаторната рамка за ИИ, следва винаги да произтича от безпристрастна, регулирана и външна предварителна оценка, основана на конкретни и определени критерии;

14. във връзка с това счита, че изкуственият интелект, роботиката и свързаните с тях технологии следва да бъдат разглеждани като високорискови, когато разработването, внедряването и използването им водят до значителен риск за причиняване на нараняване или вреда на отделни лица или на обществото в нарушение на основните права и правилата за безопасност, установени в правото на Съюза; счита, че за целите на оценката на това дали технологиите с ИИ водят до такъв риск следва да се вземат предвид секторът, в който те биват разработвани, внедрявани или използвани, тяхната специфична употреба или цел и сериозността на нараняването или вредата, които може да се очаква да настъпят; първият и вторият от критериите, а именно секторът и специфичната употреба или цел, следва да се разглеждат кумулативно;

15. подчертава, че оценката на риска на тези технологии следва да се извършва въз основа на изчерпателен и кумулативен списък на високорисковите сектори и високорисковите употреби и цели; изразява категоричното си убеждение, че в рамките на Съюза следва да има съгласуваност по отношение на оценката на риска на тези технологии, особено в случай че те се оценяват както в светлината на съответствието им с регулаторната рамка за ИИ, така и съгласно друго приложимо законодателство, специфично за сектора.

16. счита, че този основан на риска подход следва да бъде разработен по такъв начин, че да се ограничи във възможно най-голяма степен административната тежест за дружествата, и по-специално за МСП, като се използват съществуващите инструменти; тези инструменти включват, но не се ограничават до списъка за оценка на въздействието върху защитата на данните, както е предвидено в Регламент (ЕС) 2016/679;

Прозрачност, отчетност и характеристики за безопасност

17. припомня, че правото на информация на потребителите е залегнало като основен принцип в правото на Съюза и подчертава, че поради това то следва да бъде изцяло прилагано във връзка с изкуствения интелект, роботиката и свързаните с тях технологии; счита, че то следва да включва по-специално прозрачност по отношение на взаимодействието със системите за изкуствен интелект, включително процесите на автоматизация, както и по отношение на начина им на функциониране, възможностите, напр. начина на филтриране и представяне на информацията, точността и ограниченията; счита, че тази информация следва да се предоставя на националните надзорни органи и на националните органи за защита на потребителите;

18. подчертава, че доверието на потребителите е от съществено значение за разработването и използването на тези технологии, които могат да носят присъщи рискове, ако се основават на непрозрачни алгоритми и необективни набори от данни; счита, че потребителите следва да имат правото да бъдат информирани в достатъчна степен и по разбираем, навременен, стандартизиран, точен и достъпен начин за това, че се използват алгоритмични системи, за логиката им, както и за евентуалния им резултат и въздействието върху потребителите, как може да се осъществи контакт с човек, разполагащ с правомощия за вземане на решения, и как решенията на системата могат да бъдат проверени, ефикасно обжалвани и коригирани; подчертава във връзка с това необходимостта от разглеждане и спазване на принципите на информация и оповестяване, върху които са изградени достиженията на правото на Общността в областта на защитата на потребителите; счита, че е необходимо да се предоставя подробна информация на крайните ползватели относно функционирането на транспортните системи и подпомаганите от ИИ превозни средства;

19. отбелязва, че е от съществено значение алгоритмите и наборите от данни, използвани или генерирани от изкуствения интелект, роботиката и свързаните с тях технологии, да подлежат на обяснение и когато е строго необходимо – при пълно зачитане на законодателството на Съюза в областта на защитата на данните, неприкосновеността на личния живот и правата върху интелектуалната собственост и търговските тайни – да са достъпни за публичните органи, като например националните надзорни органи и органите за наблюдение на пазара; освен това отбелязва, че съгласно възможно най-високите и приложими стандарти на отрасъла документацията следва да се съхранява от лицата, които участват в различните етапи на разработване на високорисковите технологии; отбелязва възможността органите за надзор на пазара да имат допълнителни прерогативи в това отношение; подчертава във връзка с това ролята на законосъобразния обратен инженеринг; счита, че може да се наложи преразглеждане на настоящото законодателство в областта на надзора на пазара, за да се гарантира, че то е в състояние да отговори на появата на изкуствения интелект, роботиката и свързаните с тях технологии;

20. призовава за изискване, когато оценката изисква това, разработчиците и внедрителите на високорискови технологии да предоставят на публичните органи съответната документация относно използването, проектирането и инструкциите за безопасност, включително, когато е строго необходимо и при пълно спазване на законодателството на Съюза в областта на защитата на данните, неприкосновеността на личния живот, правата на интелектуална собственост и търговските тайни, да предоставят изходния код, инструментите за разработване и данните, използвани от системата; отбелязва, че подобно задължение би дало възможност за оценка на тяхното съответствие с правото и етичните принципи на Съюза, и във връзка с това отбелязва примера, даден от законоустановеното депозиране на публикации в национална библиотека; отбелязва важното разграничение между прозрачността на алгоритмите и прозрачността на използването на алгоритмите;

21. освен това отбелязва, че за да се зачита човешкото достойнство, самостоятелност и безопасност, следва да се обърне дължимото внимание на жизненоважните модерни медицински уреди и на необходимостта от независими ползващи се с доверие органи, които да запазят средствата, необходими за предоставяне на услуги на лицата, носещи такива уреди, когато първоначалният разработчик или внедрител вече не ги предоставя; например тези услуги биха включвали поддръжка, ремонт и подобрения, включително софтуерни актуализации, които отстраняват неизправности и уязвимости;

22. счита, че високорисковите изкуствен интелект, роботика и свързани с тях технологии, включително софтуер, алгоритми и данни, използвани или генерирани от такива технологии, независимо от отрасъла, в който са разработени, внедрени и се използват, следва по проект да бъдат разработвани по сигурен, проследим, технически солиден, надежден, етичен и правно обвързващ начин и да бъдат предмет на независим контрол и преглед; счита по-специално, че всички участници във веригите за разработване и доставка на продукти и услуги с изкуствен интелект следва да носят правна отговорност, и подчертава необходимостта от механизми за гарантиране на отговорност и отчетност;

23. подчертава, че регулирането и насоките относно обяснимостта, възможността за одит, проследимостта и прозрачността, когато това се изисква от оценка на риска и е строго необходимо, при същевременно пълно зачитане на правото на Съюза, например правото относно защитата на данните, неприкосновеността на личния живот, правата върху интелектуалната собственост и търговските тайни, като достъпа на публичните органи до технологии, данни и компютърни системи, на които се основават тези технологии, са от съществено значение за гарантиране на доверието на гражданите в тези технологии, дори ако степента на обяснимост е свързана със сложността на технологиите; посочва, че невинаги е възможно да се обясни защо даден модел е довел до конкретен резултат или решение, като пример за това са алгоритмите от типа „черна кутия“; поради това счита, че спазването на тези принципи е предварително условие за гарантиране на отчетност;

24. счита, че гражданите, включително потребителите, следва да бъдат информирани, когато си взаимодействат със система, използваща изкуствен интелект, по-специално за персонализиране на продукт или услуга за нейните потребители,  дали и как могат да изключат или да ограничат персонализирането;

25. изтъква във връзка с това, че за да бъдат надеждни, изкуственият интелект, роботиката и свързаните с тях технологии трябва да бъдат технически устойчиви и точни;

26. подчертава, че е важно мрежите от взаимосвързани ИИ и роботика да бъдат защитени и че трябва да се предприемат сериозни мерки за предотвратяване на нарушения на сигурността, изтичане на данни, заразяване на данни, кибератаки и злоупотреба с лични данни и че това ще изисква съответните агенции, органи и институции както на равнището на Съюза, така и на национално равнище да работят заедно и в сътрудничество с крайните потребители на тези технологии; призовава Комисията и държавите членки да гарантират зачитането на ценностите на Съюза и зачитането на основните права по всяко време, когато разработват и внедряват технологии с ИИ, за да гарантират сигурността и устойчивостта на цифровата инфраструктура на Съюза;

Непредубеденост и недискриминация

27. припомня, че изкуственият интелект, в зависимост от начина, по който се разработва, използва и прилага, има потенциал да създава и засилва предубежденията, включително чрез вътрешни предубеждения в базовите набори от данни, и следователно да създава различни форми на автоматизирана дискриминация, включително непряка дискриминация, по отношение по-специално на групи от хора със сходни характеристики; призовава Комисията и държавите членки да вземат всички възможни мерки, за да се избегнат подобни предубеждения и да се гарантира пълна защита на основните права;

28. изразява загриженост във връзка с рисковете от предубеденост и дискриминация при разработването, внедряването и използването на високорискови изкуствен интелект, роботика и свързани с тях технологии, включително софтуер, алгоритми и данни, използвани или генерирани от такива технологии; припомня, че при всички обстоятелства те следва да зачитат правото на Съюза, както и правата на човека и човешкото достойнство, самостоятелността и самоопределението на отделния човек, както и да гарантират равно третиране и недискриминация за всички;

29. подчертава, че технологиите с ИИ следва да бъдат проектирани така, че да зачитат, да служат на и да защитават ценностите на Съюза и физическата и психическата неприкосновеност, да поддържат културното и езиковото многообразие на Съюза и да спомагат за удовлетворяването на основните потребности; подчертава необходимостта от избягване на такова използване, което би могло да доведе до недопустима пряка или косвена принуда, да породи риск от подкопаване на психологическата самостоятелност и психичното здраве или да доведе до необосновано наблюдение, измама или недопустима манипулация;

30. твърдо вярва, че основните права на човека, залегнали в Хартата, следва да се спазват стриктно, за да се гарантира, че тези нововъзникващи технологии не водят до пропуски по отношение на защитата;

31. потвърждава, че евентуалните предубеждения и дискриминация чрез употребата на софтуер, алгоритми и данни могат да причинят явна вреда на отделни лица и на обществото като цяло, поради което следва да бъдат преодолени чрез насърчаване на разработването и споделянето на стратегии за борба с тях, например премахване на предубедеността при наборите от данни в научноизследователската и развойната дейност, както и чрез разработване на правила за обработката на данни; счита, че този подход има потенциала да превърне софтуера, алгоритмите и данните в активи за борба с предубежденията и дискриминацията в някои ситуации, както и в сила за постигането на равни права и положителна социална промяна;

32. заявява, че етичните ценности справедливост, точност, поверителност и прозрачност следва да бъдат в основата на тези технологии, което в този контекст означава техните операции да не генерират предубедени резултати;

33. подчертава значението на качеството на наборите от данни, използвани при изкуствения интелект, роботиката и свързаните с тях технологии, в зависимост от техния контекст, по-специално по отношение на представителността на данните за обучение, премахването на предубедеността при наборите от данни, използваните алгоритми, данните и стандартите за тяхното обобщаване; подчертава, че тези набори от данни следва да подлежат на проверка от страна на националните надзорни органи, ако е налице такова искане, с цел да се гарантира тяхното съответствие с посочените по-горе принципи;

34. подчертава, че в контекста на широкоразпространената дезинформационна война, подклаждана по-специално от неевропейски участници, технологиите с изкуствен интелект могат да окажат неблагоприятно въздействие в етичен план чрез експлоатиране на предубеденост в данните и алгоритмите или чрез преднамерено променяне на данните за самообучение на изкуствения интелект от страна на трета държава, и те биха могли да бъдат изложени също така на други форми на опасна и зловредна манипулация, извършвана по непредвидими начини и водеща до неизмерими последици; следователно е налице все по-належаща необходимост Съюзът да продължи с инвестициите в областта на научните изследвания, анализа, иновациите и трансграничния и междусекторен трансфер на знания с цел разработване на технологии с изкуствен интелект, които да са очевидно независими от всякакъв вид профилиране, предубеденост и дискриминация, и които да могат да допринасят ефективно за борбата с фалшивите новини и дезинформацията, като същевременно се зачитат неприкосновеността на личните данни и правната рамка на Съюза;

35. припомня колко е важно да се гарантират ефективни средства за правна защита на физическите лица и призовава държавите членки да гарантират наличието на достъпни, финансово приемливи, независими и ефективни процедури и механизми за преглед, за да се гарантира безпристрастно разглеждане от страна на човек на всички твърдения за нарушения на правата на гражданите, например правата на потребителите или гражданските права, чрез използването на алгоритмични системи, независимо дали те принадлежат на субекти от публичния или частния сектор; подчертава значението на проекта за директива на Европейския парламент и на Съвета относно представителни искове за защита на колективните интереси на потребителите и за отмяна на Директива 2009/22/ЕО, за който на 22 юни 2020 г. беше постигнато политическо споразумение относно бъдещи случаи на оспорване във връзка с въвеждането или текущото използване на система за изкуствен интелект, водеща до риск от нарушаване на правата на потребителите, или търсенето на средства за защита при нарушаването на права; призовава Комисията и държавите членки да гарантират, че националните и европейските организации на потребителите разполагат с достатъчно финансиране, за да подпомагат потребителите при упражняването на тяхното право на правна защита в случаите на нарушаване на техните права;

36. следователно счита, че всяко физическо или юридическо лице следва да може да потърси правна защита срещу решение, взето в негов ущърб чрез използването на изкуствен интелект, роботика или свързана с тях технология, в нарушение на правото на Съюза или на националното право;

37 счита, че като първо звено за контакт в случаи на предполагаеми нарушения на регулаторната рамка на Съюза в този контекст, потребителите биха могли да се обръщат и към националните надзорни органи с искания за правна защита с оглед на гарантиране на ефективното прилагане на горепосочената рамка;

Социална отговорност и баланс между половете

38. подчертава, че социално отговорният изкуствен интелект, роботика и свързани с тях технологии трябва да изпълняват роля, допринасяща за намирането на решения, които да защитават и насърчават основните права и ценности на нашето общество, като например демокрацията, върховенството на закона, разнообразните и независими медии и обективната и свободно достъпна информация, здравето и икономическия просперитет, равните възможности, правата на работниците и социалните права, качественото образование, защитата на децата, културното и езиковото многообразие, равенството между половете, цифровата грамотност, иновациите и творчеството; припомня, че е необходимо да се гарантира надлежното отчитане и представляване на интересите на всички граждани, включително и на тези в маргинализирано или уязвимо положение, като например лицата с увреждания;

39. подчертава, че е важно да се постигне високо равнище на обща цифрова грамотност и да се обучават висококвалифицирани специалисти в тази област, както и да се гарантира взаимното признаване на тези квалификации в рамките на целия Съюз; подчертава, че е необходимо да има различни екипи от разработчици и инженери, които да работят заедно с важни обществени организации, за да се предотврати непреднамереното включване на предубеждения по отношение на пола и културните нагласи в алгоритмите, системите и приложенията с изкуствен интелект; подкрепя създаването на образователни програми и дейности за повишаване на обществената осведоменост относно общественото, правното и етичното въздействие на изкуствения интелект;

40. подчертава жизненоважното значение на гарантирането на свободата на мисълта и свободата на изразяване, като по този начин се гарантира, че тези технологии не насърчават словото на омразата или насилието; следователно счита, че възпрепятстването или ограничаването на свободата на изразяване на мнение, упражнявана по електронен път, е незаконно съгласно основните принципи на Съюза, с изключение на случаите, когато упражняването на това основно право води до незаконни действия;

41. подчертава, че изкуственият интелект, роботиката и свързаните с тях технологии могат да допринесат за намаляване на социалните неравенства, и заявява, че европейският модел за тяхното развитие трябва да се основава на доверието на гражданите и на по-голямо социално сближаване;

42. подчертава, че внедряването на която и да е система за изкуствен интелект не следва да ограничава неправомерно достъпа на потребителите до обществени услуги, като например социалната сигурност; поради това призовава Комисията да направи оценка на начините за постигане на тази цел;

43. подчертава значението на отговорната научноизследователска и развойна дейност, насочена към максимизиране на пълния потенциал на изкуствения интелект, роботиката и свързаните с тях технологии за гражданите и общественото благо; призовава за мобилизирането на ресурси от Съюза и неговите държави членки с цел развитие и подпомагане на отговорните иновации;

44. подчертава, че технологичният експертен опит ще придобива все по-голямо значение, и следователно ще бъде необходимо непрекъснато актуализиране на обучителните курсове, по-специално за бъдещите поколения, и насърчаване на професионалната преквалификация на лицата, които вече са на пазара на труда; заявява в тази връзка, че иновациите и обучението следва да бъдат насърчавани не само в частния, но и в публичния сектор;

45. настоява, че разработването, внедряването и използването на тези технологии не следва да причинява каквито и да било вреди на отделни лица, на обществото или на околната среда, и че съответно разработчиците, внедрителите и ползвателите на тези технологии следва да носят отговорност за нанасянето на такива вреди, в съответствие с приложимите правила на Съюза и национални правила за носене на отговорност;

46. призовава държавите членки да преценят дали загубата на работни места в резултат на внедряването на тези технологии следва да води до изготвянето на подходящи обществени политики, например за намаляване на работното време;

47. поддържа становището, че е изключително необходимо при проектирането да се прилага подход, който да се основава на ценностите и етичните принципи на Съюза, за да се създадат подходящи условия за широко обществено приемане на изкуствения интелект, роботиката и свързаните с тях технологии; счита, че този подход, насочен към разработването на надежден, етично отговорен и стабилен в техническо отношение изкуствен интелект, е важен фактор за постигането на устойчива и интелигентна мобилност, която да бъде безопасна и достъпна;

48. обръща внимание на голямата добавена стойност на автономните превозни средства за лицата с ограничена мобилност, тъй като те позволяват на тези лица да се включат по-ефективно в индивидуалния автомобилен транспорт, улеснявайки по този начин тяхното ежедневие; подчертава значението на достъпността, особено при проектирането на системи от типа „мобилността като услуга“ (MaaS);

49. призовава Комисията да продължи да подкрепя разработването на надеждни системи с изкуствен интелект, за да направи транспорта по-сигурен, по-ефикасен, достъпен, финансово приемлив и приобщаващ, включително за лицата с намалена подвижност, и по-специално хората с увреждания, като взема предвид Директива (ЕС) 2019/882 на Европейския парламент и на Съвета1 и законодателството на Съюза относно правата на пътниците;

50. счита, че изкуственият интелект може да спомогне за по-доброто използване на уменията и компетентностите на лицата с увреждания, и че прилагането на изкуствения интелект на работното място може да допринесе за приобщаващи пазари на труда и по-високи равнища на заетост за лицата с увреждания;

Околна среда и устойчивост

51. заявява, че изкуственият интелект, роботиката и свързаните с тях технологии следва да се използват от правителствата и от бизнеса в полза на хората и планетата, да допринасят за постигането на целите за устойчиво развитие, за опазването на околната среда, за неутралност по отношение на климата и за целите на кръговата икономика; счита, че разработването, внедряването и използването на тези технологии следва да допринасят за прехода към екологосъобразна икономика, за опазване на околната среда, за минимизиране и компенсиране на вредите, причинени на околната среда в рамките на жизнения цикъл и по цялата верига за доставки на тези технологии, в съответствие с правото на Съюза;

52. предвид значителното им въздействие върху околната среда, за целите на предходния параграф въздействието върху околната среда във връзка с разработването, внедряването и използването на изкуствения интелект, роботиката и свързаните с тях технологии може да се оценява през целия им жизнен цикъл от органите, отговарящи за съответния сектор, когато това е приложимо и целесъобразно; тази оценка би могла да включва оценка на въздействието във връзка с добива на необходимите материали, потреблението на енергия и емисиите на парникови газове, причинени от тяхното разработване, внедряване и използване;

53. предлага за целите на разработването на отговорни авангардни решения във връзка с изкуствения интелект потенциалът на изкуствения интелект, роботиката и свързаните с тях технологии да бъде проучен, стимулиран и максимизиран чрез отговорни научни изследвания и развойни дейности, което изисква мобилизирането на ресурси от Съюза и от неговите държави членки;

54. подчертава факта, че разработването, внедряването и използването на тези технологии осигурява възможности за насърчаване на целите за устойчиво развитие, очертани от ООН, глобалния енергиен преход и декарбонизацията;

55. счита, че целите за социална отговорност, баланс между половете, опазване на околната среда и устойчивост следва да не засягат съществуващите общи и секторни задължения в тези области; счита, че следва да бъдат определени насоки за изпълнение с незадължителен характер, които да се прилагат за разработчиците, внедрителите и ползвателите, по-специално по отношение на високорисковите технологии, във връзка с методологията за оценка на тяхното съответствие с настоящия регламент и постигането на тези цели;

56. призовава Съюза да насърчава и финансира развитието на ориентирани към човека изкуствен интелект, роботика и свързани с тях технологии, насочени към предизвикателствата в областта на околната среда и климата и гарантиращи зачитането на основните права, чрез използването на стимули в сферата на данъчното облагане, възлагането на обществени поръчки и др.;

57. подчертава, че въпреки настоящия значителен въглероден отпечатък в резултат от разработването, внедряването и използването на изкуствения интелект, роботиката и свързаните с тях технологии, включително автоматизираните решения и машинното самообучение, тези технологии могат да допринесат за намаляване на настоящия екологичен отпечатък на сектора на ИКТ; подчертава, че тези и други подходящо регулирани сродни технологии следва да бъдат критични фактори за постигане на целите на Зеления пакт, целите на ООН за устойчиво развитие и Парижкото споразумение в много различни сектори и следва да засилят въздействието на политиките за опазване на околната среда, например политиките във връзка с намаляването на отпадъците и влошаването на състоянието на околната среда;

58. призовава Комисията да извърши проучване относно въздействието на въглеродния отпечатък от използването на технологии с изкуствен интелект, както и относно положителните и отрицателните последици от прехода към използването на технологии с изкуствен интелект за потребителите;

59. отбелязва, че предвид все по-честото разработване на приложения с изкуствен интелект, които изискват изчислителни ресурси, ресурси за съхранение и енергийни ресурси, въздействието на системите с изкуствен интелект върху околната среда следва да се разглежда през целия им жизнен цикъл;

60. счита, че в някои области като здравеопазването крайната отговорност трябва да се носи от физическо или юридическо лице; подчертава необходимостта от проследими и публично достъпни данни за обучение за алгоритмите;

61. решително подкрепя създаването на предложеното от Комисията европейско пространство за здравните данни[12], което цели насърчаване на обмена на здравни данни и подпомагане на научните изследвания, при пълно зачитане на защитата на данните, включително обработката на данни с технология с изкуствен интелект, и което увеличава и разширява използването и повторната употреба на здравни данни; насърчава увеличаването на трансграничния обмен на здравни данни, свързването и използването на тези данни чрез сигурни федерирани хранилища, специфични видове здравна информация, като например европейските здравни досиета, геномна информация и цифрови здравни изображения, с цел улесняване на създаването на оперативно съвместими регистри или бази данни в рамките на целия Съюз в някои области, като например научните изследвания, науката и здравеопазването;

62. подчертава ползите от изкуствения интелект за профилактиката, лечението и контрола на заболяванията, пример за което е фактът, че изкуственият интелект прогнозира епидемията от COVID-19 преди СЗО; настоятелно призовава Комисията да предостави на Европейския център за профилактика и контрол върху заболяванията (ECDC) регулаторната рамка и ресурсите за независимо събиране на необходимите анонимизирани здравни данни в реално време, в сътрудничество с държавите членки, за да се справи, наред с другото, с проблемите, които се появиха при кризата с COVID-19;

Неприкосновеност на личния живот и биометрично разпознаване

63. отбелязва, че генерирането и използването на данни, включително и лични данни, като например биометрични данни, в резултат на разработването, внедряването и използването на изкуствен интелект, роботика и свързани с тях технологии, бързо се увеличават, като по този начин се подчертава необходимостта от зачитане и прилагане на правата на гражданите за неприкосновеност на личния живот и за защита на личните данни, в съответствие с правото на Съюза;

64. изтъква, че възможността, осигурявана от тези технологии за използването на лични и нелични данни с цел категоризиране и микронасочване към определени лица, откриване на уязвимите страни на отделни лица или извличане на полза от точни предвидими знания, трябва да бъде неутрализирана чрез ефективно прилагане на принципите за защита на данните и неприкосновеност на личния живот, като например свеждане на данните до минимум, правото на възражение във връзка с профилирането и контрола върху ползването на данните, правото на получаване на обяснение за решение, основаващо се на автоматизирана обработка, и защита на неприкосновеността на личния живот още на етапа на проектиране на дадена технология, както и чрез прилагане на принципите на пропорционалност, необходимост и ограничение въз основа на строго определени цели, в съответствие с Общия регламент относно защитата на данните;

65. подчертава, че когато за цели от значителен обществен интерес публичните органи използват технологии за дистанционно разпознаване, като например разпознаване на биометрични данни, и по-специално разпознаване на лица, тяхното ползване следва винаги да бъде оповестявано, да бъде пропорционално, целенасочено и лимитирано до конкретни цели, да бъде ограничено във времето, в съответствие със законодателството на Съюза, и да бъде надлежно съобразено със зачитането на достойнството и независимостта на хората, както и с основните права, посочени в Хартата; критериите и ограниченията за това използване следва да подлежат на съдебна проверка и на демократичен контрол и следва да отчитат психологическото и социално-културното въздействие върху гражданското общество;

66. изтъква, че макар внедряването на изкуствения интелект, роботиката и свързаните с тях технологии в рамките на решения на публичните органи да осигурява предимства, то може да доведе и до сериозни злоупотреби, като например масово наблюдение, прогнозиране в полицейската област и нарушения на правата за справедлив процес;

67. счита, че технологиите, които могат да генерират автоматизирани решения, замествайки по този начин решенията, вземани от публичните органи, следва да се третират с възможно най-голямо внимание, особено в областта на правосъдието и правоприлагането;

68. счита, че държавите членки следва да прибягват до такива технологии единствено при наличието на категорични доказателства за тяхната надеждност и ако конструктивната намеса и проверка от човек е възможна или систематична в случаите на застрашаване на основните свободи; подчертава, че в тези случаи е важно националните органи да извършат строга оценка за въздействието на внедрените системи за изкуствен интелект върху основните права, особено ако тези технологии са оценени като високорискови;

69. счита, че всяко решение, взето във връзка с изкуствения интелект, роботиката или свързаните с тях технологии в рамките на прерогативите на публичните органи, следва да бъде обект на конструктивна човешка намеса и на надлежен процес, особено ако тези технологии са оценени като високорискови;

70. счита, че технологичният напредък не следва да води до използването на изкуствения интелект, роботиката и свързаните с тях технологии за автономно вземане на решения в публичния сектор, тъй като тези решения оказват пряко и значително въздействие върху правата и задълженията на гражданите;

71. отбелязва, че изкуственият интелект, роботиката и свързаните с тях технологии в областта на правоприлагането и граничния контрол биха могли да подобрят обществената безопасност и сигурност, но също така се нуждаят от всеобхватен и строг обществен контрол и от възможно най-високо равнище на прозрачност по отношение на оценката на риска за отделните приложения, както и от общ преглед за използването на изкуствения интелект, роботиката и свързаните с тях технологии в областта на правоприлагането и граничния контрол; счита, че тези технологии крият значителни етични рискове, които трябва да бъдат обмислени подобаващо, като се отчитат възможните неблагоприятни последици за физическите лица, по-специално във връзка с техните права за неприкосновеност на личния живот, защита на личните данни и недискриминация; подчертава, че злоупотребата с тях може да се превърне в пряка заплаха за демокрацията и че при тяхното внедряване и използване трябва да се спазват принципите на пропорционалност и необходимост, Хартата на основните права, както и съответното вторично право на Съюза, като например правилата за защита на данните; подчертава, че изкуственият интелект не следва никога да замества хората при издаването на съдебни решения; счита, че съдебните решения, като например решенията за освобождаване под гаранция или условно, или решенията, които се основават единствено на автоматизирана обработка и произвеждат правно действие по отношение на физически лица или засягат тези лица в значителна степен, трябва винаги да включват съдържателно оценяване и преценка, извършена от човек;

Добро управление

72. подчертава, че подходящото управление при разработването, внедряването и използването на изкуствен интелект, роботика и свързани с тях технологии, и по-специално високорискови технологии, чрез въвеждането на мерки, насочени към отчетността и преодоляването на потенциални рискове във връзка с предубеждения и дискриминация, може да повиши безопасността и доверието на гражданите в тези технологии;

73. счита, че прилагането от националните надзорни органи във всяка държава членка на обща рамка за управление на тези технологии, координирана от Комисията и/или от съответните институции, органи, служби или агенции на Съюза, на които въпросната задача може да бъде възложена в този контекст, ще осигури съгласуван европейски подход и ще предотврати разпокъсването на единния пазар;

74. отбелязва, че при разработването на изкуствения интелект, роботиката и свързаните с тях технологии се използват големи обеми от данни и че обработката, споделянето, достъпът и използването на тези данни трябва да бъдат управлявани в съответствие с разпоредбите на закона и определените изисквания за качество, интегритет, оперативна съвместимост, прозрачност, сигурност, неприкосновеност на личния живот и упражняване на контрол;

75. припомня, че достъпът до данни е важен елемент за растежа на цифровата икономика; във връзка с това изтъква, че оперативната съвместимост на данните, при ограничаване на блокиращите ефекти, играе основна роля за гарантирането на справедливи пазарни условия и насърчаването на равнопоставени условия на конкуренция в рамките на цифровия единен пазар;

76. подчертава необходимостта да се гарантира, че личните данни се защитават по подходящ начин, и по-специално данните за или от уязвими групи, като например лица с увреждания, пациенти, деца, възрастни хора, малцинства, мигранти и други групи, изложени на  риск от изключване;

77. отбелязва, че разработването, внедряването и използването на изкуствен интелект, роботика и свързани с тях технологии от страна на публичните органи често се възлагат на частни лица; счита, че това не следва да застрашава по какъвто и да било начин защитата на обществените ценности и основните права; счита, че правилата и условията за възлагане на обществени поръчки следва да отразяват етичните стандарти, наложени на публичните органи, когато това е приложимо;

Потребителите и вътрешният пазар

78. подчертава, че е важно да се прилага регулаторна рамка за изкуствения интелект, когато потребителите в Съюза са ползватели или субекти на алгоритмична система или пък когато се превръщат в цел или са насочвани към такава система, независимо от мястото на установяване на субектите, които разработват, продават или използват системата; освен това счита, че в интерес на правната сигурност правилата, определени в тази рамка, следва да се прилагат за всички разработчици и по цялата верига за създаване на стойност, а именно при разработването, внедряването и използването на съответните технологии и техните компоненти, и следва да гарантират високо равнище на защита за потребителите;

79. отбелязва неразривната връзка между изкуствения интелект, роботиката и свързаните с тях технологии, включително софтуера, алгоритмите и данните, използвани или генерирани от тези технологии, и някои области, като например интернет на нещата, машинно самообучение, системи, основаващи се на правила, или автоматизирани и подпомагани процеси на вземане на решения; отбелязва освен това, че може да се разработят стандартизирани символи, с чиято помощ тези системи да се разясняват на потребителите в случаите, когато системите са твърде сложни или когато те могат да вземат решения, оказващи значително въздействие върху живота на потребителите;

80. припомня, че Комисията следва да разгледа действащата нормативна уредба и нейното прилагане, включително достиженията на правото в областта на защитата на потребителите, законодателството в областта на отговорността за продуктите, законодателството в областта на безопасността на продуктите и законодателството в областта на надзора на пазара, за да се установят правните пропуски, както и съществуващите регулаторни задължения; счита, че това е необходимо, за да се установи дали нормативната уредба може да отговори на новите предизвикателства във връзка с навлизането на изкуствения интелект, роботиката и свързаните с тях технологии и да гарантира високо равнище на защита за потребителите;

81. подчертава, че е необходимо да се предприемат ефективни действия за справяне с предизвикателствата, произтичащи от изкуствения интелект, роботиката и свързаните с тях технологии, както и да се гарантира, че потребителите разполагат с необходимите права и са надлежно защитени; подчертава необходимостта да се погледне отвъд традиционните принципи за предоставяне и разкриване на информация, върху които се основават достиженията на правото на ЕС за защита на потребителите, тъй като ще са необходими по-силни права на потребителите и ясни ограничения за разработването, внедряването и използването на изкуствения интелект, роботиката и свързаните с тях технологии, за да се гарантира, че тези технологии допринасят за подобряване на живота на потребителите и се развиват по начин, съобразен със зачитането на основните права, правата на потребителите и ценностите на Съюза;

82. посочва, че нормативната уредба, въведена с Решение № 768/2008/EО, предвижда хармонизиран списък от задължения за производителите, вносителите и дистрибуторите, насърчава използването на стандарти и предвижда няколко нива на контрол в зависимост от това, доколко е опасен продуктът; счита, че тази уредба следва да се прилага и за продукти с вграден изкуствен интелект;

83. отбелязва, че за целите на анализа на въздействието на изкуствения интелект, роботиката и свързаните с тях технологии върху потребителите, достъпът до данните би могъл да бъде разширен, така че да обхване и националните компетентни органи, при пълно зачитане на правото на Съюза, като например разпоредбите за защита на данните, за неприкосновеността на личния живот и за търговските тайни; припомня, че е важно потребителите да се научат да бъдат по-добре информирани и да разполагат с повече умения при използването на изкуствения интелект, роботиката и свързаните с тях технологии, за да бъдат защитени от потенциални рискове и да могат да отстояват правата си; 

84. призовава Комисията да предложи мерки за проследимост на данните, като вземе предвид законността във връзка с придобиването на данни, защитата на правата на потребителите и закрилата на основните права, при пълно зачитане на правото на Съюза, като например правото за защита на личните данни, неприкосновеността на личния живот, правата върху интелектуалната собственост и търговските тайни;

85. отбелязва, че тези технологии следва да са ориентирани към потребителите и да са проектирани така, че да позволяват на всички хора да използват продуктите или услугите с изкуствен интелект, независимо от своята възраст, пол, способности или особености; отбелязва, че тяхната достъпност за лицата с увреждания е от особено голямо значение; отбелязва, че не следва да се прилага един универсален подход, а следва да се разгледат някои универсални принципи за дизайн, насочени към възможно най-широк кръг от потребители, като се следват съответни стандарти за достъпност; подчертава, че това ще даде възможност за справедлив достъп и активно участие на лицата в съществуващи и нововъзникващи човешки дейности, извършвани с помощта на компютър, както и при прилагането на помощни технологии;

86. подчертава, че когато финансирането от публични източници допринася в значителна степен за разработването, внедряването или използването на изкуствения интелект, роботиката и свързаните с тях технологии, наред с откритите обществени поръчки и стандартите за свободно договаряне, може да се разгледа възможността за публично оповестяване по подразбиране на кода, на генерираните данни – доколкото те не са лични – и на модела на обучение, ако е налице договореност за това с разработчика, с цел да се гарантира прозрачност, да се повиши равнището на киберсигурността и да се осигури възможност за повторно използване на тези технологии с цел стимулиране на иновациите; подчертава, че по този начин може да бъде разгърнат пълният потенциал на единния пазар, като се избягва разпокъсване на пазара;

87.  счита, че изкуственият интелект, роботиката и свързаните с тях технологии имат огромен потенциал да осигурят възможности за подобрения в много аспекти от живота на потребителите, наред с гарантирането на по-добри продукти и услуги, както и да се възползват от по-добър надзор на пазара, доколкото всички приложими принципи, условия (включително прозрачност и проверимост) и разпоредби продължават да действат;

Сигурност и отбрана

88. подчертава, че политиките на Европейския съюз и неговите държави членки в областта на сигурността и отбраната се ръководят от принципите, залегнали в Европейската харта на основните права, и от тези на Устава на Организацията на обединените нации, както и от общо разбиране за универсалните ценности за зачитане на ненакърнимите и неотчуждими права на човешката личност, на човешкото достойнство, свободата, демокрацията, равенството и правовата държава; подчертава, че тези универсални ценности трябва да се зачитат при всички свързани с отбраната усилия, полагани в рамките на Съюза, като същевременно се насърчават мирът, сигурността и напредъкът в Европа и в света;

89. приветства приемането от срещата на високодоговарящите се страни по Конвенцията на ООН за определени конвенционални оръжия (ККО) през 2019 г. на 11 ръководни принципа за разработването и използването на автономни оръжейни системи; изразява обаче съжаление, че не е постигнато съгласие относно правно обвързващ инструмент за регулиране на смъртоносните автономни оръжейни системи (LAWS), с ефективен механизъм за правоприлагане; приветства и подкрепя изготвените от експертната група на високо равнище на Комисията по въпросите на изкуствения интелект „Етични насоки за надежден изкуствен интелект“, публикувани на 9 април 2019 г., както и нейната позиция относно смъртоносните автономни оръжейни системи; настоятелно призовава държавите членки да разработят национални стратегии за дефиниране и определяне на статута на смъртоносните автономни оръжейни системи с оглед на изготвянето на цялостна стратегия на равнището на Съюза, и да насърчават, съвместно с върховния представител на Съюза/заместник-председател на Комисията (наричан по-долу „върховен представител/заместник-председател“), и Съвета, обсъждането на тези системи в рамките на ККО на ООН и в други подходящи форуми и установяването на международни норми по отношение на етичните и правните параметри на разработването и използването на напълно автономни, полуавтономни и дистанционно управлявани смъртоносни оръжейни системи; припомня в това отношение своята резолюция относно автономните оръжейни системи от 12 септември 2018 г. и призовава отново за спешно изготвяне и приемане на обща позиция относно смъртоносните автономни оръжейни системи, за международна забрана на разработването, производството и използването на смъртоносни автономни оръжейни системи, позволяващи осъществяването на нападения без пълноценен човешки контрол и без спазване на принципа за задължително участие на човек във веригата, в съответствие с изявлението на най-изтъкнатите изследователи на изкуствения интелект в света в тяхното открито писмо от 2015 г.; приветства споразумението на Съвета и Парламента за изключване на смъртоносните автономни оръжия „без възможността за пълноценен човешки контрол по отношение на решенията за подбор и намеса, когато се извършват нападения“ от списъка с действия, финансирани по линия на Европейския фонд за отбрана; счита, че не трябва да се пренебрегват етичните аспекти на други приложения на изкуствения интелект в областта на отбраната, например разузнаване, наблюдение и войсково разузнаване (ISR) или кибероперации, и че трябва да се обърне специално внимание на разработването и използването на дронове за военни операции;

90 подчертава, че нововъзникващите технологии в областта на отбраната и сигурността, които не са обхванати от международното право, следва да се преценяват, като се взема предвид принципът за зачитане на хуманността и повелите на обществената съвест;

91. препоръчва всяка европейска рамка, регулираща използването на основани на изкуствен интелект системи в областта на отбраната – както в бойна, така и в друга обстановка, да е съобразена с всички приложими правни режими, и по-специално международното хуманитарно право и международното право в областта на правата на човека, и да съответства на правото, принципите и ценностите на Съюза, като се вземат предвид различията по отношение на техническата инфраструктура и инфраструктурата за поддържане на сигурност в рамките на Съюза;

92. признава, че за разлика от промишлената база в сферата на отбраната, някои жизненоважни иновации в областта на изкуствения интелект могат да дойдат от малките държави членки, поради което стандартизираният за ОПСО подход следва да гарантира, че по-малките държави членки и МСП няма да бъдат изключени; подчертава, че набор от общи способности за изкуствения интелект на ЕС, които са в съответствие с оперативните концепции на съответните държави членки, могат да преодолеят различията в техническо отношение, които биха могли да изключат държави, неразполагащи със съответната технология, експертен опит в сектора или способността да внедрят системи с изкуствен интелект в своите министерства на отбраната;

93. счита, че настоящите и бъдещите дейности, свързани със сигурността и отбраната в рамките на Съюза, ще ползват изкуствения интелект, роботиката и автономността, както и свързаните с тях технологии и че надеждният, солиден и вдъхващ доверие изкуствен интелект би могъл да допринесе за съвременни и ефективни военни сили; ето защо Съюзът трябва да поеме водеща роля в научните изследвания и разработването на системи с изкуствен интелект в областта на сигурността и отбраната; счита, че използването на основаващи се на изкуствения интелект приложения в областта на сигурността и отбраната би могло да донесе редица преки ползи за командващия операцията, например по-високо качество на събираните данни, по-добра ситуационна осведоменост, повишена бързина на вземане на решения, намален риск от съпътстващи щети благодарение на по-добри връзки, защита на силите на място, както и по-голяма надеждност на военното оборудване, и следователно по-малък риск за хората и за това да се стигне до човешки жертви; подчертава, че разработването на надежден изкуствен интелект в областта на отбраната е от съществено значение за гарантирането на европейската стратегическа автономност по отношение на способностите и оперативните възможности; припомня, че системите с изкуствен интелект се превръщат и в ключови елементи в борбата с нововъзникващите заплахи за сигурността, като например кибернетичните и хибридните военни действия – както онлайн, така и офлайн; същевременно подчертава всички рискове и предизвикателства, произтичащи от нерегламентираното използване на изкуствения интелект; отбелязва, че изкуственият интелект може да бъде уязвим спрямо манипулации, грешки и неточности;

94. подчертава, че  по същество технологиите с изкуствен интелект имат двойна употреба и при разработването на изкуствен интелект за дейности, свързани с отбраната, може да се извлече полза от обмена между военните и гражданските технологии; подчертава, че изкуственият интелект в дейностите, свързани с отбраната, е хоризонтална революционна технология, чието развитие може да предостави възможности за конкурентоспособност и стратегическа автономност на Съюза;

95. признава, че в днешните времена на хибридни и модерни военни действия обемът и скоростта на информацията на ранните етапи от дадена криза може да са твърде големи за анализаторите и че информацията може да се обработва от система с изкуствен интелект, за да се гарантира, че лицата, отговорни за вземането на решения, могат да проследят целия спектър от информация в разумен срок, така че да се реагира бързо;

96. подчертава, че е важно да се инвестира в развитието на човешкия капитал за изкуствения интелект и да се насърчават необходимите умения и обучението в областта на технологиите с изкуствен интелект, предназначени за сигурността и отбраната, с особен акцент върху етиката на полуавтономните и автономните оперативни системи, въз основа на човешка отчетност в един свят, основаващ се на изкуствения интелект; подчертава по-специално, че е важно да се гарантира, че служителите по въпросите на етиката в тази област имат подходящи умения и получават подходящо обучение; призовава Комисията да представи възможно най-скоро своята „Програма за укрепване на уменията“, обявена в Бялата книга за изкуствения интелект на 19 февруари 2020 г.;

97. подчертава, че квантовата изчислителна технология би могла да представлява най-революционната промяна в конфликтите след появата на атомното оръжие, и затова настоятелно призовава по-нататъшното развитие на квантовите изчислителни технологии да бъде приоритет за Съюза и държавите членки; признава, че актовете на агресия, включително нападенията срещу критична инфраструктура, подпомагани от квантовата изчислителна технология, ще създадат условия, при които наличното време за вземане на решения ще бъде съкратено драстично от дни и часове на минути и секунди, принуждавайки държавите членки да развият способности, с които да се защитават и да обучават както лицата, вземащи решения, така и военнослужещите да реагират ефективно в такива срокове;

98. призовава за увеличаване на инвестициите в европейски изкуствен интелект за отбранителни цели и в критичната инфраструктура, която го поддържа;

99. припомня, че повечето от настоящите военни сили в световен мащаб вече полагат значителни усилия в областта на научноизследователската и развойната дейност във връзка с военното измерение на изкуствения интелект; счита, че Съюзът трябва да гарантира, че не изостава в това отношение;

100. призовава Комисията да включи изграждането на капацитет за киберсигурност в своята промишлена политика, за да се гарантира разработването и внедряването на безопасни, устойчиви и стабилни основаващи се на ИИ системи и роботизирани системи; призовава Комисията да проучи използването на протоколи и приложения за киберсигурност на базата на блокови вериги, за да се подобри устойчивостта, надеждността и стабилността на инфраструктурите с ИИ чрез модели за криптиране на данни без посредничество; насърчава европейските заинтересовани страни да изследват и разработват усъвършенствани функции, които биха улеснили откриването на повредени и зловредни основаващи се на ИИ системи и роботизирани системи, които биха могли да отслабят сигурността на Съюза и на гражданите;

101. подчертава, че всички системи с ИИ в областта на отбраната трябва да имат конкретна и точно определена рамка на мисията, при която хората запазват възможността да откриват и изтеглят или дезактивират развърнатите системи, в случай че те излязат извън рамките на мисията, определена и възложена от командир човек, или предприемат ескалиращи или нежелани действия; счита, че системите, продуктите и технологиите, основаващи се на ИИ и предназначени за военни цели, следва да бъдат оборудвани с „черна кутия“ за записване на всяка операция с данни, извършвана от машината;

102. подчертава, че цялата отговорност и отчетност за вземането на решение за проектирането, разработването, внедряването и използването на системи с ИИ трябва да се носи от хора, тъй като трябва да има пълноценно човешко наблюдение и контрол върху всяка оръжейна система и да има човешко намерение зад вземането на решение да се използва сила, когато се изпълнява каквото и да е решение на основаващи се на ИИ оръжейни системи, което би могло да има смъртоносни последици; подчертава, че човешкият контрол следва да продължи да бъде ефективен при командването и контрола на основаващите се на ИИ системи, като се следват принципите на „задължително участие на човек във веригата“, „участие на човек във веригата при необходимост“ и действия „под човешки контрол“ на равнището на военното ръководство; подчертава, че системите, основаващи се на ИИ, трябва да позволяват на военното ръководство на армиите да поема пълната си отговорност и отчетност за употребата на смъртоносна сила и да упражнява необходимото равнище на преценка за предприемане на смъртоносни или разрушителни в широки мащаби действия посредством такива системи, която преценка не може да бъде възлагана на машини, тъй като трябва да се основава на принципите на разграничаване, пропорционалност и предпазливост; подчертава необходимостта от създаване на ясни и проследими рамки за разрешаване и отчетност за развръщането на интелигентни оръжия и други основаващи се на ИИ системи, които използват уникални потребителски характеристики, като биометрични спецификации, за да се осигури възможност развръщането да се извършва единствено от упълномощен персонал;

Транспорт

103. изтъква потенциала на използването на изкуствения интелект, роботиката и свързаните с тях технологии за всички автономни средства за автомобилен, железопътен, воден и въздушен транспорт, както и за поощряването на преминаването към други видове транспорт и интермодалността, тъй като тези технологии могат да допринесат за постигането на оптималното съчетаване на видовете транспорт при транспортиране на стоки и пътници; освен това подчертава, че те имат потенциал да повишат ефикасността на транспорта, логистиката и потоците на движение и да повишат безопасността, интелигентността и екологосъобразността на всички видове транспорт; посочва, че етичният подход към изкуствения интелект може да се разглежда и като система за ранно предупреждение, по-специално по отношение на безопасността и ефикасността на транспорта;

104 подчертава факта, че световната конкуренция между предприятията и икономическите региони означава, че е необходимо Съюзът да насърчава инвестициите и да укрепва международната конкурентоспособност на предприятията, осъществяващи дейност в транспортния сектор, като създава благоприятна среда за разработването и прилагането на решения с изкуствен интелект и допълнителни иновации, в която предприятията, установени в Съюза, да могат да се превърнат в световни лидери в разработването на технологии с изкуствен интелект в тази област;

105. подчертава, че транспортният сектор на Съюза се нуждае от актуализация на регулаторната рамка по отношение на тези нововъзникващи технологии и тяхното използване в транспортния сектор, както и от ясна етична рамка за постигане на надежден изкуствен интелект, включително безопасност, сигурност, зачитане на автономността на хората и аспектите, свързани с надзора и отговорността, което ще увеличи ползите, споделяни от всички, и ще бъде от ключово значение за стимулирането на инвестициите в научни изследвания и иновации, развитието на умения и въвеждането на изкуствения интелект от страна на предприятията, публичните служби, МСП и стартиращите предприятия, като същевременно се гарантира защитата на данните, както и оперативната съвместимост, без да се налага ненужна административна тежест върху предприятията и потребителите;

106. отбелязва, че разработването и внедряването на изкуствен интелект в транспортния сектор няма да бъде възможно без наличието на модерна инфраструктура, която е съществена част от интелигентните транспортни системи; подчертава, че различията, които продължават да съществуват в степента на развитие между държавите членки, създават риск от лишаване на най-слабо развитите региони и техните жители от ползите, произтичащи от развитието на автономната мобилност; призовава за подходящо финансиране на модернизацията на транспортната инфраструктура в Съюза, включително интегрирането ѝ в 5G мрежата;

107. препоръчва разработването на общи за Съюза надеждни стандарти за изкуствения интелект за всички видове транспорт, включително за автомобилната промишленост, и за изпитване на превозните средства с изкуствен интелект, както и на свързаните с тях продукти и услуги;

108. отбелязва, че системите с изкуствен интелект биха могли да спомогнат за значително намаляване на броя на смъртните случаи, например чрез подобряване на времето за реакция и по-добро спазване на правилата; счита обаче, че ще бъде невъзможно използването на автономни превозни средства да доведе до премахване на всички произшествия и подчертава, че поради това е още по-важно решенията на изкуствения интелект да подлежат на обяснение, за да се изясняват основанията за недостатъците и нежеланите последици от решенията на изкуствения интелект;

Заетост, права на работниците, цифрови умения и работното място

109. отбелязва, че прилагането на изкуствения интелект, роботиката и свързаните с тях технологии на работното място може да допринесе за приобщаващи пазари на труда и да окаже въздействие върху здравословните и безопасни условия на труд, като същевременно може да се използва и за наблюдение, оценяване, предвиждане и насочване на работата на служителите с преки и непреки последици за техните кариери; като се има предвид, че ИИ следва да има положително въздействие върху условията на труд и да се ръководи от зачитането на правата на човека, както и от основните права и ценности на Съюза,  и като се има предвид, че ИИ следва да бъде ориентиран към човека, да повишава благосъстоянието на хората и обществото и да допринася за равноправен и справедлив преход, тези технологии следва съответно да имат положително въздействие върху условията на труд и да се ръководят от зачитането на правата на човека, както и от основните права и ценности на Съюза;

110. подчертава необходимостта от развиване на компетентностите чрез обучение и образование на работниците и техните представители относно ИИ на работното място с цел по-добро разбиране на последиците от решенията на базата на ИИ; подчертава, че кандидатите и работниците следва да бъдат надлежно писмено информирани, когато се използва ИИ в хода на процедурите за набиране на персонал и други решения във връзка с човешките ресурси, както и за това как в този случай може да се изиска преглед от човек с цел отмяна на автоматизирано решение;

111. подчертава необходимостта да се гарантира, че повишаването на производителността в резултат на развитието и използването на ИИ и роботиката носи ползи не само за собствениците и акционерите на предприятията, но и за предприятията и работната сила чрез по-добри условия на труд и заетост, включително заплати, икономически растеж и развитие, и също така е в услуга на обществото като цяло, особено когато това повишаване е за сметка на работни места; призовава държавите членки да проучат внимателно потенциалното въздействие на ИИ върху пазара на труда и системите за социална сигурност и да разработят стратегии за гарантиране на дългосрочна стабилност чрез реформиране на данъците и вноските, както и други мерки в случай на по-малки публични приходи;

112. подчертава значението на корпоративните инвестиции във формално и неформално обучение и в учене през целия живот с цел подпомагане на справедливия преход към цифрова икономика; в този контекст подчертава, че предприятията, които внедряват ИИ, имат отговорността да осигурят подходяща преквалификация и повишаване на квалификацията на всички засегнати служители, за да се научат как да използват цифрови инструменти и да работят с роботи за съвместна работа (коботи) и други нови технологии, като по този начин се адаптират към променящите се нужди на пазара на труда и останат на работа;

113. счита, че следва да се обърне специално внимание на новите форми на работа, като например работата по отделни заявки и работата чрез платформи, произтичащи от прилагането на новите технологии в този контекст;  подчертава, че нормативната уредба на условията за дистанционна работа в целия Съюз и гарантирането на достойни условия на труд и заетост в цифровата икономика трябва също така да отчитат въздействието на ИИ; призовава Комисията да се консултира в това отношение със социалните партньори, разработчиците, изследователите и други заинтересовани страни в областта на изкуствения интелект;

114. подчертава, че изкуственият интелект, роботиката и свързаните с тях технологии не трябва да засягат по никакъв начин упражняването на основните права, признати в държавите членки и на равнището на Съюза, включително правото или свободата на предприемане на стачни действия или на други действия, обхванати от специфичните системи на колективни трудови правоотношения в държавите членки в съответствие с националното право и/или практика, или да засягат правото на договаряне, на сключване или на правоприлагане на колективни споразумения, или на предприемане на действия при колективен трудов спор в съответствие с националното право и/или практика;

115. отново подчертава значението на образованието и непрекъснатото учене за развитие на необходимите в цифровата ера квалификации и за справяне с цифровото изключване; призовава държавите членки да инвестират във висококачествено, отзивчиво и приобщаващо образование, професионално обучение и системи за учене през целия живот, както и в политики за преквалификация и повишаване на квалификацията на работниците в сектори, които ще са потенциално сериозно засегнати от ИИ; подчертава необходимостта да се осигурят на настоящата и бъдещата работна сила необходимата езикова грамотност, необходимите математически и цифрови умения, както и компетентност в сферата на науките, технологиите, инженерството и математиката (STEM) и междусекторни меки умения, като критично мислене, творчество и предприемчивост; подчертава, че в това отношение трябва да се обърне специално внимание на приобщаването на групите в неравностойно положение;

116. припомня, че изкуственият интелект, роботиката и свързаните с тях технологии, използвани на работното място, трябва да бъдат достъпни за всички въз основа на принципа за универсален дизайн;

Образование и култура

117. подчертава необходимостта от изготвяне на критерии за разработването, внедряването и използването на ИИ, като се има предвид въздействието им върху образованието, медиите, младежта, научните изследвания и секторите на културата и творчеството, чрез разработване на показатели и определяне на принципи за етично отговорно и прието ползване на технологиите с ИИ, които могат да бъдат прилагани по подходящ начин в тези области, включително необходимостта от ясен режим на отговорност за продукти, които са резултат от използването на ИИ;

118. отбелязва, че всяко дете има право на качествено обществено образование на всички равнища; поради това призовава за разработването, внедряването и използването на качествени системи с изкуствен интелект, които предоставят и улесняват достъпа до качествени образователни инструменти за всички на всички равнища и подчертава, че внедряването на нови системи с ИИ в училищата не следва да води до увеличаване на цифровото разделение в обществото; признава огромния потенциален принос, който ИИ и роботиката могат да имат за образованието; отбелязва, че персонализираните системи за учене с ИИ не следва да заместват образователните отношения, включващи учители, и че традиционните форми на образование не следва да бъдат изоставени, като същевременно посочва, че трябва да се осигури финансова, технологична и образователна подкрепа, включително специализирано обучение по информационни и комуникационни технологии за учителите, които желаят да придобият подходящи умения, така че да се адаптират към технологичните промени и не само да използват потенциала на ИИ, но и да разбират неговите ограничения; призовава за разработването на стратегия на равнището на Съюза с цел да се спомогне за трансформирането и актуализирането на нашите образователни системи, да се подготвят нашите образователни институции на всички равнища и учителите и учениците да придобият необходимите умения и способности;

119. подчертава, че образователните институции следва да се стремят да използват за образователни цели системите с ИИ, които са получили европейски сертификат за етично съответствие;

120. подчертава, че възможностите, предлагани от цифровизацията и новите технологии, не трябва да водят до всеобхватна загуба на работни места в секторите на културата и творчеството, до пренебрегване на опазването на оригиналите или до намаляване на традиционния достъп до културно наследство, който също следва да бъде насърчаван; отбелязва, че системите с ИИ, които са разработени, внедрени и използвани в Съюза, следва да отразяват неговото културно многообразие и многоезичие;

121. признава нарастващия потенциал на изкуствения интелект в областта на информацията, медиите и онлайн платформите, включително и като средство за борба с дезинформацията в съответствие със законодателството на Съюза; подчертава, че ако не бъде регулиран, ИИ може да има и неблагоприятни от етична гледна точка последици заради експлоатацията на предубежденията, заложени в данните и алгоритмите, което може да доведе до разпространяване на дезинформация и създаване на информационни балони; подчертава значението на прозрачността и отчетността по отношение на алгоритмите, използвани от платформите за споделяне на видеоклипове (VSP), както и от платформите за стрийминг, за да се гарантира достъп до разнообразно в културно и езиково отношение съдържание;

Национални надзорни органи

122. отбелязва, че има добавена стойност в това да бъдат определени национални надзорни органи във всяка държава членка, отговарящи за гарантирането, оценяването и мониторинга на спазването на правните задължения и етичните принципи за разработването, внедряването и използването на високорисков изкуствен интелект, високорискова роботика и свързаните с тях високорискови технологии, като по този начин се допринася за правното и етичното съответствие на тези технологии;

123. отбелязва, че от тези органи трябва да се изисква, без да дублират задачите си, да си сътрудничат с органите, отговарящи за прилагането на секторното законодателство, с цел идентифициране на технологии, които са високорискови от етична гледна точка, и с цел надзор на изпълнението на изискваните и подходящите мерки, когато такива технологии бъдат идентифицирани;

124. посочва, че тези органи следва да поддържат връзка не само помежду си, но и с Европейската комисия и други компетентни институции, органи, служби и агенции на Съюза, за да се гарантират съгласувани трансгранични действия;

125. предлага в контекста на подобно сътрудничество да се разработят общи критерии и процес на кандидатстване за издаването на европейски сертификат за етично съответствие, включително след искане от всеки разработчик, внедрител или ползвател на технологии, несчитани за високорискови, който желае да сертифицира положителната оценка на съответствието, извършена от компетентния национален надзорен орган;

126. призовава на тези органи да се възложи задачата да насърчават редовния обмен с гражданското общество и да поощряват иновациите в рамките на Съюза, като предоставят помощ на научните изследователи, разработчиците и другите съответни заинтересовани страни, както и на предприятията с по-ограничен опит в областта на цифровите технологии, по-специално на малките и средните предприятия или на стартиращите предприятия, по-специално във връзка с повишаването на осведомеността и подкрепата за разработването, внедряването, обучението и намирането на таланти, за да се гарантира ефикасен трансфер на и достъп до технологии, проекти, резултати и мрежи;

127. призовава за достатъчно финансиране от всяка държава членка на определените от нея национални надзорни органи и подчертава необходимостта от укрепване на националните органи за надзор на пазара от гледна точка на капацитета, уменията и компетентностите, както и познанията за специфичните рискове, поставяни от изкуствения интелект, роботиката и свързаните с тях технологии;

Координация на равнището на Съюза

128. подчертава значението на координацията на равнището на Съюза, осъществявана от Комисията и/или всички съответни институции, органи, служби и агенции на Съюза, които могат да бъдат определени в този контекст, за да се избегне разпокъсаност, както и за да се гарантира хармонизиран подход в целия Съюз; счита, че координацията следва да се съсредоточи върху мандатите и действията на националните надзорни органи във всяка държава членка, както е посочено в предходния подраздел, както и върху обмена на най-добри практики между тези органи и приноса към сътрудничеството в областта на научноизследователската и развойната дейност в тази сфера на равнището на целия Съюз; призовава Комисията да направи оценка и да намери най-подходящото решение за структуриране на тази координация; примери за съответните съществуващи институции, органи, служби и агенции на Съюза са ENISA, ЕНОЗД и Европейският омбудсман;

129. счита, че тази координация, както и европейското сертифициране за етично съответствие, не само ще бъдат от полза за развитието на промишлеността и иновациите на Съюза в този контекст, но и ще повишат осведомеността на нашите граждани за възможностите и рисковете, присъщи на тези технологии;

130. предлага да се създаде експертен център, който да обединява на равнището на Съюза академичните среди, научните изследвания, промишлеността и отделни експерти, за да се насърчава обменът на знания и технически експертен опит и да се улеснява сътрудничеството в целия Съюз и извън него; освен това призовава този експертен център да включва организациите на заинтересованите страни, например организации за защита на потребителите, за да се гарантира, че потребителите са широко представени; счита, че поради евентуалното непропорционално въздействие на алгоритмичните системи върху жените и малцинствата, следва решенията в подобна структура да се вземат на най-различни нива и на тези нива да се гарантира равенство между половете; подчертава, че държавите членки трябва да разработят стратегии за управление на риска във връзка с изкуствения интелект в контекста на своите национални стратегии за надзор на пазара;

131.  предлага Комисията и/или всички компетентни институции, органи, служби и агенции на Съюза, които могат да бъдат определени в този контекст, да предоставят необходимата помощ на националните надзорни органи във връзка с ролята им на първо звено за контакт в случаи на предполагаеми нарушения на правните задължения и етичните принципи, определени в регулаторната рамка на Съюза за ИИ, включително принципа на недискриминация; тя следва също така да предоставя всякаква необходима помощ на националните надзорни органи в случаите, когато последните извършват оценки на съответствието с цел подкрепа на правото на гражданите на обжалване и на обезщетение, а именно като подкрепя, когато е приложимо, консултациите с други компетентни органи в Съюза, по-специално Мрежата за сътрудничество в областта на защитата на потребителите и националните органи за защита на потребителите, организациите на гражданското общество и социалните партньори, намиращи се в други държави членки;

132. признава ценния принос на експертната група на високо равнище по въпросите на изкуствения интелект, включваща представители на академичните среди, гражданското общество и промишлеността, както и на Европейския алианс за изкуствен интелект, по-специално „Етични насоки за надежден изкуствен интелект“, и счита, че тя би могла да предостави експертен опит на Комисията и/или на всички компетентни институции, органи, служби и агенции на Съюза, които могат да бъдат определени в този контекст;

133. отбелязва включването на свързани с ИИ проекти в рамките на Европейската програма за промишлено развитие в областта на отбраната (EDIDP); счита, че бъдещият Европейски фонд за отбрана (ЕФО) и постоянното структурирано сътрудничество (ПСС) могат също да предложат рамки за бъдещи проекти, свързани с ИИ, които биха спомогнали за по-добро оптимизиране на усилията на Съюза в тази област, и същевременно биха подпомогнали целта на Съюза да се укрепват правата на човека, международното право и многостранните решения; подчертава, че свързаните с ИИ проекти следва да бъдат синхронизирани с по-общите граждански програми на Съюза, посветени на ИИ; отбелязва, че в съответствие с Бялата книга на Европейската комисия от 19 февруари 2020 г. относно ИИ следва да бъдат създадени центрове за високи постижения и тестове, съсредоточени върху научните изследвания и разработването на ИИ в областта на сигурността и отбраната със строги спецификации, които да подкрепят участието на и инвестициите от частни заинтересовани страни;

134. отбелязва Бялата книга на Комисията от 19 февруари 2020 г. относно изкуствения интелект и изразява съжаление, че военните аспекти не са взети под внимание; призовава Комисията и върховния представител/заместник председател да представят, включително като част от цялостен подход, секторна стратегия за ИИ за свързаните с отбраната дейности в рамките на Съюза, която да гарантира както зачитането на правата на гражданите, така и стратегическите интереси на Съюза, и която да се основава на последователен подход, обхващащ спектъра от създаването на основаващите се на ИИ системи до тяхната военна употреба, и да създадат работна група по въпросите на сигурността и отбраната в рамките на експертната група на високо равнище по въпросите на изкуствения интелект, която следва да се занимава конкретно с въпросите на политиката и инвестициите, както и с етичните аспекти на ИИ в областта на сигурността и отбраната; призовава Съвета, Комисия и заместник-председателя/върховен представител да започнат структуриран диалог с Парламента за тази цел;

Европейско сертифициране за етично съответствие

135. предлага в контекста на координацията на равнище ЕС да се разработят общи критерии и процес на кандидатстване, свързани с предоставянето на европейски сертификат за съответствие, включително след искане от всеки разработчик, внедрител или ползвател на технологии, несчитани за високорискови, който желае да сертифицира положителната оценка на съответствието, извършена от съответния национален надзорен орган;

136. счита, че такъв европейски сертификат за етично съответствие би насърчил етичността още при проектирането по цялата верига на доставки на екосистемите с изкуствен интелект; поради това предлага, в случай на високорискови технологии, това сертифициране да бъде задължителна предпоставка за допустимост до процедурите за възлагане на обществени поръчки в областта на изкуствения интелект, роботиката и свързаните с тях технологии;

Международно сътрудничество

137. счита, че ефективно трансгранично сътрудничество и етични стандарти могат да бъдат постигнати само ако всички заинтересовани страни се ангажират да гарантират човешкия фактор и човешкия надзор, техническа стабилност и безопасност, прозрачност и отчетност, многообразие, недискриминация и справедливост, благосъстоянието на обществото и околната среда и зачитане на установените принципи за неприкосновеност на личния живот, управление и защита на данните, по-специално на залегналите в Регламент (ЕС) 2016/679 на Европейския парламент и на Съвета;

138. подчертава, че правните задължения и етичните принципи на Съюза за разработването, внедряването и използването на тези технологии могат да превърнат Европа в световен лидер в сферата на изкуствения интелект и съответно следва да бъдат насърчавани в световен мащаб чрез сътрудничество с международни партньори, като същевременно се продължава с критичния и основан на етичността диалог с трети държави, които разполагат с алтернативни модели за регулиране, разработване и внедряване на изкуствения интелект;

139. припомня, че възможностите и рисковете, присъщи на тези технологии, имат глобално измерение, тъй като софтуерът и данните, които те използват, често се внасят в Съюза и се изнасят от Съюза – и следователно има нужда от подход на последователно сътрудничество на международно равнище; призовава Комисията да поеме инициативата да направи оценка кои двустранни и многостранни договори и споразумения следва да бъдат адаптирани, за да се гарантира последователен подход и да се популяризира на световно равнище европейският модел на спазване на етични стандарти;

140. изтъква също така в този контекст добавената стойност на посочената по-горе координация на равнище Съюз;

141. призовава да се създадат полезни взаимодействия и мрежи между различните европейски научноизследователски центрове за ИИ, както и други многостранни форуми, като Съвета на Европа, Организацията за образование, наука и култура на ООН (ЮНЕСКО), Организацията за икономическо сътрудничество и развитие (ОИСР), Световната търговска организация и Международния съюз по далекосъобщения (МСД), така че да се хармонизират техните усилия и да се координира по-добре развитието на изкуствения интелект, роботиката и свързаните с тях технологии;

142. подчертава, че Съюзът трябва да бъде начело на подкрепата за многостранните усилия в рамките на правителствената експертна група за Конвенцията на ООН за конвенционалните оръжия и други подходящи форуми, за да се обсъди ефективна международна регулаторна рамка, осигуряваща пълноценен човешки контрол над автономните оръжейни системи, за да бъдат овладени тези технологии чрез създаване на добре дефинирани и основани на референтни показатели процеси и приемане на законодателство за тяхното етично използване в консултации със заинтересованите страни сред военните, промишлеността, правоприлагащите органи, академичните среди и гражданското общество, за да се постигне разбиране на съответните етични аспекти и да се смекчат присъщите на тези технологии рискове и да се предотвратява използването им за злонамерени цели; 

143. признава ролята на НАТО за насърчаването на евроатлантическата сигурност и призовава за сътрудничество в рамките на НАТО за установяване на общи стандарти и оперативна съвместимост на системите с ИИ в областта на отбраната; подчертава, че трансатлантическите отношения са важни за опазване на споделените ценности и за противодействие на бъдещи и нововъзникващи заплахи;

144. подчертава колко е важно да бъде създаден етичен кодекс за поведение, който да бъде в основата на разгръщането на оръжейни системи, основаващи се на ИИ, във военни операции, подобно на съществуващата регулаторна рамка, забраняваща употребата на химическо и биологично оръжие; счита, че Комисията следва да постави началото на създаването на стандарти за използването на основаващи се на ИИ оръжейни системи във военните действия в съответствие с международното хуманитарно право, а Съюзът следва да се стреми към международно приемане на тези стандарти; счита, че Съюзът следва да провежда дипломация във връзка с ИИ в международните форуми с партньори със сходни виждания, като Г-7, Г-20 и ОИСР;

Заключителни аспекти

145. заключава, с оглед на гореизложените разсъждения относно аспектите, свързани с етичното измерение на изкуствения интелект, роботиката и свързаните с тях технологии, че правните и етичните измерения следва да бъдат обхванати в ефективна, ориентирана към бъдещето и всеобхватна нормативна уредба на равнището на Съюза, поддържана от национални компетентни органи, координирана и укрепвана от Комисията и/или съответните институции, органи, служби и агенции на Съюза, които може да бъдат определени в този контекст, да разполага с редовната подкрепа на евентуалния горепосочен експертен център и да бъде надлежно спазвана и сертифицирана в рамките на вътрешния пазар;

146. в съответствие с процедурата, предвидена в член 225 от Договора за функционирането на Европейския съюз, изисква от Комисията да представи предложение за регламент относно етичните принципи за разработването, внедряването и използването на изкуствения интелект, роботиката и свързаните с тях технологии въз основа на член 114 от Договора за функционирането на Европейския съюз и въз основа на подробните препоръки, съдържащи се в приложението към настоящия документ; посочва, че предложението не следва да подкопава специфичното за сектора законодателство, а следва да обхваща само установените пропуски;

147. препоръчва на Европейската комисия, след консултиране с всички съответни заинтересовани страни, да извърши преглед, ако е необходимо, на действащото законодателство на Съюза, приложимо към изкуствения интелект, роботиката и свързаните с тях технологии, за да се отговори на бързината на тяхното развитие, като се спазят препоръките, изложени в приложението, и като се избегне свръхрегулирането, включително за МСП;

148. счита, че периодичната оценка и преглед, ако е необходимо, на регулаторната рамка на Съюза относно изкуствения интелект, роботиката и свързаните с тях технологии, ще бъде от съществено значение, за да се гарантира, че приложимото законодателство е в крак с бързите темпове на технологичния напредък;

149. счита, че исканото законодателно предложение би породило финансови последици, ако на даден европейски орган бъдат възложени посочените по-горе координационни функции, за да се гарантира, че се предоставят необходимите технически средства и човешки ресурси с цел изпълнение на нововъзложените му задачи;

150. възлага на своя председател да предаде настоящата резолюция и приложените към нея подробни препоръки на Комисията и на Съвета.

 


 

ПРИЛОЖЕНИЕ КЪМ ПРЕДЛОЖЕНИЕТО ЗА РЕЗОЛЮЦИЯ: ПОДРОБНИ ПРЕПОРЪКИ ОТНОСНО СЪДЪРЖАНИЕТО НА ИСКАНОТО ПРЕДЛОЖЕНИЕ

А. ПРИНЦИПИ И ЦЕЛИ НА ИСКАНОТО ПРЕДЛОЖЕНИЕ

I. Основните принципи и цели на предложението са:

˗  да се изгради доверие на всички равнища на участващите заинтересовани страни и на обществото в областта на изкуствения интелект, роботиката и свързаните с тях технологии, особено когато те се считат за високорискови;

˗  да се подкрепи развитието на изкуствения интелект, роботиката и свързаните с тях технологии в Съюза, включително като се помага на предприятията, стартиращите предприятия и на малките и средните предприятия точно да оценят и отговорят на настоящите и бъдещите регулаторни изисквания и рискове по време на процеса на развитие на иновациите и бизнеса, както и при следващата фаза на използване от специалисти и частни лица чрез свеждане до минимум на тежестите и бюрокрацията;

˗  да се подкрепи внедряването в Съюза на изкуствения интелект, роботиката и свързаните с тях технологии, като се осигури подходяща и пропорционална регулаторна рамка, която следва да се прилага, без да се накърнява действащото или бъдещото секторно законодателство с цел насърчаване на регулаторната сигурност и иновациите, като същевременно се гарантират основните права и защитата на потребителите;

˗  да се подкрепи използването в Съюза на изкуствения интелект, роботиката и свързаните с тях технологии, като се гарантира, че те ще бъдат разработвани, внедрявани и използвани по съответстващ на етичните принципи начин;

˗  да се изисква прозрачност и по-добри информационни потоци между гражданите и в рамките на организациите, които разработват, внедряват или използват изкуствения интелект, роботиката и свързаните с тях технологии, като средство да се гарантира, че тези технологии са в съответствие със законодателството на Съюза, основните права и ценности, както и с етичните принципи на исканото предложение за регламент.

II. Предложението се състои от следните елементи:

˗  „Регламент относно етичните принципи за разработването, внедряването и използването на изкуствен интелект, роботика и свързаните с тях технологии“; координационната роля на равнището на Съюза, осъществявана от Комисията и/или компетентните институции, органи, служби и агенции на Съюза, които могат да бъдат определени в този контекст, както и европейско сертифициране на етичното съответствие;

˗  подкрепящата роля на Европейската комисия;

˗  ролята на „надзорния орган“ във всяка държава членка, за да се гарантира, че към изкуствения интелект, роботиката и свързаните с тях технологии се прилагат етични принципи;

 

˗  участие и провеждане на консултации със, както и предоставяне на подкрепа на, съответните научноизследователски и развойни проекти и заинтересовани страни, включително предприятия, стартиращи предприятия, малки и средни предприятия, социални партньори и други представители на гражданското общество;

˗  приложение, с което се определя изчерпателен и кумулативен списък на високорисковите сектори и високорисковите употреби и цели;

III. „Регламентът относно етичните принципи за разработването, внедряването и използването на изкуствен интелект, роботика и свързаните с тях технологии“ се основава на следните принципи:

˗  ориентирани към човека, направени от човека и контролирани от човека изкуствен интелект, роботика и свързани с тях технологии;

˗  задължителна оценка на съответствието на високорисковия изкуствен интелект, роботика и свързаните с тях технологии;

˗  безопасност, прозрачност и отчетност;

˗  предпазни мерки и средства за правна защита срещу предубеждения и дискриминация;

˗  право на правна защита;

˗  социална отговорност и равенство между половете в изкуствения интелект, роботиката и свързаните с тях технологии;

˗  екологично устойчиви изкуствен интелект, роботика и свързани с тях технологии;

˗  зачитане на неприкосновеността на личния живот и ограниченията за използването на биометрично разпознаване;

˗  добро управление на изкуствения интелект, роботиката и свързаните с тях технологии, включително данните, използвани или генерирани от такива технологии.

IV. За целите на координацията на равнище Съюз, Комисията и/или компетентните институции, органи, служби и агенции на Съюза, които могат да бъдат определени в този контекст, следва да извършват следните основни задачи:

˗  сътрудничество при мониторинга на изпълнението на поисканото предложение за регламент и съответното секторно право на Съюза;

˗  сътрудничество във връзка с издаването на насоки относно последователното прилагане на исканото предложение за регламент, а именно прилагането на критериите, съгласно които изкуственият интелект, роботиката и свързаните с тях технологии се класират като високорискови, както и на списъка на високорисковите сектори и високорисковите употреби и цели, посочени в приложението към регламента;

˗  сътрудничество с „надзорния орган“ във всяка държава членка във връзка с разработването на европейски сертификат за съответствие с етичните принципи и правните задължения, определени в исканото предложение за регламент и съответното право на Съюза, както и разработването на процес за подаване на заявление за всеки разработчик, внедрител или ползвател на технологии, несчитани за високорискови, който желае да удостовери съответствието им с исканото предложение за регламент;

˗  сътрудничество по отношение на подпомагането на междусекторното и трансграничното сътрудничество чрез редовен обмен със заинтересованите страни и гражданското общество в ЕС и по света, по-специално с предприятията, социалните партньори, изследователите и компетентните органи, включително по отношение на разработването на технически стандарти на международно равнище;

˗  сътрудничество с „надзорния орган“ във всяка държава членка във връзка с установяването на задължителни насоки относно методологията за извършване на оценка на съответствието, която се осъществява от всеки „надзорен орган“;

˗  сътрудничество по отношение на поддържането на връзка с „надзорния орган“ във всяка държава членка и координиране на неговия мандат и задачи;

˗  сътрудничество за повишаване на осведомеността, предоставяне на информация и участие в обмен с разработчиците, внедрителите и ползвателите в целия Съюз;

˗  сътрудничество за повишаване на осведомеността, предоставяне на информация, насърчаване на цифровата грамотност, обучение и умения и участие в обмени с проектантите, разработчиците, внедрителите, гражданите, ползвателите и институционалните органи в целия Съюз и на международно равнище;

˗  сътрудничество за координация на обща рамка за управление на разработването, внедряването и използването на изкуствения интелект, роботиката и свързаните с тях технологии, която да се прилага от „надзорния орган“ във всяка държава членка;

˗  сътрудничество по отношение на ролята на център за експертен опит чрез насърчаване на обмена на информация и подпомагане на развитието на общо разбиране в рамките на единния пазар;

˗  сътрудничество във връзка с предоставянето на място на работа за Работна група по сигурност и отбрана.

V. Освен това Комисията следва да извършва следните задачи:

˗  изготвяне и последващо актуализиране – чрез делегирани актове – на общ списък на високорисковите технологии, идентифицирани в рамките на Съюза в сътрудничество с „надзорния орган“ във всяка държава членка;

˗  актуализиране – чрез делегирани актове – на списъка, предвиден в приложението към регламента.

VI. „Надзорният орган“ във всяка държава членка следва да изпълнява следните основни задачи:

˗  да допринася за последователното прилагане на регулаторната рамка, установена в исканото предложение за регламент, в сътрудничество с „надзорните органи“ в другите държави членки, както и с други органи, отговарящи за прилагането на секторното законодателство, Комисията и/или всички съответни институции, органи, служби и агенции на Съюза, които могат да бъдат определени в този контекст, а именно по отношение на прилагането на критериите за оценка на риска, предвидени в изискваното предложение за регламент, и на списъка на високорисковите сектори и на високорисковите употреби или цели, посочени в приложението към него, и последващия надзор на прилагането на изискваните и подходящите мерки, когато високорисковите технологии са определени в резултат от подобно прилагане;

˗  да оценява дали изкуственият интелект, роботиката и свързаните с тях технологии, включително софтуерът, алгоритмите и данните, използвани или генерирани от такива технологии, които са разработвани, внедрявани и използвани в Съюза, трябва да се считат за високорискови технологии в съответствие с критериите за оценка на риска, предвидени в изискваното предложение за регламент и в списъка в приложението към него;

˗  да издава европейски сертификат за съответствие с етичните принципи и правните задължения, определени в изискваното предложение за регламент и относимото право на Съюза, включително когато е резултат от процес на кандидатстване за разработчици, внедрители или ползватели на технологии, които не се считат за високорискови и при които се търси удостоверяване на съответствието им с исканото предложение за регламент, във вид, разработен от Комисията и/или от съответни институции, органи, служби и агенции на Съюза, които могат да бъдат определени в този контекст;

˗  да оценява и наблюдава тяхното съответствие с етичните принципи и правните задължения, установени в изискваното предложение за регламент и съответното право на Съюза;

˗  да отговаря за установяването и въвеждането на стандарти за управление на изкуствения интелект, роботиката и свързаните с тях технологии, включително като поддържа връзки и редовен диалог с всички съответни заинтересовани страни и представители на гражданското общество; за тази цел да си сътрудничи с Комисията и всички съответни институции, органи, служби и агенции на Съюза, които може да бъдат определени в този контекст, по отношение на координирането на обща рамка на равнището на Съюза:

˗  да повишава осведомеността, да предоставя информация на обществеността за изкуствения интелект, роботиката и свързаните с тях технологии и да подкрепя обучението за съответните професии, включително в съдебната система, като по този начин овластява гражданите и работниците  чрез изграждането у тях на цифровата грамотност, уменията и инструментите, необходими за справедлив преход;

˗  да служи като първа точка за контакт в случаи на предполагаемо нарушаване на правните задължения и етичните принципи, определени в предложението за регламент, и да извършва оценка на съответствието в такива случаи; в контекста на тази оценка на съответствието той може да извършва консултации с други компетентни органи в Съюза, по-специално с Мрежата за сътрудничество в областта на защитата на потребителите, националните органи за защита на потребителите, организациите на гражданското общество и социалните партньори, и/или да ги информира.

VII. Ключовата роля на заинтересованите страни следва да бъде да си сътрудничат с Комисията и/или всички съответни институции, органи, служби и агенции на Съюза, които могат да бъдат посочени  в тази връзка, както и с „надзорния орган“ във всяка държава членка.

Б. ТЕКСТ НА ИСКАНОТО ЗАКОНОДАТЕЛНО ПРЕДЛОЖЕНИЕ

Предложение за

РЕГЛАМЕНТ НА ЕВРОПЕЙСКИЯ ПАРЛАМЕНТ И НА СЪВЕТА

относно етичните принципи за разработването, внедряването и използването на изкуствен интелект, роботика и свързаните с тях технологии

като взеха предвид Договора за функционирането на Европейския съюз, и по-специално член 114 от него,

като взеха предвид предложението на Европейската комисия,

след предаване на проекта на законодателния акт на националните парламенти,

като взеха предвид становището на Европейския икономически и социален комитет,

в съответствие с обикновената законодателна  процедура,

като имат предвид, че:

(1) Разработването, внедряването и използването на изкуствения интелект, роботиката и свързаните с тях технологии, включително софтуер, алгоритми и данни, използвани или генерирани от такива технологии, следва да се основават на стремежа да служат на обществото. Такива технологии може да са свързани с възможности и рискове, които следва да бъдат разгледани и уредени чрез всеобхватна регулаторна рамка на равнището на Съюза, отразяваща етичните принципи, които да се спазват от момента на разработването и внедряването на такива технологии до тяхното използване.

(2) Спазването на подобна регулаторна рамка по отношение на разработването, внедряването и използването на изкуствен интелект, роботика и свързани с тях технологии, включително софтуер, алгоритми и данни, използвани или генерирани от такива технологии в Съюза, следва да бъде на равнище, което е еднакво във всички държави членки, за да се използват ефикасно възможностите и последователно да се преодоляват рисковете от тези технологии, както и за да се избегне регулаторно разпокъсване. Следва да се гарантира, че правилата, съдържащи се в настоящия регламент, се прилагат по един и същ начин в целия Съюз.

(3) В този контекст настоящото многообразие на правилата и практиките, които трябва да се спазват из Съюза, създава значителен риск от разпокъсаност на единния пазар и риск за защитата на благополучието и просперитета както на индивидите, така и на обществото, както и за последователното изследване на пълния потенциал, с който изкуственият интелект, роботиката и свързаните с тях технологии разполагат за насърчаване на иновациите и запазване на това благополучие и просперитет. Разликите в степента, до която разработчиците, внедрителите и ползвателите отчитат етичното измерение, присъщо на тези технологии, могат да възпрепятстват свободното им разработване, внедряване или използване в рамките на Съюза, като тези разлики могат да представляват пречка пред еднаквите условия на конкуренция, стремежа към технологичен прогрес и упражняването на стопански дейности на равнището на Съюза, да нарушават конкуренцията и да затрудняват органите при изпълнението на техните задължения съгласно правото на Съюза. Освен това липсата на обща регулаторна рамка, отразяваща етични принципи, за разработването, внедряването и използването на изкуствения интелект, роботиката и свързаните с тях технологии води до правна несигурност за всички участници, а именно разработчиците, внедрителите и ползвателите.

(4) Въпреки това, допринасяйки за съгласуван подход на равнището на Съюза и в определените в него границите, настоящият регламент следва същевременно да предостави свобода за начина на въвеждане на държавите членки, включително по отношение на начина на изпълнение на мандата на съответния им национален надзорен орган с оглед на целите, които той трябва да преследва, както е предвидено в настоящия регламент.

(5) Настоящият регламент не засяга съществуващото и бъдещото секторно законодателство. Той следва да бъде пропорционален по отношение на своята цел, така че да не възпрепятства ненужно иновациите в Съюза и да следва основан на риска подход.

(6) Географският обхват на прилагането на подобна рамка следва да включва всички компоненти на изкуствения интелект, роботиката и свързаните с тях технологии в целия процес на тяхното разработване, внедряване или използване в Съюза, включително в случаите, когато част от технологиите може да се намират извън Съюза или да нямат конкретно или едно-единствено местоположение, като в случая на услугите за изчисления в облак.

(7) Необходимо е общо разбиране в Съюза на понятия като изкуствен интелект, роботика, свързани технологии, и биометрично разпознаване, за да се даде възможност за единен регулаторен подход и по този начин за правна сигурност както за гражданите, така и за дружествата. Те следва да бъдат неутрални по отношение на технологията и да подлежат на преглед, когато е необходимо.

(8) Освен това трябва да се има предвид фактът, че съществуват технологии, свързани с изкуствения интелект и роботиката, които дават възможност на софтуера да контролира с различна степен на автономност[13] физически или виртуални процеси. Например при автоматизирано управление на превозни средства в международен стандарт J3016 на Дружеството на автомобилните инженери (SAE) са предложени шест нива на автоматизация на управлението.

(9) Разработването, внедряването и използването на изкуствения интелект, роботиката и свързаните с тях технологии, включително софтуер, алгоритми и данни, използвани или генерирани от такива технологии, следва да допълват човешките способности, а не да ги заместват, и да гарантират, че осъществяването им не е в противоречие с висшите интереси на гражданите и е съобразено с правото на Съюза, основните права, установени в Хартата на основните права на Европейския съюз (по-долу наричана „Хартата“), установената съдебна практика на Съда на Европейския съюз и другите европейски и международни инструменти, които се прилагат в Съюза.

(10) Решенията, взети от изкуствен интелект, роботика и свързани с тях технологии или с оглед на информация от тях, следва да продължат да подлежат на пълноценен човешки преглед, преценка, намеса и контрол. Техническата и оперативната сложност на подобни технологии не следва никога да пречи на техния внедрител или ползвател да може най-малкото да ги изключва безотказно, да изменя или спира тяхното действие или да ги връща към предишно състояние, в което се възстановяват безопасни функции в случаите, когато е налице риск за спазването на правото на Съюза, етичните принципи и правните задължения, установени в настоящия регламент.

(11) Изкуственият интелект, роботиката и свързаните с тях технологии, чието разработване, внедряване и използване водят до значителен риск от причиняване на нараняване или вреда на отделни лица или на обществото в нарушение на основните права и правилата за безопасност, установени в правото на Съюза, следва да се считат за високорискови технологии. За целите на оценяването им като високорискови следва да се взема предвид секторът, в който те се разработват, внедряват или използват, тяхната специфична употреба или цел и тежестта на нараняването или вредата, която може да се очаква да настъпи. Степента на тежест следва да се определи въз основа на обхвата на евентуалното нараняване или вреда, броя на засегнатите лица, общата стойност на причинените вреди, както и вредата за обществото като цяло. Тежки видове наранявания и вреди са например нарушения на правата на децата, потребителите или работниците, които поради своя размер, броя на засегнатите деца, потребители или работници или своето въздействие върху обществото като цяло водят до значителен риск от нарушаване на основните права и правилата за безопасност, установени в правото на Съюза. Настоящият регламент следва да дава изчерпателен и кумулативен списък на високорисковите сектори и високорисковите употреби и цели.

(12) Задълженията, въведени с настоящия регламент, по-специално тези относно високорисковите технологии, следва да се прилагат само за изкуствения интелект, роботиката и свързаните с тях технологии, включително софтуера, алгоритмите и данните, използвани или генерирани от такива технологии, които са разработвани, внедрявани и използвани в Съюза и които след оценката на риска, предвидена в настоящия регламент, се считат за високорискови. Тези задължения трябва да се спазват, без да се засяга общото задължение всеки изкуствен интелект, роботика и свързани с тях технологии, включително софтуер, алгоритми и данни, използвани или генерирани от такива технологии, да бъдат разработвани, внедрявани и използвани в Съюза по ориентиран към човека начин и въз основа на принципите на автономност и безопасност на човека в съответствие с правото на Съюза и при пълно зачитане на основните права, като човешкото достойнство, правото на свобода и сигурност и правото на неприкосновеност на личността.

(13) Високорисковите технологии следва да зачитат принципите на безопасност, прозрачност, отчетност, непредубеденост и недискриминация, социална отговорност и равенство между половете, право на правна защита, устойчивост на околната среда, неприкосновеност на личния живот и добро управление, след като бъде извършена безпристрастна, обективна и външна оценка на риска от националния надзорен орган в съответствие с критериите, предвидени в настоящия регламент и в списъка, посочен в приложението към него. Тази оценка следва да отчита мненията и евентуалната самооценка, дадени от разработчика или внедрителя.

(14) Комисията и/или всички съответни институции, органи, служби и агенции на Съюза, които могат да бъдат определени за тази цел, следва да изготвят незадължителни насоки за прилагане за разработчиците, внедрителите и потребителите относно методиката за спазване на настоящия регламент. Когато изготвят тези насоки, те следва да се консултират със съответните заинтересовани страни.

(15) В рамките на Съюза следва да има съгласуваност по отношение на оценката на риска на тези технологии, особено в случай че те се оценяват както в контекста на настоящия регламент, така и в съответствие с евентуално приложимо специфично за определени сектори законодателство. Съответно националните надзорни органи следва да информират другите органи, извършващи оценки на риска съгласно специфично за даден сектор законодателство, когато тези технологии се оценяват като високорискови след оценката на риска, предвидена в настоящия регламент.

(16) За да бъдат надеждни, високорисковият изкуствен интелект, роботиката и свързаните с тях технологии, включително софтуерът, алгоритмите и данните, използвани или генерирани от такива технологии, следва да бъдат разработвани, внедрявани и използвани по безопасен, прозрачен и отчетен начин в съответствие със следните характеристики за безопасност – стабилност, устойчивост, сигурност, точност и идентифициране на грешките, обяснимост, възможност за тълкуване, одитируемост, прозрачност и възможност за идентифициране – и по начин, който позволява изключване на въпросните функции или връщане към предишно състояние, в което се възстановяват безопасни функции, в случаи на несъответствие с тези характеристики. Следва да се гарантира прозрачността, като се позволи достъп на публичните органи, когато това е строго необходимо, до технологиите, данните и компютърните системи, на които се основават подобни технологии.

(17) Разработчиците, внедрителите и ползвателите на изкуствен интелект, роботика и свързани с тях технологии, особено високорискови технологии, носят отговорност в различна степен за спазването на принципите за безопасност, прозрачност и отчетност до степента на своето участие във въпросните технологии, включително софтуера, алгоритмите и данните, използвани или генерирани от тези технологии. Разработчиците следва да гарантират, че съответните технологии са проектирани и изградени в съответствие с характеристиките за безопасност, посочени в настоящия регламент, а внедрителите и ползвателите следва да внедряват и използват съответните технологии при цялостно спазване на тези характеристики. За тази цел разработчиците на високорискови технологии следва да оценяват и да предвиждат рисковете от злоупотреба, които може логично да се очакват от разработваните от тях технологии. Те трябва също така да гарантират, че разработваните от тях системи показват вероятността от грешки или неточности, доколкото е възможно и чрез подходящи средства, като съобщения за отказ от отговорност.

(18) Разработчиците и внедрителите следва да предоставят на разположение на ползвателите всички последващи актуализации на съответните технологии, а именно по отношение на софтуера, както се посочва в договора или е установено в законодателството на Съюза или националното законодателство. Освен това, когато в оценката на риска се изисква, разработчиците и внедрителите следва да предоставят на публичните органи относимата документация относно използването на съответните технологии и инструкции за безопасност в това отношение, включително, когато е строго необходимо и при пълно спазване на правото на Съюза в областта на защитата на данните, неприкосновеността на личния живот и правата върху интелектуалната собственост и търговските тайни, изходния код, инструментите за разработване и данните, използвани от системата.

 (19) Физическите лица имат право да очакват технологията, която използват, да функционира по разумен начин и да заслужава тяхното доверие. Доверието, което гражданите оказват на изкуствения интелект, роботиката и свързаните с тях технологии, включително софтуера, алгоритмите и данните, използвани или генерирани от такива технологии, зависи от разбирането и схващането на техническите процеси. Степента на обяснимост на подобни процеси следва да зависи от контекста на тези технически процеси и от тежестта на последиците от погрешни или неточни резултати от тях и трябва да е достатъчна за тяхното оспорване и за търсене на правна защита. С одитируемостта, проследимостта и прозрачността следва да се предвиждат мерки срещу евентуалната неразбираемост на тези технологии.

(20) Доверието на обществото в изкуствения интелект, роботиката и свързаните с тях технологии, включително софтуер, алгоритми и данни, използвани или генерирани от такива технологии, зависи от степента, в която в съответните технологии е заложена възможност за оценка, одитируемост и проследимост. Когато степента на тяхното участие изисква това, разработчиците следва да гарантират, че тези технологии са проектирани и изградени по начин, който позволява такава оценка, одит и проследимост. В границите на технически възможното разработчиците, внедрителите и ползвателите следва да гарантират, че изкуственият интелект, роботиката и свързаните с тях технологии се внедряват и използват при пълно спазване на изискванията за прозрачност и дават възможност за одитиране и проследяване.

(21) За да се гарантира прозрачност и отчетност, гражданите следва да бъдат информирани, когато дадена система използва изкуствен интелект, когато система с изкуствен интелект персонализира продукт или услуга за своите ползватели, дали могат да изключат или ограничат персонализирането, както и когато става дума за технология за автоматизирано вземане на решения. Освен това мерките за прозрачност следва да бъдат придружени, доколкото това е технически възможно, от ясни и разбираеми обяснения на използваните данни и на алгоритъма, на неговата цел, резултати и потенциалните опасности от него;

(22) Съществуването на предубеденост в софтуер, алгоритми и данни и дискриминацията чрез тях са незаконни и следва да бъдат преодолени посредством регулиране на процесите, чрез които те се проектират и внедряват. Предубеденост може да възникне както от решения, информирани или взети от автоматизирана система, така и от набори от данни, на които се основава подобно вземане на решение или с които е обучавана системата.

(23) Софтуерът, алгоритмите и данните, използвани или генерирани от изкуствения интелект, роботиката и свързаните с тях технологии, следва да се считат за предубедени, когато например показват неоптимални резултати по отношение на физическо лице или група физически лица въз основа на пристрастни лични или обществени възприятия и последваща обработка на данни, свързани с техни характеристики.

(24) В съответствие със законодателството на Съюза софтуерът, алгоритмите или данните, използвани или генерирани от изкуствения интелект, роботиката и свързаните с тях технологии, следва да се считат за дискриминационни, когато водят до резултати, имащи непропорционален отрицателен ефект и водят до различно третиране на физическо лице или група физически лица, включително като ги поставят в неблагоприятно положение в сравнение с други, въз основа на причини –  например техните лични характеристики – които нямат обективна или разумна обосновка, и независимо от всякакви твърдения за неутралност на технологиите.

(25) В съответствие с правото на Съюза законните цели, за които съгласно настоящия регламент може да се счита, че обективно обосноват различно третиране на физически лица или групи физически лица, са защитата на обществената безопасност, сигурност и здраве, предотвратяването на престъпления, защитата на основните права и свободи, справедливото представителство и обективните изисквания за упражняване на професия.

(26) Изкуственият интелект, роботиката и свързаните с тях технологии, включително софтуерът, алгоритмите и данните, използвани или генерирани от такива технологии, следва да допринасят за устойчивия напредък. Тези технологии не следва да се противопоставят на каузата за опазване на околната среда или екологичния преход. Те биха могли също така да играят важна роля за постигането на целите за устойчиво развитие, очертани от ООН, с цел да се даде възможност на бъдещите поколения да процъфтяват. Тези технологии могат да подпомагат мониторинга за това дали е постигнат добър напредък, като се основават на показатели за устойчивост и социално сближаване, както и като използват отговорни инструменти за научни изследвания и иновации, за които се изисква мобилизиране на ресурси от Съюза и неговите държави членки за подкрепа и инвестиране в проекти, насочени към постигането на тези цели.

(27) Разработването, внедряването и използването на изкуствения интелект, роботиката и свързаните с тях технологии, включително софтуер, алгоритми и данни, използвани или генерирани от такива технологии, не следва по никакъв начин целенасочено да предизвикват или да приемат по проект нараняване или вреда от какъвто и да е вид на физически лица или на обществото. Съответно по-специално високорисковите технологии следва да бъдат разработвани, внедрявани и използвани по социално отговорен начин.

(28) Ето защо разработчиците, внедрителите и ползвателите следва да носят отговорност до степента, в която са участвали в съответния изкуствен интелект, роботика и свързаните с тях технологии, и в съответствие с нормите на Съюза и националните норми за понасяне на отговорност, за всяко нараняване или вреда, причинена на физически лица и на обществото.

(29) По-специално разработчиците, които вземат решения, определящи и контролиращи хода или начина на разработване на изкуствения интелект, роботиката и свързаните с тях технологии, както и внедрителите, които участват в тяхното внедряване, като вземат решения за подобно внедряване и като упражняват контрол над свързаните с него рискове или извличат полза от подобно внедряване, с контролна или управленска функция, следва като цяло да бъдат считани за отговорни за това да се избегне настъпването на такова нараняване или вреда чрез въвеждане на подходящи мерки по време на процеса на разработване и съответно щателно спазване на тези мерки по време на фазата на внедряване.

(30) Социално отговорните изкуствен интелект, роботика и свързани с тях технологии, включително софтуер, алгоритми и данни, използвани или генерирани от такива технологии, могат да бъдат определени като технологии, които допринасят за намирането на решения, гарантиращи и насърчаващи различни цели по отношение на обществото, най-вече демокрацията, здравето и икономическия просперитет, равните възможности, правата на работниците и социалните права, разнообразните и независими медии и обективната и свободно достъпна информация, даващи възможност за обществен дебат, качествено образование, културно и езиково многообразие, баланс между половете, цифрова грамотност, иновации и творчество. Това са също така и технологии, които се разработват, внедряват и използват при надлежно отчитане на крайното им въздействие върху физическото и психическото благосъстояние на гражданите и които не насърчават слово на омразата или насилие. Подобни цели следва да бъдат постигани по-специално чрез високорискови технологии.

(31) Изкуственият интелект, роботиката и свързаните с тях технологии следва също така да бъдат разработвани, внедрявани и използвани с цел да подкрепят социалното приобщаване, демокрацията, плурализма, солидарността, справедливостта, равенството и сътрудничеството, като техният потенциал в този контекст следва да бъде максимално използван и да бъде проучван чрез научноизследователски и иновационни проекти. Поради това Съюзът и неговите държави членки следва да мобилизират своите комуникационни, административни и финансови ресурси за подкрепа и инвестиции за такива проекти.

(32) Проектите, отнасящи се до потенциала на изкуствения интелект, роботиката и свързаните с тях технологии да помагат за решаване на въпроса за социалното благосъстояние, следва да се осъществяват въз основа на отговорни научноизследователски и иновационни инструменти, така че да се гарантира спазването на етичните принципи от страна на тези проекти от самото начало.

(33) При разработването, внедряването и използването на изкуствен интелект, роботика и свързани с тях технологии, включително софтуер, алгоритми и данни, използвани или генерирани от такива технологии, следва да се взема предвид техният екологичен отпечатък. В съответствие със задълженията, определени в приложимото право на Съюза, тези технологии не следва да причиняват вреда на околната среда по време на своя жизнен цикъл и по цялата си верига на доставки и следва да бъдат разработвани, внедрявани и използвани по начин, който опазва околната среда, смекчава и коригира екологичния им отпечатък, допринася за екологичния преход и подкрепя постигането на целите за неутралност по отношение на климата и кръгова икономика.

(34) За целите на настоящия регламент разработчиците, внедрителите и ползвателите следва да носят отговорност, според приложимите правила за екологичната отговорност, за всяка вреда, причинена на околната среда, до степента, до която са участвали съответно в разработването, внедряването или използването на изкуствен интелект, роботика и свързани с тях технологии,  считани за високорискови.

(35) Тези технологии следва също така да бъдат разработвани, внедрявани и използвани, за да помагат за постигане на екологичните цели в съответствие със задълженията по приложимото право на Съюза, като намаляване на генерирането на отпадъци, намаляване на въглеродния отпечатък, борбата с изменението на климата и опазването на околната среда, и техният потенциал в този контекст следва да бъде използван в максимална степен и проучван чрез научноизследователски и иновационни проекти. Поради това Съюзът и държавите членки следва да мобилизират своите комуникационни, административни и финансови ресурси за подкрепа и инвестиции за такива проекти.

(36) Проектите, отнасящи се до потенциала на изкуствения интелект, роботиката и свързаните с тях технологии да решават проблеми на околната среда, следва да се осъществяват въз основа на отговорни научноизследователски и иновационни инструменти, така че да се гарантира спазването на етичните принципи на тези проекти от самото начало.

(37) Всички технологии с изкуствен интелект, роботика и свързаните с тях технологии, включително софтуерът, алгоритмите и данните, използвани или генерирани от такива технологии, които са разработвани, внедрявани и използвани в Съюза, следва изцяло да зачитат правата на гражданите на Съюза на неприкосновеност на личния живот и защита на личните данни. По-специално тяхното разработване, внедряване и използване следва да е в съответствие с разпоредбите на Регламент (ЕС) 2016/679 на Европейския парламент и на Съвета[14] и Директива 2002/58/ЕО на Европейския парламент и на Съвета[15].

(38) По-конкретно, етичните граници на използването на изкуствения интелект, роботиката и свързаните с тях технологии, включително софтуер, алгоритми и данни, използвани или генерирани от такива технологии, следва надлежно да се вземат предвид при използването на технологии за разпознаване от разстояние, например разпознаване на биометрични данни, и по-специално лицево разпознаване, за целите на автоматичното идентифициране на физически лица. Когато тези технологии се използват от публични органи по причини от важен обществен интерес, а именно за гарантиране на сигурността на физическите лица и за справяне с извънредни ситуации в национален мащаб, а не за да се гарантира сигурността на имоти, използването следва винаги да бъде разкривано, да бъде пропорционално, целенасочено и ограничено до конкретни цели и ограничено във времето в съответствие с правото на Съюза и да се извършва при надлежно зачитане на човешкото достойнство и автономност, както и на основните права, залегнали в Хартата. Критериите и ограниченията за подобно използване следва да подлежат на съдебна проверка и да бъдат обект на демократичен контрол и дебат с участието на гражданското общество.

(39) Управление, което се основава на подходящи стандарти, повишава безопасността и насърчава по-голямо доверие у гражданите към разработването, внедряването и използването на изкуствен интелект, роботика и свързани с тях технологии, включително софтуер, алгоритми и данни, използвани или генерирани от такива технологии.

(40) Преди да внедряват високорискови технологии за подпомагане на вземането на решения в публичния сектор, оказващи пряко и значително въздействие върху правата и задълженията на гражданите, публичните органи следва да извършат оценки на тяхното въздействие върху основните права.

(41) Сред съществуващите относими стандарти за управление са например „Етични насоки за надежден изкуствен интелект“, изготвени от експертната група на високо равнище по въпросите на изкуствения интелект, създадена от Европейската комисия, и всички други технически стандарти, например стандартите, приети на европейско равнище от Европейския комитет по стандартизация (CEN), Европейския комитет за стандартизация в електротехниката (CENELEC) и Европейския институт за стандарти в далекосъобщенията (ETSI), и стандартите, приети на международно равнище от Международната организация по стандартизация (ISO) и Института за електро- и електронни инженери (IEEE).

(42) Обменът и използването на данни от множество участници е чувствителен въпрос и поради това разработването, внедряването и използването на изкуствен интелект, роботика и свързани с тях технологии следва да се уреждат от съответни правила, стандарти и протоколи, отразяващи изискванията за качество, интегритет, сигурност, надеждност, неприкосновеност на личния живот и контрол. Стратегията за направление по отношение на данните следва да се съсредоточи върху обработването, споделянето и достъпа до такива данни, включително подходящото управление, одитируемост и проследимост, и да гарантира адекватна защита на данните, принадлежащи на уязвими групи, включително хора с увреждания, пациенти, деца, малцинства и мигранти или други групи, които са изложени на риск от изключване. Освен това разработчиците, внедрителите и ползвателите следва да могат, когато това е целесъобразно, да разчитат на ключови показатели за резултатите при оценяването на наборите от данни, които използват, с цел повишаване на надеждността на технологиите, които разработват, внедряват и използват.

(43) Държавите членки следва да назначат независим административен орган, който да действа като надзорен орган. По-специално, всеки национален надзорен орган следва да отговаря за идентифицирането на изкуствения интелект, роботиката и свързаните с тях технологии, считани за високорискови с оглед на критериите за оценка на риска, съгласно настоящия регламент, и за оценяването и мониторинга на съответствието на тези технологии със задълженията, посочени в настоящия регламент.

(44) Всеки национален надзорен орган следва също да носи отговорността за доброто управление на тези технологии под координацията на Комисията и/или други подходящи институции, органи, служби или агенции на Съюза, на които тази задача може да бъде възложена. Следователно тези органи трябва да играят важна роля за насърчаване на доверието и увеличаване на безопасността на гражданите на Съюза, както и за създаването на условия за демократично, плуралистично и справедливо общество.

(45) За целите на оценката на технологиите, които са високорискови по настоящия регламент, и на наблюдението на тяхното съответствие с него, националните надзорни органи следва, когато е приложимо, да си сътрудничат с органите, отговарящи за оценката и наблюдението на тези технологии и за правоприлагането, целящо да се осигури спазване на секторното законодателство.

(46) Националните надзорни органи следва да си сътрудничат значително и редовно помежду си, както и с Европейската комисия и други съответни институции, органи, служби и агенции на Съюза, за да се гарантира съгласувано трансгранично действие и да се даде възможност за съгласувано разработване, внедряване и използване на тези технологии в рамките на Съюза в съответствие с етичните принципи и правните задължения, определени в настоящия регламент.

(47) В контекста на това сътрудничество и с оглед на постигането на пълна хармонизация на равнището на Съюза националните надзорни органи следва да подпомагат Комисията при изготвянето на общ и изчерпателен списък на високорискови приложения на изкуствения интелект, роботиката и свързаните с тях технологии в съответствие с критериите, предвидени в настоящия регламент и приложението към него. Освен това следва да се разработи процедура за издаване на европейски сертификат за етично съответствие, включително процес на доброволно кандидатстване за всеки разработчик, внедрител или ползвател на технологии, които не се считат за високорискови, и които искат да удостоверят, че те спазват настоящия регламент.

(48) Националните надзорни органи следва да осигурят обединяването на максимален брой заинтересовани страни, като промишлеността, предприятията, социалните партньори, изследователите, потребителите и организациите на гражданското общество, и да осигурят плуралистичен форум за размисъл и обмен на мнения, така че да се постигат разбираеми и точни заключения, за да се направлява процесът на регулиране на управлението.

(49) Националните надзорни органи следва да осигурят обединяването на максимален брой заинтересовани страни, като промишлеността, предприятията, социалните партньори, изследователите, потребителите и организациите на гражданското общество, и да осигурят плуралистичен форум за размисъл и обмен на мнения, за да се улесни сътрудничеството и съдействието между заинтересованите страни, по-специално заинтересованите страни от академичните, научноизследователските и промишлените среди и от гражданското общество, както и отделни експерти, така че да се постигат разбираеми и точни заключения, за да се направлява процесът на регулиране на управлението.

(50) Освен това тези национални надзорни органи следва да предоставят професионални административни насоки и подкрепа за разработчиците, внедрителите и ползвателите, и по-специално малките и средните предприятия или стартиращите предприятия, които се сблъскват с предизвикателства по отношение на спазването на етичните принципи и правните задължения, установени в настоящия регламент.

(51) Комисията и/или всички съответни институции, органи, служби и агенции на Съюза, които могат да бъдат определени за тази цел, следва да изготвят задължителни насоки за методиката, която да бъде използвана от националните надзорни органи при провеждане на оценката им на съответствието.

(52) Подаването на сигнали за нарушения довежда потенциалните и действителните нарушения на правото на Съюза до знанието на органите, така че да могат да се предотвратяват наранявания, вреди или щети, които в противен случай биха настъпили. Освен това процедурите за подаване на сигнали подобряват информационния поток в рамките на дружества и организации, като по този начин намаляват риска от разработване на продукти или услуги с недостатъци или грешки. Дружествата и организациите, които разработват, внедряват или използват изкуствен интелект, роботика и свързани с тях технологии, включително данни, използвани или генерирани от тези технологии, следва да създадат канали за подаване на сигнали, а лицата, които подават сигнали за нарушения, следва да бъдат защитени срещу ответни репресии.

(53) Непредсказуемо е бързото развитие на изкуствения интелект, роботиката и свързаните с тях технологии, включително софтуер, алгоритми и данни, използвани или генерирани от такива технологии, както и на техническото машинно самообучение, процесите на разсъждение и други технологии в основата на това развитие. Поради това е целесъобразно и необходимо да се създаде механизъм за преразглеждане, съгласно който, в допълнение към докладите си относно прилагането на регламента, Комисията редовно да представя доклад относно възможното изменение на приложното поле на настоящия регламент.

(54) Тъй като целта на настоящия регламент, а именно да установи обща регулаторна рамка от етични принципи и правни задължения за разработването, внедряването и използването на изкуствен интелект, роботика и свързани с тях технологии в Съюза, не може да бъде постигната в достатъчна степен от държавите членки, а поради своя мащаб и последствия може да бъде постигната по-добре на равнището на Съюза, Съюзът може да приеме мерки в съответствие с принципа на субсидиарност, уреден в член 5 от Договора за Европейския съюз. В съответствие с принципа на пропорционалност, уреден в посочения член, настоящият регламент не надхвърля необходимото за постигането на тази цел.

(55) Координация на равнището на Съюза, както е посочено в настоящия регламент, би била постигната най-добре от Комисията и/или от подходящи институции, органи, служби и агенции на Съюза, които могат да бъдат посочени в тази връзка, за да се избегне разпокъсването и да се гарантира последователното прилагане на настоящия регламент. Ето защо на Комисията следва да се предостави задачата по намирането на подходящо решение за структурирането на подобна координация на равнището на Съюза с цел координиране на мандатите и действията на националните надзорни органи във всяка държава членка, и по-конкретно по отношение на оценката на риска от изкуствения интелект, роботиката и свързаните с тях технологии, разработване и издаване на сертификат за съответствие с етичните принципи и правните задължения, определени в настоящия регламент, подкрепа за редовния обмен със заинтересованите страни и гражданското общество и създаване на експертен център, обединяващ представители на академичните, научноизследователските и промишлените среди и отделни експерти на равнището на Съюза с цел стимулиране на обмена на знания и технически експертен опит, както и насърчаване на подхода на Съюза чрез международно сътрудничество и осигуряване на последователен отговор в световен мащаб спрямо възможностите и рисковете, присъщи на тези технологии.


ПРИЕXA НАСТОЯЩИЯ РЕГЛАМЕНТ:

 

Глава I

Общи разпоредби

Член 1

Цел

 

Целта на настоящия регламент е да установи всеобхватна и ориентирана към бъдещето регулаторна рамка на Съюза от етични принципи и правни задължения за разработването, внедряването и използването на изкуствен интелект, роботика и свързани с тях технологии в Съюза.

Член 2

Обхват

 

Настоящият регламент се прилага за изкуствения интелект, роботиката и свързаните с тях технологии, включително софтуера, алгоритмите и данните, използвани или генерирани от такива технологии, които са разработвани, внедрявани или използвани в Съюза.

Член 3

Географски обхват

Настоящият регламент се прилага по отношение на изкуствения интелект, роботиката и свързаните с тях технологии, когато каквато и да е част от тях се разработва, внедрява или използва в Съюза, независимо дали софтуерът, алгоритмите или данните, използвани или генерирани от такива технологии, се намират извън Съюза или нямат конкретно географско местоположение.

Член 4

Определения

За целите на настоящия регламент се прилагат следните определения:

а) „изкуствен интелект“ означава система, която е или базирана на софтуер, или вградена в хардуерни устройства, и проявява интелигентно поведение, като наред с другото събира и обработва данни, анализира и тълкува заобикалящата я среда, и като предприема действия с известна степен на автономност за постигането на конкретни цели[16];

б) „автономност“ означава система с ИИ, която функционира чрез тълкуване на определени входящи данни и чрез използване на набор от предварително определени инструкции, без да се ограничава до такива инструкции, въпреки че поведението на системата е ограничено от и е насочено към изпълнение на целта, която ѝ е била зададена, и други съответни проектни решения, взети от разработчика;

в) „роботика“ означава технологии, които дават възможност на автоматично контролирани, препрограмируеми, мултифункционални машини[17] да изпълняват във физическата среда задачи, които традиционно се изпълняват или инициират от човешки същества, включително чрез изкуствен интелект или свързани с него технологии;

г) „свързани технологии“ означава технологии, които дават възможност на софтуер да контролира с частична или пълна автономност даден физически или виртуален процес, технологии, способни да установяват биометрични, генетични или други данни, и технологии, които копират или използват по друг начин човешки характеристики;

д) „висок риск“ означава значителен риск, произтичащ от разработването, внедряването и използването на изкуствен интелект, роботика и свързани с тях технологии, от причиняване на наранявания или вреди на отделни лица или на обществото в нарушение на основните права и правилата за безопасност, установени в правото на Съюза, като се има предвид тяхната специфична употреба или цел, секторът, в който са разработени, внедрени или използвани, и сериозността на нараняването или вредата, които могат да бъдат евентуално причинени;

е) „разработване“ означава изграждане и проектиране на алгоритми, писане и проектиране на софтуер или събиране, съхранение и управление на данни с цел създаване или обучаване на изкуствен интелект, роботика и свързани с тях технологии или с цел създаване на ново приложение за съществуващи технологии за изкуствен интелект, роботика и свързани с тях технологии;

ж) „разработчик“ означава всяко физическо или юридическо лице, вземащо решения, които определят и контролират посоката или начина на развитие на изкуствения интелект, роботиката и свързаните с тях технологии;

з) „внедряване“ означава експлоатацията и управлението на изкуствения интелект, роботиката и свързаните с тях технологии, както и тяхното пускане на пазара или предоставянето им по друг начин на разположение на ползвателите;

и) „внедрител“ означава всяко физическо или юридическо лице, което участва в процеса на конкретното внедряване на изкуствен интелект, роботика и свързани с тях технологии и което изпълнява функции, свързани с контрола или управлението чрез вземането на решения, упражняването на контрол върху риска и извличането на ползи от това внедряване;

й) „използване“ означава всяко действие, свързано с изкуствения интелект, роботиката и свързаните с тях технологии, различно от разработване или внедряване;

к) „ползвател“ означава всяко физическо или юридическо лице, което използва изкуствения интелект, роботиката и свързаните с тях технологии за цели, различни от разработване или внедряване;

л) „предубеждение“ означава пристрастно лично или социално възприятие, чийто обект е лице или група лица, въз основа на техните лични характеристики;

м) „дискриминация“ означава всяко диференцирано третиране на лице или група лица въз основа на мотив, който не е обективно или разумно обоснован и следователно е забранен от правото на Съюза;

н) „нараняване или вреда“, включително такива, причинени чрез слово на омразата, предубеждение, дискриминация или стигматизиране, физическо или душевно нараняване, материална или нематериална вреда, като например финансови или икономически загуби, загуба на работни места или възможности за образование, неправомерно ограничаване на свободата на избор или на изразяване, загуба на неприкосновеност на личния живот и всяко нарушение на правото на Съюза, което е в ущърб на дадено лице;

о) „добро управление“ означава начинът да се гарантира, че се приемат и спазват от разработчиците, внедрителите и ползвателите  целесъобразни и разумни стандарти и протоколи на поведение въз основа на официален набор от правила, процедури и ценности, като това им позволява да решават по подходящ начин въпроси от етичен характер, когато те възникват или преди това.

Член 5

Етични принципи на изкуствения интелект, роботиката и свързаните с тях технологии

1. В рамките на Съюза изкуственият интелект, роботиката и свързаните с тях технологии, включително софтуерът, алгоритмите и данните, използвани или генерирани от такива технологии, се разработват, внедряват и използват в съответствие с правото на Съюза, при пълно зачитане на човешкото достойнство, автономия и безопасност, както и на останалите основни права, определени в Хартата.

2. Всяко обработване на лични данни, извършвано в контекста на разработването, внедряването и използването на изкуствен интелект, роботика и свързани с тях технологии, включително лични данни, извлечени от нелични данни, и биометрични данни, се извършва в съответствие с Регламент (ЕС) 2016/679 и Директива 2002/58/ЕО.

3. Съюзът и неговите държави членки насърчават научноизследователските проекти, насочени към намиране на решения, основаващи се на изкуствен интелект, роботика и свързани с тях технологии, които имат за цел насърчаване на социалното приобщаване, демокрацията, плурализма, солидарността, справедливостта, равенството и сътрудничеството.

Глава II

Задължения във връзка с високорисковите технологии

Член 6

Задължения във връзка с високорисковите технологии

1. Разпоредбите от настоящата глава се прилагат за изкуствения интелект, роботиката и свързаните с тях технологии, включително софтуера, алгоритмите и данните, използвани или генерирани от такива технологии, които са разработвани, внедрявани и използвани в Съюза, само ако те се считат за високорискови.

 

2. Всички високорискови технологии с изкуствен интелект, роботика и свързаните с тях технологии, включително софтуерът, алгоритмите и данните, използвани или генерирани от такива технологии, се разработват, внедряват и използват по начин, който гарантира, че те не нарушават етичните принципи, определени в настоящия регламент.

Член 7

Ориентиран към човека и създаден от човека изкуствен интелект

1. Всички високорискови технологии, включително софтуер, алгоритми и данни, използвани или генерирани от такива технологии, се разработват, внедряват и използват по начин, който гарантира пълен надзор от страна на човека по всяко време.

2. Технологиите, посочени в параграф 1, се разработват, внедряват и използват по начин, който дава възможност при необходимост човешкият контрол да се възвърне, включително чрез промяна или спиране на тези технологии.

 

Член 8

Безопасност, прозрачност и отчетност

1. Всички високорискови технологии с изкуствен интелект, роботика и свързаните с тях технологии, включително софтуерът, алгоритмите и данните, използвани или генерирани от такива технологии, се разработват, внедряват и използват по начин, който гарантира, че те:

а) се разработват, внедряват и използват по устойчив начин, така че да гарантират подходящо ниво на сигурност, като се придържат към минимално базово равнище, което е пропорционално на установения риск, и също така ниво на сигурност, което предотвратява експлоатацията на технически слабости за злонамерени или незаконни цели;

б) се разработват, внедряват и използват по сигурен начин, който гарантира наличието на предпазни механизми, включващи резервен план и резервни действия в случай на риск за безопасността или сигурността;

в) се разработват, внедряват и използват по начин, който гарантира надеждни резултати, каквито ползвателят разумно може да очаква, по отношение на постигането на целите и изпълнението на дейностите, за които са били създадени, включително като се гарантира, че всички операции са възпроизводими;

г) се разработват, внедряват и използват по начин, който гарантира, че изпълнението на целите и дейностите на конкретните технологии е точно; ако не могат да се избегнат отделни неточности, системата показва, доколкото е възможно, на внедрителите и ползвателите вероятността от грешки и неточности чрез подходящи средства;

д) се разработват, внедряват и използват по лесно обясним начин, така че да се гарантира, че е възможно техническите процеси на технологиите да бъдат обект на преглед;

е) се разработват, внедряват и използват по такъв начин, че да информират своите ползватели, че взаимодействат със системи за изкуствен интелект, като разкриват надлежно и цялостно своите способности, точност и ограничения пред разработчиците, внедрителите и ползвателите на изкуствен интелект;

ж) се разработват, внедряват и използват в съответствие с член 6 по начин, който позволява, в случай на несъответствие с характеристиките за безопасност, посочени в букви а) – ж), съответните функции да бъдат временно изключени и да се възвърне предишното им състояние, възстановяващо безопасните функционални възможности. 

2. В съответствие с член 6, параграф 1, технологиите, посочени в параграф 1, включително софтуер, алгоритми и данни, използвани или генерирани от такива технологии, се разработват, внедряват и използват по прозрачен и проследим начин, така че техните елементи, процеси и фази да са документирани съгласно възможно най-високите стандарти и да е възможно националните надзорни органи, посочени в член 14, да оценяват съответствието на тези технологии със задълженията, установени в настоящия регламент. По-конкретно, разработчикът, внедрителят или ползвателят на тези технологии отговаря за съответствието им с характеристиките за безопасност, посочени в параграф 1, и трябва да бъде в състояние да го докаже.

3. Разработчикът, внедрителят или ползвателят на технологиите, посочени в параграф 1, гарантира, че предприетите мерки за осигуряване на съответствие с характеристиките за безопасност, посочени в параграф 1, могат да бъдат одитирани от националните надзорни органи, посочени в член 14, или, при целесъобразност, от други национални или европейски надзорни органи, свързани с този сектор.

Член 9

Непредубеждение и недискриминация

 

1. Софтуерите, алгоритмите или данните, използвани или генерирани от високорисков изкуствен интелект, роботика и свързани с тях технологии, които са разработени, внедрени или използвани в Съюза, не съдържат предубеждения и – без да се засяга параграф 3, не дискриминират на основания като раса, пол, сексуална ориентация, бременност, увреждане, физически или генетични характеристики, възраст, национално малцинство, етнос или социален произход, език, религия или убеждения, политически възгледи или гражданско участие, гражданство, гражданско или икономическо състояние, образование или съдимост.

 

2. Чрез дерогация от параграфи 1 и 2 и без да се засяга правото на Съюза относно незаконната дискриминация, всяко диференцирано третиране на лица или групи от лица може да бъде оправдано само ако съществува обективна, разумна и законна цел, която е едновременно пропорционална и необходима, доколкото не съществува алтернатива, която би засегнала в по-малка степен принципа на равно третиране.

Член 10

Социална отговорност и равенство между половете

Всеки високорисков изкуствен интелект, роботика и свързани с тях технологии, включително софтуер, алгоритми и данни, използвани или генерирани от такива технологии, разработени, внедрени и използвани в Съюза, се разработват, внедряват и използват в съответствие с приложимото право, принципи и ценности на Съюза по начин, който не допуска намеса в избори и не допринася за разпространението на дезинформация, зачита правата на работниците, насърчава качественото образование и цифровата грамотност, не увеличава неравнопоставеността между половете чрез предотвратяване на равните възможности за всички и не нарушава правата на интелектуална собственост и ограниченията или изключенията от тях.

Член 11

Екологична устойчивост

Високорисковият изкуствен интелект, високорисковата роботика и свързаните с тях високорискови технологии, включително софтуер, алгоритми и данни, използвани или генерирани от такива технологии, се оценяват по отношение на тяхната екологична устойчивост от националните надзорни органи, посочени в член 14, или, при целесъобразност, от други национални или европейски надзорни органи, свързани с този сектор, като се гарантира, че са въведени мерки за смекчаване и преодоляване на общото им въздействие по отношение на природните ресурси, потреблението на енергия, генерирането на отпадъци, въглеродния отпечатък, извънредната ситуация с изменението на климата и влошаването на околната среда, за да се гарантира съответствие с приложимото право на Съюза или национално право, както и с всички други международни екологични ангажименти, поети от Съюза.

Член 12

Зачитане на неприкосновеността на личния живот и защита на личните данни

Използването и събирането на биометрични данни с цел дистанционна идентификация на обществени места, като биометрично разпознаване или разпознаване на лица, носи специфични рискове за основните права и се внедрява или използва единствено от публичните органи на държавите членки за цели от съществен обществен интерес. Тези органи гарантират, че това внедряване или използване е оповестено публично и е пропорционално и целенасочено, ограничено до конкретни цели и места, а също така и по времетраене, в съответствие с правото на Съюза и националното право, по-специално Регламент (ЕС) 2016/679 и Директива 2002/58/EО, и при надлежно зачитане на човешкото достойнство и автономност и на основните права, определени в Хартата, а именно правото на зачитане на неприкосновеността на личния живот и защитата на личните данни.

 

Член 13

Право на правна защита

Всяко физическо или юридическо лице има право да търси правна защита за нараняване или вреда, причинени от разработването, внедряването и използването на високорисков изкуствен интелект, роботика и свързани с тях технологии, включително софтуер, алгоритми и данни, използвани или генерирани от такива технологии, в нарушение на правото на Съюза и на задълженията, определени в настоящия регламент.

Член 14

Оценка на риска

1. За целите на настоящия регламент изкуственият интелект, роботиката и свързаните с тях технологии, включително софтуер, алгоритми и данни, използвани или генерирани от такива технологии, се считат за високорискови технологии, когато след оценка на риска, основана на обективни критерии, като например тяхната специфична употреба или цел, секторът, в който те се разработват, внедряват или използват, и тежестта на евентуалната причинена вреда, тяхното разработване, внедряване или използване водят до значителен риск от причиняване на нараняване или вреда, които може да се очаква да настъпят за отделни лица или за обществото в нарушение на основните права и правилата за безопасност, установени в законодателството на Съюза.

2. Без да се засяга приложимото секторно законодателство, оценката на риска по отношение на изкуствения интелект, роботиката и свързаните с тях технологии, включително софтуер, алгоритми и данни, използвани или генерирани от тези технологии, се извършва в съответствие с обективните критерии, предвидени в параграф 1 от настоящия член, и в изчерпателния и кумулативен списък, посочен в приложението към настоящия регламент, от националните надзорни органи, посочени в член 14, под координацията на Комисията и/или други съответни институции, органи, служби и агенции на Съюза, които могат да бъдат определени за тази цел в рамките на сътрудничеството помежду им.

3. В сътрудничество с националните надзорни органи, посочени в параграф 2, чрез делегирани актове в съответствие с член 15а Комисията изготвя и впоследствие актуализира общ списък на високорисковите технологии, идентифицирани в рамките на Съюза.

4. Комисията също така редовно актуализира чрез делегирани актове в съответствие с член 15а списъка, предвиден в приложението към настоящия регламент.

Член 15

Оценка на съответствието

1. Високорисковият изкуствен интелект, роботиката и свързаните с тях технологии подлежат на оценка на съответствието спрямо задълженията, посочени в членове 6 – 12 от настоящия регламент, както и на последващ мониторинг, като и оценката, и мониторинга се извършват от националните надзорни органи, посочени в член 17, под координацията на Комисията и/или други съответни институции, органи, служби и агенции на Съюза, които могат да бъдат определени за тази цел.

 

2. Счита се, че софтуерът, алгоритмите и данните, използвани или генерирани от високорискови технологии, които са били оценени като съответстващи на задълженията, посочени в параграф 1 от настоящия регламент, са в съответствие с тези задължения, освен ако съответният национален надзорен орган реши да извърши оценка по своя инициатива или по искане на разработчика, внедрителя или ползвателя.

 

3. Без да се засяга секторното законодателство, Комисията и/или всички съответни институции, органи, служби и агенции на Съюза, които могат да бъдат специално определени за тази цел, изготвят задължителни насоки относно методиката, която да се използва от националните надзорни органи за оценката на съответствието, посочена в параграф 1, до датата на влизане в сила на настоящия регламент.

 

Член 16

Европейски сертификат за етично съответствие

1. Когато е налице положителна оценка на съответствието на високорисковия изкуствен интелект, роботика и свързаните с тях технологии, включително софтуер, алгоритми и данни, използвани или генерирани от такива технологии, извършена в съответствие с член 7, съответният национален надзорен орган издава европейски сертификат за етично съответствие.

 

2. Всеки разработчик, внедрител или ползвател на изкуствен интелект, роботика и свързани с тях технологии, включително софтуер, алгоритми и данни, използвани или генерирани от такива технологии, които не се считат за високорискови и следователно не подлежат на задълженията, установени в членове 6 – 12, и на оценките на риска и на съответствието, предвидени в членове 13 и 14, може да се опита да удостовери също и спазването на задълженията, установени в настоящия регламент, или част от тях, когато това е оправдано от естеството на въпросната технология според решението на националните надзорни органи. Сертификат се издава само ако е извършена оценка на съответствието от съответния национален надзорен орган и ако тази оценка е положителна.

 

3. За целите на издаването на удостоверението, посочено в параграф 2, Комисията и/или всички други съответни институции, органи, служби и агенции на Съюза, които могат да бъдат посочени за тази цел, разработват процес на кандидатстване.

 

Глава III

Институционален контрол

Член 17

Стандарти за управление и насоки за прилагане

1. Изкуственият интелект, роботиката и свързаните с тях технологии, които се разработват, внедряват или използват в Съюза, отговарят на съответните стандарти за управление, установени от националните надзорни органи, посочени в член 17, съгласно правото, принципите и ценностите на Съюза, под координацията на Комисията и/или съответните институции, органи, служби и агенции на Съюза, които могат да бъдат определени за тази цел, и след консултации със съответните заинтересовани страни.

 

2. Стандартите, посочени в параграф 1, включват незадължителни насоки за изпълнение относно методиката за спазването на настоящия регламент от страна на разработчиците, внедрителите и потребителите и се публикуват до датата на влизане в сила на настоящия регламент.

 

3. Данните, използвани или генерирани от изкуствения интелект, роботиката и свързаните с тях технологии, разработени, разгърнати или използвани в Съюза, се управляват от разработчиците, внедрителите и ползвателите съгласно съответните правила и стандарти на национално равнище, на равнището на Съюза и на други европейски организации и на международно равнище, както и със съответните отраслови и търговски протоколи. По-специално разработчиците и внедрителите извършват, където е осъществимо, проверки на качеството на външните източници на данни, използвани от изкуствения интелект, роботиката и свързаните с тях технологии, и въвеждат механизми за надзор по отношение на тяхното събиране, съхранение, обработка и използване.

 

3. Без да се засягат правата на преносимост и правата на лицата, чието използване на изкуствен интелект, роботика и свързани с тях технологии е генерирало данни, събирането, съхранението, обработката, споделянето и достъпа до данни, използвани или генерирани от изкуствен интелект, роботика и свързани с тях технологии, разработени, внедрени или използвани в Съюза, отговарят на съответните правила и стандарти на национално равнище, на равнището на Съюза и на други европейски организации и на международно равнище, както и на съответните отраслови и търговски протоколи. По-специално, разработчиците и доставчиците гарантират, че тези протоколи се прилагат по време на разработването и внедряването на изкуствен интелект, роботика и свързани с тях технологии, като ясно определят изискванията за обработване и предоставяне на достъп до данните, използвани или генерирани от тези технологии, както и целта, обхвата и адресатите на обработването и предоставянето на достъп до такива данни, като съществува възможност всички тези елементи по всяко време да бъдат одитирани и проследявани.

 

Член 18

Надзорни органи

1. Всяка държава членка определя независим публичен орган, който да отговаря за наблюдението на прилагането на настоящия регламент („надзорен орган“) и за извършването на оценки на риска и  съответствието и на сертифицирането, предвидени в членове 13, 14 и 15, без да се засяга секторното законодателство. 

 

2. Всеки надзорен орган допринася за последователното прилагане на настоящия регламент в рамките на целия Съюз. За тази цел надзорните органи във всяка държава членка сътрудничат помежду си, а също така с Комисията и с други съответни институции, органи, служби и агенции на Съюза,  определен за тази цел.

 

3. Всеки национален надзорен орган действа като първо звено за контакт в случай на предполагаемо нарушение на етичните принципи и правните задължения, установени в настоящия регламент, включително дискриминационно третиране или нарушаване на други права в резултат на разработването, внедряването или използването на изкуствен интелект, роботика и свързани с тях технологии. В такива случаи съответният национален надзорен орган извършва оценка на съответствието, за да подкрепи правото на гражданите на оспорване и правна защита.

 

4. Всеки национален надзорен орган отговаря за надзора върху прилагането на посочените в член 13 съответни национални, европейски и международни правила и стандарти за управление по отношение на изкуствения интелект, роботиката и свързаните с тях технологии, включително като осъществява връзка с възможно най-голям брой заинтересовани страни. За тази цел надзорните органи във всяка държава членка предоставят форум за редовен обмен със и между заинтересовани страни от академичните, научноизследователските и промишлените среди и от гражданското общество.

 

5. Всеки национален надзорен орган предоставя професионални и административни насоки и оказва подкрепа за общото прилагане на правото на Съюза относно изкуствения интелект, роботиката и свързаните с тях технологии, и на етичните принципи, установени в настоящия регламент, по-специално на съответните изследователски и развойни организации, малките и средните предприятия и стартиращите предприятия.

 

6. Всяка държава членка уведомява Европейската комисия за правните разпоредби, които приема съгласно настоящия член, до [ОВ: моля, въведете дата – една година след влизането в сила] и я уведомява незабавно за всяко последващо изменение, което ги засяга.

 

7. Държавите членки предприемат всички необходими мерки, за да гарантират прилагането на етичните принципи и правните задължения, определени в настоящия регламент. Държавите членки подкрепят съответните заинтересовани страни и гражданското общество както на равнището на Съюза, така и на национално равнище, в усилията им да осигурят своевременен, етичен и добре информиран отговор на новите възможности и предизвикателства, по-специално тези от трансгранично естество, които произтичат от аспекти на технологичното развитие, отнасящи се до изкуствения интелект, роботиката и свързаните с тях технологии.

 

Член 19

Докладване на нарушения и защита на лицата, които подават сигнали

 

Директива (ЕС) 2019/1937 на Европейския парламент и на Съвета[18] се прилага по отношение на докладването на нарушения на настоящия регламент и защитата на лицата, които подават сигнали за такива нарушения.

 

Член 20

Координация на равнището на Съюза

1. Комисията и/или всички съответни институции, органи, служби и агенции на Съюза, които могат да бъдат определени в този контекст, имат следните задачи:

 

- осигуряване на последователна оценка на риска по отношение на изкуствения интелект, роботиката и свързаните с тях технологии, посочена в член 13, която се извършва от националните надзорни органи, посочени в член 17, въз основа на общите обективни критерии, предвидени в член 7, параграф 1 и в списъка на високорисковите сектори, употреби и цели, установен в приложението към настоящия регламент;

 

- вземане под внимание на оценката на съответствието и последващия мониторинг на високорисковия изкуствен интелект, роботиката и свързаните с тях технологии, посочени в член 14, които трябва да бъдат извършени от националните надзорни органи, посочени в член 17;

 

- разработване на процеса на подаване на заявления за сертификата, посочен в член 15, който се издава от националните надзорни органи, посочени в член 17;

 

- без да се накърнява секторното законодателство, разработване на задължителните насоки, посочени в член 14, параграф 3, относно методологията, която да използват националните надзорни органи, посочени в член 17;

 

- координиране на установяването на съответните стандарти за управление,  посочени в член 16, от страна на националните надзорни органи, посочени в член 17, включително необвързващи насоки за изпълнение за разработчиците, внедрителите и ползвателите относно методиката за спазване на настоящия регламент;

 

- сътрудничество с националните надзорни органи, посочени в член 17, във връзка с приноса им за последователното прилагане на настоящия регламент в целия Съюз съгласно член 17, параграф 2;

 

- функциониране като експертен център чрез насърчаване на обмена на информация относно изкуствения интелект, роботиката и свързаните с тях технологии, и подпомагане на развитието на общо разбиране в рамките на единния пазар, издаване на допълнителни насоки, становища и експертен опит за националните надзорни органи, посочени в член 17, наблюдение на прилагането на съответното право на Съюза, определяне на стандарти за най-добри практики и когато е целесъобразно, отправяне на препоръки за регулаторни мерки; по този начин следва да се поддържа връзка с възможно най-голям брой съответни заинтересовани страни и да се гарантира, че съставът на равнищата на вземане на решения е разнообразен и гарантира равенство между половете;

 

- да бъдат домакин на работна група по сигурност и отбрана, която има за цел да разгледа въпросите на политиката и инвестициите, конкретно свързани с етичното използване на изкуствения интелект, роботиката и свързаните с тях технологии в областта на сигурността и отбраната.

 

Член 21

Упражняване на делегирането

1. Правомощието да приема делегирани актове се предоставя на Комисията при спазване на предвидените в настоящия член условия.

 

2. Правомощието да приема делегирани актове, посочено в член 7, параграфи 3 и 4, се предоставя на Комисията за срок от 5 години, считано от (датата на влизане в сила на настоящия регламент).

 

3. Делегирането на правомощия, посочено в член 7, параграфи 3 и 4, може да бъде оттеглено по всяко време от Европейския парламент или от Съвета. С решението за оттегляне се прекратява посоченото в него делегиране на правомощия. Оттеглянето поражда действие в деня след публикуването на решението в Официален вестник на Европейския съюз или на по-късна дата, посочена в решението. То не засяга действителността на делегираните актове, които вече са в сила.

 

4. Преди приемането на делегиран акт Комисията се консултира с експерти, определени от всяка държава членка, в съответствие с принципите, залегнали в Междуинституционалното споразумение от 13 април 2016 г. за по-добро законотворчество.

 

5. Веднага след като приеме делегиран акт, Комисията нотифицира акта едновременно на Европейския парламент и на Съвета.

 

6. Делегиран акт, приет съгласно член 7, параграфи 3 и 4, влиза в сила само ако Европейският парламент или Съветът не са повдигнали възражение в срок от три месеца, след като са получили нотификация за него, или ако преди изтичането на този срок Европейският парламент и Съветът са уведомили Комисията, че няма да повдигат възражения. Посоченият срок може да се удължи с три месеца по инициатива на Европейския парламент или на Съвета.

 

Член 22

Изменение на Директива (ЕС) 2019/1937

 

Директива (ЕС) 2019/1937 се изменя, както следва:

 

(1) В член 2, параграф 1 се добавя следната подточка:

 

„xi) разработване, внедряване и използване на изкуствен интелект, роботика и свързани с тях технологии.“

 

(2) В част І от приложението се добавя следната буква:

 

„К. Член 2, параграф 1, буква а), подточка xi) – разработване, внедряване и използване на изкуствен интелект, роботика и свързани с тях технологии.

 

„xxi) Регламент [XXX] на Европейския парламент и на Съвета относно етичните принципи за разработването, внедряването и използването на изкуствен интелект, роботика и свързаните с тях технологии“.“

Член 23

Преглед

Комисията редовно извършва прегледи на развитието на изкуствения интелект, роботиката и свързаните с тях технологии, включително софтуер, алгоритми и данни, използвани или генерирани от такива технологии, и до [OВ: моля, въведете дата – три години след влизането в сила] и на всеки три години след това представя на Европейския парламент, на Съвета и на Европейския икономически и социален комитет доклад за прилагането на настоящия регламент, включително оценка на възможното изменение на приложното поле на настоящия регламент.

Член 24

Влизане в сила

1. Настоящият регламент влиза в сила на двадесетия ден след деня на публикуването му в Официален вестник на Европейския съюз. Той се прилага от XX.

2. Настоящият регламент е задължителен в своята цялост и се прилага пряко в държавите членки в съответствие с Договора за Европейския съюз.

Настоящият регламент е задължителен в своята цялост и се прилага пряко във всички държави членки.


 

ПРИЛОЖЕНИЕ

 

Изчерпателен и кумулативен списък на високорисковите сектори и на високорисковите употреби или цели, които могат да доведат до евентуално нарушаване на основните права и правилата за безопасност.

 

 

Високорискови сектори

 

 Заетост

 Образование

 Здравеопазване

 Транспорт

 Енергетика

 Публичен сектор  (убежище, миграция, граничен контрол, съдебна система и служби за социална сигурност)

 Отбрана и сигурност

 Финанси, банково дело, застраховане

 

 

Високорискови употреби или цели

 

 Наемане на служители

 Оценяване на учащи се

 Разпределяне на публични средства

 Отпускане на заеми

 Търговия, посредничество, данъчно облагане и др.

 Медицинско лечение и процедури

 Изборен процес и политически кампании

 Решения в публичния сектор, които имат значително и пряко въздействие върху правата и задълженията на физическите или юридическите лица

 Автоматизирано шофиране

 Управление на движението

 Автономни военни системи

 Производство и разпределение на енергия

 Управление на отпадъците

 Контрол на емисиите  

 


 

ИЗЛОЖЕНИЕ НА МОТИВИТЕ

 

Във филма от 1982 г. „Блейд Рънър“ Рейчъл, която е „репликант“, т.е. чувствителен андроид, работещ в компания за производство на други репликанти, заявява на Декард    ловец на глави, който печели прехраната си, като елиминира вредни репликанти:

 

„Вие очевидно смятате, че нашата работа не е от полза за обществото.“

 

На което Декард отговаря:

 

„Репликантите са като всяка друга машина — те или помагат, или вредят. Тези, които помагат, не са мой проблем.“

 

Ползи и опасности

Масовото инсталиране на изкуствен интелект във всички машини, с които си взаимодействаме на публични места, на работното място и в обществото, ще означава — вече означава — технологична промяна, сравнима само с тази, предизвикана в миналото от индустриалната революция. Животът никога няма да бъде отново същият и ще настъпят дълбоки промени на пазара на труда, в отношенията на хората с държавните органи, в личните отношения и дори в домашната ни среда — помислете какво означава „интернет на нещата“, вграден във всички устройства в домовете ни. Технологична промяна от такъв мащаб ни поставя в дилемата от „Блейд Рънър“: всяка технология носи ползи, но и крие опасности. А по отношение на изкуствения интелект говорим за ползи и/или опасности от такъв мащаб, какъвто не сме могли дори да си представим преди, предвид присъщата му огромна мощ.

 

Ролята на ЕС в създаването на правна рамка

 

За беда обаче няма как публичната администрация да прояви по отношение на този феномен професионалния цинизъм, демонстриран от Декард. За Европейския парламент е също толкова важно потенциалните ползи от тези технологии да се използват за благоденствието и конкурентоспособността на Европа, колкото и да се наблюдават присъщите им рискове и да се предотвратяват последиците в случай на проявата на тези рискове. Ето защо искаме да бъдем първи в правното установяване на етичен праг, който едновременно да защитава европейските граждани от евентуалните вреди от тази технологична промяна и да осигурява добавена стойност по отношение на доверието в европейския изкуствен интелект в света като цяло. Етичен праг, който е в съответствие с нашите принципи и ценности, залегнали в Хартата на основните права на Европейския съюз, и напълно отговаря на цивилизационната мисия на нашия проект. Нашият регламент трябва да бъде вдъхновен от хуманистичен и ориентиран към човека подход към технологичното развитие. Набор от правила, които се прилагат не само за изкуствения интелект, разработен в Европа, но представляват и взискателен регулаторен императив за всеки, който възнамерява да извършва дейност в ЕС.

 

От решаващо значение е така установеният набор от права и задължения да бъде споделен от всички държави — членки на Европейския съюз. Редица национални разпоредби без общ референтен показател биха могли да доведат до срив на единния пазар и да подкопаят колективните ни усилия за постигане на технологично лидерство в света. Създаването на европейска агенция, която да отговаря за наблюдението на работата по настоящия регламент, ще доведе до хармонизиране на правните и техническите рамки, разработени във всяка държава членка.

 

Гъвкав регламент, съобразен с бъдещите предизвикателства

 

В отговор на тези, които се застъпват за това този сектор да бъде оставен да се саморегулира, първоначалният диалог може да послужи и като пример за необходимостта от участие на обществеността с оглед на постигането на цели, които надхвърлят обикновената икономическа рентабилност: Европейските публични институции трябва да се стремят да избягват дискриминацията (независимо от нейното естество) в процеса на вземане на решения и да използват потенциала на тези технологии за промяна, така че да се постигне напредък към по-справедливо и по-устойчиво от екологична гледна точка общество — със специален акцент върху премахването на дискриминацията, основана на пола, наред с други цели. Текстът предоставя на европейските публични органи изричен мандат за справяне с тези проблеми.

 

Освен това настоящият регламент се стреми да съчетае един много амбициозен набор от изисквания с регулаторна простота, като се избягва налагането на сложни регулаторни системи и/или сериозни бюрократични тежести за участващите субекти. Той цели също така създаването на рамка, достатъчно гъвкава, за да отчита напредъка в една постоянно променяща се реалност, но същевременно позволяваща установяването в този сектор на правила за развитие, които ще оформят по-конкретни реалности. 

 

Всеобхватен подход, включващ създаването на национални надзорни органи

 

Настоящият регламент има за цел да разшири надзора върху всички области на една изключително сложна технология. Той включва разпоредби относно разработването, прилагането и развитието на технологиите чрез машинно самообучение или задълбочено машинно учене. Специално внимание се отделя на превенцията по отношение на технологиите, определени като „високорискови“, т.е. такива, за които има голяма вероятност да причинят отрицателни външни последици и/или такива, които налагат използването на чувствителни материали, изискващи специална защита (които също са определени в регламента). С него се уреждат и изключително чувствителните въпроси, свързани с индивидуалните права и техниките за разпознаване от разстояние, като се установяват много предпазни мерки за тяхното използване. Също така е предвидена много строга временна материална рамка за извънредни обстоятелства, която може да бъде използвана от публичните органи в случай на сериозни извънредни ситуации.

 

Друга цел на регламента е да насърчи всички граждани, особено лицата и групите, които в най-голяма степен участват или са засегнати от тези технологии, да участват в проектирането, разработването, контрола и надзора на тази регулаторна рамка. В текста се определя мандат, който изрично се посочва като задължителен, за всички национални надзорни органи, с който се гарантира необходимото и постоянно участие на гражданското общество. По подобен начин с него се установяват амбициозни изисквания по отношение на прозрачността и отчетността за проектантите, операторите и ползвателите на изкуствен интелект. Той включва също така задължения за гражданско поведение на потребителите, гарантиращи добросъвестното използване на технологиите от тяхна страна.

 

Разбираемост, прозрачност, отчетност, отговорност и управление

 

Все още сме далеч от разработването на алгоритъм, който може да постави началото на „Психоисторията“ — фиктивната наука от поредицата „Фондация“ на Айзък Азимов. Понятието за „свободна воля“, неотменима характеристика на човечеството, все още не изглежда застрашено, макар залогът по същество е да се предвиди появата на големите исторически течения.  Нашите демократични власти ще трябва да гарантират, че всички решения — и малки, и големи, взети с помощта на технологии за изкуствен интелект, не са резултат от някакви мътни и недостъпни математически формули. Разбираемостта, прозрачността, отчетността и отговорността ще бъдат незаменими характеристики на изкуствения интелект, разработван и експлоатиран в Европейския съюз.

 

Накратко, Европейският съюз трябва да бъде пространство, което поддържа нужния баланс между защитата на правата на гражданите и насърчаването на технологичното развитие. Нашият регламент и формата, която ще му придадат надзорния орган или надзорните органи, трябва да бъдат пример за останалия свят и първата стъпка към осигуряване на адекватно управление на това явление в световен мащаб.

 

 


 

 

 

СТАНОВИЩЕ НА КОМИСИЯТА ПО ВЪНШНИ РАБОТИ (24.6.2020)

на вниманието на комисията по правни въпроси

с препоръки към Комисията относно рамка за етичните аспекти на изкуствения интелект, роботиката и свързаните с тях технологии

(2020/2012(INL))

Докладчик по становище (*): Урмас Пает

(*) Процедура с асоциирани комисии – член 57 от Правилника за дейността

(Право на инициатива – член 47 от Правилника за дейността)

 

 

 

 

ПРЕДЛОЖЕНИЯ

Комисията по външни работи приканва водещата комисия по правни въпроси:

 да включи следните предложения в предложението за резолюция, което ще приеме:

1. подчертава, че политиките на Европейския съюз и неговите държави членки в областта на сигурността и отбраната се ръководят от принципите, залегнали в Европейската харта на основните права, и от тези на Устава на Организацията на обединените нации и от общо разбиране за универсалните ценности на зачитане на ненакърнимите и неотчуждими права на човешката личност, на човешкото достойнство, свободата, демокрацията, равенството и правовата държава; подчертава, че всички свързани с отбраната усилия в рамките на Съюза трябва да зачитат тези универсални ценности, като същевременно насърчават мира, сигурността и напредъка в Европа и в света; счита, че използването на изкуствен интелект (ИИ) следва да се основава на общ набор от етични принципи, съгласно които използването следва да бъде: отговорно, справедливо, проследимо, надеждно и управляемо;

2. приветства приемането от срещата на високодоговарящите се страни по Конвенцията на ООН за определени конвенционални оръжия (ККО) през 2019 г. на 11 ръководни принципа за разработването и използването на автономни оръжейни системи; изразява обаче съжаление, че не е постигнато съгласие относно правно обвързващ инструмент за регулиране на смъртоносните автономни оръжейни системи (LAWS) с ефективен механизъм за правоприлагане; приветства и подкрепя изготвените от експертната група на високо равнище на Комисията по въпросите на изкуствения интелект „Етични насоки за надежден изкуствен интелект“, публикувани на 9 април 2019 г., както и нейната позиция относно смъртоносните автономни оръжейни системи; настоятелно призовава държавите членки да разработят национални стратегии за дефиниране и определяне на статута на смъртоносните автономни оръжейни системи с оглед на цялостна стратегия на равнището на Съюза, и да насърчават, съвместно с върховния представител на Съюза/заместник-председател на Комисията (наричан по-долу върховен представител/заместник-председател), и Съвета, обсъждането на тези системи в рамката на ООН за ККО и в други подходящи форуми и установяването на международни норми по отношение на етичните и правните параметри на разработването и използването на напълно автономни, полуавтономни и дистанционно управлявани смъртоносни оръжейни системи; припомня в това отношение резолюцията си относно автономните оръжейни системи от 12 септември 2018 г. и призовава отново за спешно разработване и приемане на обща позиция относно смъртоносните автономни оръжейни системи, за международна забрана на разработването, производството и използването на смъртоносни автономни оръжейни системи, позволяващи осъществяването на нападения без пълноценен човешки контрол и без спазване на принципа за задължително участие на човек във веригата, в съответствие с изявлението на най-изтъкнатите изследователи на ИИ в света в откритото им писмо от 2015 г.; приветства споразумението на Съвета и Парламента за изключване на смъртоносните автономни оръжия „без възможността за пълноценен човешки контрол по отношение на решенията за подбор и намеса, когато се извършват нападения“ от списъка с действия, финансирани по линия на Европейския фонд за отбрана; счита, че не трябва да се пренебрегват етичните аспекти на други приложения на ИИ в областта на отбраната, например разузнаване, наблюдение и войсково разузнаване (ISR) или кибероперации, и че трябва да се обърне специално внимание на разработването и използването на дронове за военни операции;

3. препоръчва всяка европейска рамка, регулираща използването на основаващи се на ИИ системи в областта на отбраната както в бойна, така и в друга обстановка, да зачита всички приложими правни режими, и по-специално международното хуманитарно право и международното право в областта на правата на човека, и да съответства на правото, принципите и ценностите на Съюза; подчертава, че Съюзът следва да играе водеща роля в глобален план по пътя към надеждна и обвързваща регулаторна рамка за ИИ, основана на демократичните ценности и ориентиран към човека подход; призовава Съюза и неговите държави членки да изготвят съвместни механизми за бързо и задълбочено оценяване на свързаните с ИИ рискове и възможности по отношение на прилагането на правото на Съюза, черпейки идеи от най-добрите практики на по-напредналите държави членки, и да предвидят необходимите корекции и правоприлагане, когато е необходимо, като имат предвид различията между разните технически инфраструктури и инфраструктури по сигурността в рамките на Съюза;

4. признава, че за разлика от промишлената база в сферата на отбраната, жизненоважните иновации в ИИ могат да дойдат от малките държави членки, поради което стандартизираният за ОПСО подход следва да гарантира, че по‑малките държави членки и МСП няма да бъдат изключени; подчертава, че набор от общи способности за ИИ на ЕС, които са в съответствие с оперативните концепции на съответните държави членки, могат да преодолеят различията в техническо отношение, които биха могли да изключат държави, не разполащи със съответната технология, експертен опит в сектора или способността да внедрят системи с ИИ в своите министерства на отбраната;

5. подчертава, че географският обхват на такава рамка следва да обхваща всички компоненти на изкуствения интелект, роботиката и свързаните с тях технологии, които са разработени, внедрени или използвани в Съюза, включително в случаите, когато част от технологиите може да се намират извън Съюза или да нямат конкретно местоположение;

6. подчертава, че нововъзникващите технологии, които не са обхванати от международното право, следва да се преценяват според принципа на зачитането на хуманността и повелите на обществената съвест; подчертава, че използването и етичните аспекти на основаващите се на ИИ системи в отбраната трябва да бъдат постоянно оценявани от гледна точка на правата на човека, и по-специално на човешката безопасност, здраве и сигурност, свобода, неприкосновеност на личния живот, интегритет и достойнство и непрекъснато да се наблюдават, особено от гледна точка на предимствата и недостатъците на ИИ, както и на въздействието му върху защитата на универсалните права на човека; счита, че технологичните предимства във връзка с основаващите се на ИИ системи в отбраната трябва да вървят ръка за ръка с обширна дискусия относно използването на ИИ и неговото въздействие върху обществата и общностите и потенциалните икономически и обществени ползи, както и че рисковете, произтичащи от използването на ИИ, трябва да бъдат обяснени по подходящ начин;

7. счита, че настоящите и бъдещите свързани със сигурността и отбраната дейности в рамката на Съюза ще ползват ИИ, роботиката и автономността, както и свързаните с тях технологии и че надеждният, солиден и вдъхващ доверие ИИ би могъл да допринесе за съвременни и ефективни военни сили; ето защо Съюзът трябва да поеме водеща роля в научните изследвания и разработването на системи с ИИ в областта на сигурността и отбраната; счита, че използването на основаващи се на ИИ приложения в сигурността и отбраната би могло да донесе редица преки ползи за командващия операцията, например по-високо качество на събираните данни, по-добра ситуационна осведоменост, повишена бързина на вземане на решения, намален риск от съпътстващи щети благодарение на по‑добро окабеляване, защита на силите на място, както и по-голяма надеждност на военното оборудване и следователно по-нисък риск за хората и риск от човешки жертви; подчертава, че разработването на надежден ИИ в областта на отбраната е от съществено значение за гарантирането на европейската стратегическа автономност по отношение на способностите и оперативните възможности; припомня, че системите с ИИ се превръщат и в ключови елементи в борбата с нововъзникващите заплахи за сигурността, като кибернетичните и хибридните военни действия, както онлайн, така и офлайн; същевременно подчертава всички рискове и предизвикателства, произтичащи от нерегламентираното използване на ИИ; отбелязва, че ИИ може да бъде уязвим спрямо манипулации, грешки и неточности;

8. призовава да се създадат полезни взаимодействия и мрежи между различните европейски научноизследователски центрове за ИИ, както и други многостранни форуми, като Съвета на Европа, Организацията за образование, наука и култура на ООН (ЮНЕСКО), Организацията за икономическо сътрудничество и развитие (ОИСР), Световната търговска организация и Международния съюз по далекосъобщения (МСД), така че да се хармонизират техните усилия и да се координира по-добре развитието на технологията с ИИ;

9. подчертава, че технологиите с ИИ са по същество с двойна употреба и разработването на ИИ в дейности, свързани с отбраната, има полза от обмена между военните и гражданските технологии; подчертава, че ИИ в дейностите, свързани с отбраната, е хоризонтална революционна технология, чието развитие може да предостави възможности за конкурентоспособност и стратегическа автономност на Съюза;

10. подчертава, че въз основа на съобщението на Комисията от 8 април 2019 г. „Изграждане на доверие в ориентирания към човека изкуствен интелект“, при което технологията изцяло зачита правата на човека и хората запазват контрол върху автоматизираните системи за вземане на решения, като същевременно технологиите допълват и подкрепят човешката автономия и вземане на решения, Съюзът се нуждае от стабилна регулаторна рамка за ИИ, насочена към сигурността и отбраната, която да бъде отговорна и прозрачна, да закриля нашите граждани и техните данни и да защитава нашите ценности, като политиките му си поставят за цел запазване на мира, предотвратяване на конфликтите и укрепване на международната сигурност и същевременно се използват възможностите, които предлагат тези технологии, и се осъзнава, че основаващите се на ИИ системи ще бъдат ключов елемент в бъдещите отбранителни разработки и отбранителни способности;

11. призовава държавите членки и Комисията да гарантират, че алгоритмите, използвани в системите за отбрана, макар и да запазват необходимата поверителност, се ръководят от принципа на прозрачност, включително ясен режим на отговорност за резултатите от използването на ИИ; подчертава, че подобни алгоритми трябва да бъдат постоянно адаптирани към напредъка в технологиите в областта на изкуствения интелект;

12. подчертава, че Съюзът трябва да бъде начело на подкрепата за многостранните усилия в рамките на правителствената експертна група на ККО на ООН и други подходящи форуми, за да обсъжда създаването на ефективна международна регулаторна рамка, осигуряваща пълноценен човешки контрол над автономните оръжейни системи, за да бъдат овладени тези технологии чрез създаване на добре дефинирани и основани на референтни показатели процеси и приемане на законодателство за тяхното етично използване в консултации със заинтересованите страни сред военните, промишлеността, правоприлагащите органи, академичните среди и гражданското общество, за да се постигне разбиране на съответните етични аспекти, да се ограничават присъщите на тези технологии рискове и да се предотвратява използването им за злонамерени цели; това включва по-специално непредвидените вреди за хора, независимо дали тези вреди са материални или нематериални, например нарушаване на основни права или физически увреждания; в сътрудничество с държавите членки Съюзът трябва да определи подходящите режими на отговорност, приложими към иновациите в областта на ИИ и други многомерни технологии в областта на сигурността и отбраната, като по този начин създаде правна основа за механизмите за отчетност и проследимост; подчертава, че законодателството и нормативните рамки на Съюза не трябва да бъдат изпреварвани от евентуалния бъдещ технологичен напредък, развитието на ИИ и новите методи за водене на война и следователно трябва да бъдат подкрепени от пълноценни схеми за наблюдение, които да бъдат постоянно коригирани, за да се предотвратяват правни празноти или „сиви зони“; подчертава, че по-нататъшните научноизследователски и развойни дейности в областта на ИИ следва да осигурят това, системите, основаващи се на ИИ, да са по-добре подготвени да разбират уникалните аспекти на всеки контекст;

13. подкрепя ключовия принцип „етика при проектирането“, според който етичните принципи се вграждат в продуктите и услугите с ИИ от самото начало на процеса на проектиране;

14. припомня, че повечето от настоящите военни сили в световен мащаб вече полагат значителни усилия в областта на научноизследователската и развойната дейност във връзка с военното измерение на ИИ; счита, че Съюзът трябва да се погрижи да не изостава в това отношение; подчертава, че за всяко приложение в областта на отбраната на системи, основаващи се на ИИ, Съюзът следва да определи технически и организационни стандарти съгласно принципа на „сигурност още при проектирането“, като се дава възможност за специфичен човешки надзор, за да се гарантира устойчивостта на такива системи срещу уязвимости, които могат да бъдат експлоатирани за външни атаки, кибератаки и цифрово влияние, насочени към данните, модела или базовата инфраструктура – както софтуерна, така и хардуерна, както и спазването от тяхна страна на най-високите възможни стандарти за надеждност, активно наблюдение и надзор по отношение на събирането, съхранението и използването на оперативни данни през целия жизнен цикъл на системата; подчертава значението на прозрачността и отчетността на алгоритмите за ИИ; отбелязва важното разграничение между прозрачността на алгоритмите и прозрачността на използването на алгоритмите; подчертава, че системите и приложенията с ИИ, предназначени за извличане и синтезиране на данни и екстраполиране на резултатите от тях с цел осигуряване на информация за решенията по въпроси, свързани с отбраната и националната сигурност, трябва да са специфични по обхват и да съответстват на разпоредбите, установени в действащата регулаторна рамка по отношение на събирането и обработката на данни; подчертава, че приложенията с ИИ, предназначени за обработка на данни за разузнавателни цели в дейности, свързани с отбраната, следва да съответстват на стандартите за обработка на данни, за да се избегнат рисковете от непреднамерено наблюдение или нарушаване на правата на личността; счита, че за високорисковите приложения на технологии с ИИ, като лицевото разпознаване, при които липсва окончателно установена регулаторна рамка на равнището на ЕС, Съюзът трябва да гарантира, че тяхното развитие и внедряване е правилно, пропорционално и зачита правата на личността; подчертава, че компетентните национални правоприлагащи органи трябва да спазват приложимото законодателство, когато разработват и внедряват основаващи се на ИИ системи и технологии за поддържане на обществения ред, за да се смекчат непропорционалните рискове от прогнозирането в полицейската дейност; признава, че първостепенният гарант на евроатлантическата сигурност е НАТО, и призовава за засилено сътрудничество в рамките на НАТО за установяване на общи стандарти и оперативна съвместимост на системите с ИИ в областта на отбраната; подчертава, че трансатлантическите отношения са от първостепенно значение за опазване на споделените ценности и за противодействие на бъдещи и нововъзникващи заплахи;

15. подчертава необходимостта да се приемат ясни разпоредби и изисквания за надеждност, безопасност и сигурност с подходящо сертифициране за системите с ИИ в областта на сигурността и отбраната, да се въвеждат критерии за прозрачност в различните фази, а именно проектиране, производство, експлоатация, и да се извършва постоянно наблюдение, редовни изпитвания и проверки през целия жизнен цикъл; подчертава, че е необходимо да се гарантира съответствие с приложимите стандарти и полученото сертифициране, когато ИИ променя, например чрез машинно самообучение, функционалността и поведението на системите, в които е интегриран, за да се гарантира пълна проследимост, обяснимост и отчетност на решенията, взети с участието на ИИ, и техните резултати, както и пълноценен човешки контрол, когато такива системи биха могли да убият хора;

16. призовава Комисията да включи изграждането на капацитет за киберсигурност в своята индустриална политика, за да се гарантира разработването и внедряването на безопасни, устойчиви и стабилни системи с ИИ и роботизирани системи; призовава Комисията да проучи използването на базирани на блокови вериги протоколи и приложения за киберсигурност, за да се подобри устойчивостта, доверието и стабилността на инфраструктурите с ИИ чрез модели за криптиране на данни без посредничество; насърчава европейските заинтересовани страни да изследват и разработват усъвършенствани функции, които биха улеснили откриването на повредени и зловредни основаващи се на ИИ системи и роботизирани системи, които биха могли да отслабят сигурността на Съюза и на гражданите;

17. подчертава, че всички системи с ИИ в областта на отбраната трябва да имат конкретна и точно определена рамка на мисията, при която хората запазват способността да откриват и оттеглят или дезактивират разгърнатите системи, в случай че те излязат извън рамките на мисията, определена и възложена от командир човек, или предприемат ескалиращи или непредвидени действия; счита, че системите, продуктите и технологиите, основаващи се на ИИ и предназначени за военни цели, следва да бъдат оборудвани с „черна кутия“ за записване на всяка операция с данни, извършвана от машината;

18. подчертава, че цялата отговорност и отчетност за вземането на решение за проектирането, разработването, внедряването и използването на системи с ИИ трябва да се носи от оператори хора, тъй като трябва да има пълноценно човешко наблюдение и контрол върху всяка оръжейна система и да има човешко намерение зад вземането на решение да се използва сила, когато се изпълнява каквото и да е решение на основаващи се на ИИ оръжейни системи, което би могло да има смъртоносни последици; подчертава, че следва човешкият контрол да продължи бъде ефективен при командването и контрола на основаващите се на ИИ системи, като се следват принципите на „задължително участие на човек във веригата“, „участие на човек във веригата при необходимост“ и действия „под човешки контрол“ на равнището на военното ръководство; подчертава, че системите, основаващи се на ИИ, трябва да позволяват на военното ръководство на армиите да поема пълната си отговорност и отчетност за употребата на смъртоносна сила и да упражнява необходимото равнище на преценка за предприемане на смъртоносни или разрушителни в широки мащаби действия, която не може да бъде възлагана на машини, тъй като трябва да се основава на принципите на разграничаване, пропорционалност и предпазливост; подчертава необходимостта от създаване на ясни и проследими рамки за разрешаване и отчетност за развръщането на интелигентни оръжия и други системи с ИИ, използвайки уникални потребителски характеристики, като биометрични спецификации, за да се осигури възможност развръщането да се извършва единствено от упълномощен персонал;

19. призовава Комисията да работи съвместно с националните компетентни органи на държавите членки и други заинтересовани страни, участващи в разработването и внедряването на системи, продукти и технологии с ИИ, за създаване на безопасна, сигурна и устойчива рамка, при която изходният код на системите с ИИ се споделя, наблюдава и проверява с цел смекчаване на потенциалните отклонения от ръководните принципи и етичната рамка, залегнали в основата на технологиите с ИИ в областта на сигурността и отбраната; предлага на Комисията Съюзът да запазва собствеността върху интелектуалната собственост на финансираните от Съюза изследвания за системи, продукти и технологии, основаващи се на ИИ, в областта на сигурността и отбраната;

20. подчертава, че Съюзът трябва да насърчава по-добро разбиране на последиците, предимствата, възможностите и слабостите, произтичащи от ИИ, роботиката и автономните функции и характеристики във военната област, включително потенциала за европейската отбранителна промишленост, като работи във взаимодействие с военните; счита, че Съюзът трябва да насърчава придобиването на необходимите умения и знания за процесите на технологично развитие и оперативните методи по цялата верига на доставки и през целия жизнен цикъл на военните способности, основаващи се на ИИ; подчертава спешната необходимост от установяване на засилена европейска стратегическа и технологична независимост в областта на системите, основаващи се на ИИ, включително критичната инфраструктура, на която той разчита;

21. счита, че е необходимо засилено сътрудничество между държавите членки и Комисията, за да се гарантират съгласувани трансгранични правила в Съюза, да се насърчи сътрудничеството между европейските индустрии и да се осигури възможност за разработване и внедряване на технологии, основаващи се на ИИ, които са в съответствие с предписаните стандарти за безопасност и сигурност, както и с етичната рамка, уреждаща разработването и внедряването на технологии с ИИ;

22. признава, че в днешните времена на хибридни и модерни военни действия обемът и скоростта на информацията през ранните фази на една криза може да са непосилни за анализаторите хора и че информацията може да се обработва от система с ИИ, за да се гарантира, че лицата, отговорни за вземане на решения, следят пълния спектър от информация в разумен срок, така че да може да се реагира бързо;

23. подчертава колко е важно да се инвестира в развитието на човешкия капитал за изкуствен интелект, да се развиват необходимите умения и обучението в областта на технологиите с ИИ за сигурност и отбрана, с особен акцент върху етиката на полуавтономните и автономните оперативни системи, въз основа на човешка отчетност в един свят, основаващ се на ИИ; подчертава по-специално, че е важно да се гарантира, че служителите по въпросите на етиката в тази област ще имат подходящи умения и ще получават подходящо обучение; призовава Комисията да представи възможно най-скоро своята „Програма за укрепване на уменията“, обявена в Бялата книга за изкуствения интелект на 19 февруари 2020 г.;

24. подчертава, че квантовата изчислителна технология би могла да представлява най-революционната промяна в конфликтите след появата на атомното оръжие, и затова настоятелно призовава по-нататъшното развитие на квантовите изчислителни технологии да бъде приоритет за Съюза и държавите членки; признава, че актовете на агресия, включително нападенията срещу критична инфраструктура, подпомагани от квантовата изчислителна технология, ще създадат условия, в които времето за вземане на решения ще бъде съкратено драстично от дни и часове на минути и секунди, принуждавайки държавите членки да развият способности, с които да се защитят, и да обучат както лицата, вземащи решения, така и военнослужещите да реагират ефективно в такива срокове;

25. подчертава необходимостта от преодоляване на настоящата разпокъсаност в рамките на Съюза по отношение на свързаното с ИИ право, научни изследвания, иновации и експертен опит в областта на ИИ на национално равнище, която застрашава функционирането на вътрешния пазар и целта за гарантиране на надеждно и сигурно развитие на ИИ в Европа; в тази връзка приветства включването на свързани с ИИ проекти в рамките на Европейската програма за промишлено развитие в областта на отбраната (EDIDP); счита, че бъдещият Европейски фонд за отбрана (ЕФО) и постоянното структурирано сътрудничество (ПСС) също предлагат добре адаптирани рамки за бъдещи проекти, свързани с ИИ, които биха спомогнали за по-оптимизирани усилия на Съюза в тази област и същевременно биха подпомогнали целта на Съюза да се укрепват правата на човека, международното право и многостранните решения; подчертава, че свързаните с ИИ проекти трябва да бъдат синхронизирани с по-общите граждански програми на Съюза, посветени на ИИ; отбелязва, че в съответствие с Бялата книга на Европейската комисия относно ИИ следва да бъдат създадени центрове за високи постижения и тестове, съсредоточени върху научните изследвания и разработването на ИИ в областта на сигурността и отбраната със строги спецификации, които да дават основа за участие и инвестиции на частни заинтересовани страни;

26. подчертава, че Съюзът трябва да се стреми към стратегическа устойчивост, така че никога повече да не се окаже неподготвен във времена на криза, и изтъква, че това е от изключително значение особено що се отнася до изкуствения интелект и неговото прилагане в областта на отбраната и сигурността; подчертава, че веригите за доставки за системите с ИИ в областта на отбраната и сигурността, които могат да доведат до технологична зависимост, следва да бъдат пренастроени и такива зависимости следва да бъдат постепенно премахнати; призовава за увеличаване на инвестициите в европейски ИИ за отбрана, както и в критичната инфраструктура, която го поддържа;

27. подчертава, че развитието на ИИ, което зачита основните права и подкрепя обществения интерес, изисква стратегическо обединяване и споделяне на данни в Съюза между частни и публични субекти, както и укрепване на екосистемата за ИИ в Съюза, която включва публични и частни заинтересовани страни и заинтересовани страни от гражданското общество; призовава Комисията да насърчава диалога, по-тясното сътрудничество и полезните взаимодействия между военните и държавите членки, изследователите, представителите на академичните среди, субектите на гражданското общество и частния сектор, по-специално водещите дружества и предприятия, така че да се създадат приобщаващи процеси за изготвяне на политики, когато става въпрос за свързани с отбраната регулаторни норми за ИИ, да се използва максимално потенциалът на ИИ, като същевременно се насърчава по-доброто разбиране на рисковете и ползите и се гарантира максимална експлоатационна сигурност;

28. подчертава, че в контекста на широкоразпространената дезинформационна война, подклаждана по-специално от неевропейски участници, технологиите с ИИ може да имат неблагоприятно в етичен план въздействие поради експлоатиране на пристрастно съставени данни и алгоритми или поради преднамерено променяне на данни за самообучение на ИИ от страна на трета държава, и биха могли да бъдат изложени и на други форми на опасна зловредна манипулация по непредсказуеми начини и с неизчислими последици; следователно има все по‑голяма необходимост Съюзът да продължи инвестициите в областта на научните изследвания, анализа, иновациите и трансграничния и междусекторен трансфер на знания с цел разработване на технологии с ИИ, за които да е ясно, че не са обременени от никакъв вид профилиране, пристрастие и дискриминация, и които биха могли ефективно да допринесат за борбата с фалшивите новини и дезинформацията, като същевременно се зачитат неприкосновеността на данните и европейската правна рамка;

29. подчертава колко е важно да бъде създаден етичен кодекс за поведение, който да бъде в основата на развръщането на оръжейни системи с ИИ във военни операции, подобно на съществуващата регулаторна рамка, забраняваща употребата на химическо и биологично оръжие; счита, че Комисията следва да даде начало на създаване на стандарти за използването на основаващи се на ИИ оръжейни системи във военните действия в съответствие с международното хуманитарно право, а Съюзът следва да се стреми към това тези стандарти да се възприемат в международен план; счита, че Съюзът следва да провежда дипломация във връзка с ИИ в международните форуми с партньори със сходни виждания, като Г-7, Г-20 и ОИСР;

30. отбелязва Бялата книга на Европейската комисия от 19 февруари 2020 г. относно изкуствения интелект и изразява съжаление, че военните аспекти не са взети под внимание; призовава Комисията и върховния представител/заместник председател да представят, включително като част от цялостен подход, секторна стратегия за ИИ за свързаните с отбраната дейности в рамките на Съюза, която да гарантира както зачитането на правата на гражданите, така и стратегическите интереси на Съюза, и която да се основава на последователен подход, обхващащ гамата от създаването на основаващите се на ИИ системи до тяхната военна употреба, и да създадат работна група по въпросите на сигурността и отбраната в рамките на експертната група на високо равнище по въпросите на изкуствения интелект, която следва да се занимава конкретно с въпросите на политиката и инвестициите, както и с етичните аспекти на ИИ в областта на сигурността и отбраната; призовава Съвета, Комисия и заместник-председателя/върховен представител да започнат структуриран диалог с Парламента за тази цел.


ИНФОРМАЦИЯ ОТНОСНО ПРИЕМАНЕТО В ПОДПОМАГАЩАТА КОМИСИЯ

Дата на приемане

22.6.2020

 

 

 

Резултат от окончателното гласуване

+:

–:

0:

60

7

2

Членове, присъствали на окончателното гласуване

Alviina Alametsä, Maria Arena, Petras Auštrevičius, Traian Băsescu, Lars Patrick Berg, Anna Bonfrisco, Reinhard Bütikofer, Fabio Massimo Castaldo, Susanna Ceccardi, Włodzimierz Cimoszewicz, Katalin Cseh, Tanja Fajon, Anna Fotyga, Michael Gahler, Kinga Gál, Sunčana Glavak, Raphaël Glucksmann, Klemen Grošelj, Bernard Guetta, Márton Gyöngyösi, Sandra Kalniete, Karol Karski, Dietmar Köster, Stelios Kouloglou, Andrius Kubilius, Ilhan Kyuchyuk, David Lega, Miriam Lexmann, Nathalie Loiseau, Antonio López-Istúriz White, Claudiu Manda, Lukas Mandl, Thierry Mariani, David McAllister, Vangelis Meimarakis, Sven Mikser, Francisco José Millán Mon, Javier Nart, Gheorghe-Vlad Nistor, Urmas Paet, Kostas Papadakis, Tonino Picula, Manu Pineda, Kati Piri, Giuliano Pisapia, Diana Riba i Giner, María Soraya Rodríguez Ramos, Nacho Sánchez Amor, Isabel Santos, Jacek Saryusz-Wolski, Andreas Schieder, Radosław Sikorski, Sergei Stanishev, Tineke Strik, Hermann Tertsch, Hilde Vautmans, Harald Vilimsky, Idoia Villanueva Ruiz, Thomas Waitz, Witold Jan Waszczykowski, Charlie Weimers, Isabel Wiseler-Lima, Željana Zovko

Заместници, присъствали на окончателното гласуване

Katarina Barley, Nicolas Bay, Arnaud Danjean, Katrin Langensiepen, Hannah Neumann, Mick Wallace

 


ПОИМЕННО ОКОНЧАТЕЛНО ГЛАСУВАНЕ В ПОДПОМАГАЩАТА КОМИСИЯ

60

+

EPP

Traian Băsescu, Arnaud Danjean, Michael Gahler, Kinga Gál, Sunčana Glavak, Sandra Kalniete, Andrius Kubilius, David Lega, Miriam Lexmann, Antonio López‑Istúriz White, Lukas Mandl, David McAllister, Vangelis Meimarakis, Francisco José Millán Mon, Gheorghe‑Vlad Nistor, Radosław Sikorski, Isabel Wiseler‑Lima, Željana Zovko

S&D

Maria Arena, Katarina Barley, Włodzimierz Cimoszewicz, Tanja Fajon, Raphaël Glucksmann, Dietmar Köster, Claudiu Manda, Sven Mikser, Tonino Picula, Kati Piri, Giuliano Pisapia, Nacho Sánchez Amor, Isabel Santos, Andreas Schieder, Sergei Stanishev

RENEW

Petras Auštrevičius, Katalin Cseh, Klemen Grošelj, Bernard Guetta, Ilhan Kyuchyuk, Nathalie Loiseau, Javier Nart, Urmas Paet, María Soraya Rodríguez Ramos, Hilde Vautmans

ID

Anna Bonfrisco, Susanna Ceccardi

VERTS

Alviina Alametsä, Reinhard Bütikofer, Katrin Langensiepen, Hannah Neumann, Diana Riba i Giner, Tineke Strik, Thomas Waitz

ECR

Anna Fotyga, Karol Karski, Jacek Saryusz‑Wolski, Hermann Tertsch, Witold Jan Waszczykowski, Charlie Weimers

NI

Fabio Massimo Castaldo, Márton Gyöngyösi

 

7

-

GUE

Stelios Kouloglou, Manu Pineda, Idoia Villanueva Ruiz, Mick Wallace

ID

Nicolas Bay, Thierry Mariani

NI

Kostas Papadakis

 

2

0

ID

Lars Patrick Berg, Harald Vilimsky

 

Легенда на използваните знаци:

+ : „за“

- : „против“

0 : „въздържал се“

 


 

 

СТАНОВИЩЕ НА КОМИСИЯТА ПО ВЪТРЕШНИЯ ПАЗАР И ЗАЩИТА НА ПОТРЕБИТЕЛИТЕ (8.7.2020)

на вниманието на комисията по правни въпроси

с препоръки към Комисията относно рамката за етичните аспекти на изкуствения интелект, роботиката и свързаните с тях технологии

(2020/2012(INL))

Докладчик по становище: Александра Гезе

(Право на инициатива – член 47 от Правилника за дейността)

 

(*) Процедура с асоциирани комисии – член 57 от Правилника за дейността

 

 

 

 

 

ПРЕДЛОЖЕНИЯ

Комисията по вътрешния пазар и защита на потребителите приканва водещата комисия по правни въпроси:

 да включи следните предложения в предложението за резолюция, което ще приеме:

 

А. като има предвид, че етичните насоки – например принципите, приети от експертната група на високо равнище по въпросите на изкуствения интелект – дават добра отправна точка, но не са достатъчни, за да се гарантира, че дружествата действат честно и гарантират ефективна защита на потребителите;

 

Обхват

1. подчертава колко е важно да се прилага нормативна уредба на ЕС, която акцентира върху етичните аспекти във връзка с изкуствения интелект, роботиката и свързаните с тях технологии, когато потребителите в Съюза са ползватели, субекти или обекти на алгоритмична система или са насочвани към такава система, независимо от мястото на установяване на образуванията, които разработват, продават или използват системата; освен това счита, че в интерес на правната сигурност определените правила следва да се прилагат за всички разработчици и по цялата верига за създаване на стойност, а именно при разработването, внедряването и използването на съответните технологии и техните компоненти, и следва да гарантират високо равнище на защита на потребителите; изтъква отново колко са важни ценностите на Съюза, посочени в Договорите, във връзка със значението на защитата на личните данни и на изричното и информирано съгласие, и предлага тези правила да вземат предвид поуките от прилагането на Регламент (ЕС) 2016/679[19] (ОРЗД), който се счита за еталон в световен мащаб; счита, че наличието на законен представител, установен в Съюза, към който биха могли да се отправят искания, например с цел да се даде възможност за правна защита на потребителите, е важно за целите на прилагането на една бъдеща нормативна уредба на ЕС;

 

2. отбелязва, че нормативната уредба на ЕС следва да се прилага за алгоритмични системи, включително в областта на изкуствения интелект, машинното самообучение, системите, основаващи се на правила, автоматизираните и подпомаганите процеси на вземане на решения и роботиката; отбелязва освен това, че може да се разработят стандартизирани символи, с чиято помощ тези системи да се разясняват на потребителите, когато системите са сложни или когато те са в състояние се вземат решения, оказващи значително въздействие върху живота на потребителите;

 

3. подчертава, че нормативната уредба на ЕС трябва да има ориентиран към човека подход и да води до разработването на системи, в които европейските етични ценности са интегрирани още на етапа на проектирането; счита, че една нормативна уредба на ЕС, съсредоточена върху европейските ценности, посочени в Договорите, би представлявала добавена стойност, като ще осигури на Европа уникално конкурентно предимство и ще допринесе значително за благосъстоянието и благоденствието на европейските граждани и предприятия и също така ще стимулира вътрешния пазар; подчертава, че една етична рамка в областта на изкуствения интелект също така представлява добавена стойност по отношение на насърчаването на иновациите на вътрешния пазар;

 

 

4. посочва, че нормативната уредба, въведена с Решение № 768/2008/EО[20], предвижда хармонизиран списък от задължения за производителите, вносителите и дистрибуторите, насърчава използването на стандарти и предвижда няколко нива на контрол в зависимост от това, доколко е опасен продуктът; счита, че тази уредба следва да се прилага и за продукти с вграден изкуствен интелект;

 

5. подчертава, че всички бъдещи разпоредби следва да възприемат диференциран, основаващ се на риска подход, за да се предостави възможност за разработването и внедряването на сигурни и надеждни системи, като се прилагат ясни критерии и показатели, с последваща безпристрастна правна оценка въз основа на потенциалната вреда или нарушаване на правата по отношение на отделните лица, както и на обществото като цяло, като се вземе предвид специфичният контекст на използване на алгоритмичната система; подчертава, че правните задължения и изискванията за сертифициране следва постепенно да нарастват в съответствие с определеното равнище на риска; подчертава, че в категорията с най-нисък риск следва да няма допълнителни правни задължения; отбелязва, че алгоритмичните системи, които могат да нанесат вреда на дадено лице или да доведат до нарушаването на правата на дадено лице, или да повлияят върху достъпа на дадено лице до обществени услуги, не се считат за попадащи в категорията с най-нисък риск; отбелязва, че основаният на риска подход следва да се придържа към ясни и прозрачни правила, като осигурява достатъчно правна сигурност и същевременно е ориентиран към бъдещето; призовава за единно прилагане на системата за класифициране на риска и свързаните с нея правни задължения, за да се гарантират еднакви условия на конкуренция в държавите членки и да се предотврати разпокъсване на вътрешния пазар; подчертава, че оценката на риска по отношение на конкретна система трябва да бъде предмет на редовна преоценка;

 

6. припомня, че Комисията следва да разгледа действащата нормативна уредба на ЕС и нейното прилагане, включително достиженията на правото в областта на защитата на потребителите, законодателството в областта на отговорността за продуктите, законодателството в областта на безопасността на продуктите и законодателството в областта на надзора на пазара, за да се установят правните пропуски, както и съществуващите регулаторни задължения; счита, че това е необходимо, за да се установи дали действащата нормативна уредба на ЕС е в състояние да отговори на навлизането на изкуствения интелект, роботиката и свързаните с тях технологии и дали тази уредба в състояние да гарантира високо равнище на защита на потребителите;

 

Управление на данните

7. подчертава колко е важно наличието на етична и нормативна уредба на ЕС, която включва по-специално разпоредби, изискващи използването на висококачествени данни за обучението на алгоритмични системи във връзка с целта на тяхното използване; във връзка с това подчертава, че е необходимо да се гарантира представителността на данните, използвани за обучението, и когато е възможно – обективният характер на наборите от данни, както и на стандартите за данните и обобщаването, за да се подобри функционирането на алгоритмичните системи и да се повиши доверието и приемането от страна на потребителите; подчертава, че тези набори от данни следва да подлежат на одит от страна на компетентните органи, ако е налице такова искане, за да се гарантира тяхното съответствие с посочените по-горе принципи;

 

Защита на потребителите: прозрачност и обяснимост на алгоритмите

8. подчертава, че доверието на потребителите е от съществено значение за разработването и използването на изкуствения интелект, роботиката и свързаните с тях технологии, които могат да носят присъщи рискове, ако се основават на непрозрачни алгоритми и необективни набори от данни; счита, че потребителите следва да имат правото да бъдат информирани в достатъчна степен и по разбираем, навременен, стандартизиран, точен и достъпен начин за това, че се използват алгоритмични системи, за основанието за тяхното използване, както и за евентуалния резултат и въздействието по отношение на потребителите, как може да се осъществи контакт с човек, разполагащ с правомощия за вземане на решения, и как решенията на системата могат да бъдат проверени, обжалвани ефикасно и коригирани; припомня, че човекът винаги трябва да бъде в състояние да отмени автоматизирани решения; счита, че потребителите следва също така да бъдат защитени чрез правото да изключват или ограничават дадена система с изкуствен интелект, като използва персонализация, когато това е възможно; подчертава колко е важна пропорционалността при разработването на тази рамка за прозрачност, за да се избегне създаването на ненужна тежест за новосъздадените предприятия и за малките и средните предприятия (МСП), които извършват дейност в нискорискови области;

 

9. подчертава необходимостта да се предприемат ефективни действия за справяне с предизвикателствата, произтичащи от алгоритмичните системи, както и да се гарантира, че потребителите разполагат с необходимите права и са надлежно защитени; подчертава необходимостта да се погледне отвъд традиционните принципи за информация и оповестяване, на които се основават достиженията на правото на ЕС в областта на защитата на потребителите, тъй като ще са необходими по-солидни права на потребителите и ясни ограничения по отношение на разработването и използването на алгоритмични системи, за да се гарантира, че технологиите допринасят за подобряването на живота на потребителите и се развиват по начин, който зачита основните права, правата на потребителите и европейските ценности;

 

10. счита, че категорично е необходим подход при проектирането, основаващ се на ценности, за да се създадат необходимите условия за широко обществено приемане на изкуствения интелект за потребителите; счита, че етичните ценности справедливост, точност, поверителност и прозрачност следва да бъдат в основата на изкуствения интелект, което в този контекст означава системите да функционират по такъв начин, че да не генерират несправедливо тенденциозни резултати;

 

11. припомня колко е важно да се осигури наличието на ефективни средства за правна защита за потребителите и призовава държавите членки и националните органи за надзор на пазара да гарантират, че са налице достъпни, включително от финансова гледна точка, независими и ефективни процедури и структури за преразглеждане, за да се осигури безпристрастен преглед от страна на човек на всички твърдения за нарушения на правата на потребителите чрез използване на алгоритмични системи, независимо дали произтичат от участници от публичния или частния сектор; настоятелно призовава да бъде осигурен достъп до механизми за решаване на спорове и за колективна защита в съответствие с Директивата на Европейския парламент и на Съвета относно представителни искове за защита на колективните интереси на потребителите и за отмяна на Директива 2009/22/ЕО[21], за да се оспорва въвеждането или постоянното използване на система, създаваща риск от нарушения на правата на потребителите, или за да се предприемат действия за правна защита във връзка с нарушаване на права; призовава Комисията да гарантира, че националните и европейските организации на потребителите разполагат с достатъчно финансиране, за да подпомагат потребителите при упражняването на тяхното право на правна защита в случаите, когато решения, основаващи се на приложения с изкуствен интелект, нарушават правата на потребителите;

 

12. подчертава, че когато парични средства от публични източници допринасят в значителна степен за разработването или прилагането на алгоритмична система, наред с откритите обществени поръчки и стандартите за свободно договаряне, кодът, генерираните данни – доколкото не са лични – и моделът, който е бил обект на обучение, биха могли да бъдат публични по подразбиране, ако е налице договореност с разработчика, за да се даде гарантира прозрачност, да се повиши равнището на киберсигурност и да се осигури възможност за тяхното повторно използване с цел стимулиране на иновациите; подчертава, че по този начин може да бъде разгърнат пълният потенциал на единния пазар, като се избегне разпокъсване на пазара;

 

Вътрешен пазар: информация за потребителите и осведоменост на потребителите

13. подчертава колко е важно да се гарантира, че интересите на всички потребители, включително потребители в маргинализирано или уязвимо положение, например хора с увреждания, са надлежно взети предвид и представени в една бъдеща нормативна уредба на ЕС; отбелязва, че за целите на анализа на въздействието на алгоритмичните системи върху потребителите достъпът до данни би могъл да бъде разширен, така че да включва подходящи страни, по-специално независими изследователи, медии и организации на гражданското общество, чрез приложно-програмни интерфейси, когато това е възможно, като същевременно се зачита изцяло законодателството на Съюза в областта на защитата на данните и неприкосновеността на личния живот, както и законодателството в областта на търговската тайна; припомня колко е важно потребителите да се научат да бъдат по-добре информирани и да разполагат с повече умения при използване на алгоритмични системи, за да бъдат защитени от потенциални рискове и да отстояват правата си; счита, че изкуственият интелект, интернет на нещата и други бързо развиващи се технологии имат огромен потенциал да предоставят възможности на потребителите за достъп до подобрения, които ги улесняват в тяхното ежедневие в редица аспекти и създават условия за по-добри продукти и услуги, като същевременно носят ползи за потребителите по отношение на насърчаването на по-добър надзор на пазара, доколкото продължават да действат всички приложими принципи, условия (включително прозрачност и проверимост) и разпоредби;

 

14. подчертава колко е важно да се постигне високо равнище на обща цифрова грамотност и да се обучават висококвалифицирани специалисти в тази област, както и да се гарантира взаимното признаване на тези квалификации в рамките на Съюза; Подчертава, че е необходимо да се разполага с различни екипи от разработчици и инженери, които работят заедно с ключови обществени участници, за да се предотврати непреднамереното включване на пола и културните нагласи в алгоритмите, системите и приложенията с изкуствен интелект; подкрепя създаването на образователни програми и дейности за повишаване на обществената осведоменост относно общественото, правното и етичното въздействие на изкуствения интелект;

 

15. призовава Комисията да насърчава и финансира разработването на изкуствен интелект, роботика и свързани с тях технологии, които са ориентирани към човека и имат за цел преодоляване на предизвикателствата в областта на околната среда и климата и които гарантират еднакъв достъп до и упражняване на основните права чрез използването на фискални, свързани с възлагането на поръчки или други стимули;

 

16. подчертава, че изкуственият интелект и алгоритмичните системи следва да бъдат в съответствие с правните изисквания, стабилни, надеждни и сигурни още на етапа на проектирането; призовава Комисията да гарантира, че регулаторният подход на Съюза към алгоритмичните системи включва подходящи мерки, за да може тези системи да подлежат на независим контрол и надзор;

 

Надзор на пазара

17. призовава за създаването на европейски център за експертни знания и опит, който засилва капацитета на Съюза и се основава във възможно най-голяма степен на съществуващите структури, за да насърчава обмена на информация относно алгоритмични системи между органите на държавите членки и да подпомага създаването на общо разбиране в рамките на единния пазар, като предоставя насоки, становища и експертни знания на органите на държавите членки, следи за прилагането на съответното законодателство на Съюза, предприема действия във връзка с потенциални проблеми в областта на защитата на потребителите, определя стандарти за най-добри практики и когато е приложимо, прави препоръки за регулаторни мерки; освен това призовава тази структура да се консултира по подходящ начин с организациите на заинтересованите лица, например организации за защита на потребителите, за да се гарантира, че потребителите са широко представени; счита, че поради непропорционалното въздействие на алгоритмичните системи върху жените и малцинствата равнищата на вземане на решения на подобна структура следва да бъдат диференцирани и балансирани от гледна точка на половете; подчертава, че държавите членки трябва да разработят стратегии за управление на риска във връзка с изкуствения интелект в контекста на своите национални стратегии за надзор на пазара.

 

18. призовава Комисията да предложи мерки за проследимост на данните, като се има предвид както законността на придобиването на данните, така и защитата на правата на потребителите и на основните права; подчертава в същото време, че наборите от данни, алгоритмите и процесите, използвани при разработването и внедряването на алгоритмични системи, включително тези за събиране на данни и обозначаване на данни, следва да бъдат документирани в съответствие със стандарта в сектора; отбелязва, че е от съществено значение документацията относно оценката на риска, софтуерната документация, алгоритмите и наборите от данни, използвани или генерирани от изкуствен интелект, роботика и свързани с тях технологии, да бъдат достъпни и обясними за органите за надзор на пазара, като се спазват законодателството на Съюза и търговската тайна; освен това отбелязва, че тази документация следва да се съхранява от лицата, които участват в различните етапи на разработване на алгоритмични системи; отбелязва, че на органите за надзор на пазара следва да бъдат предоставени допълнителни правомощия в това отношение; счита, че може да се наложи преразглеждане на действащото законодателство в областта на надзора на пазара, за да се избегне рискът то да престане да отговаря на актуалните условия и да се гарантира, че то е в състояние да отговори от етична гледна точка на бързото развитие на изкуствения интелект, роботиката и свързаните с тях технологии;

 

19. призовава всяка държава членка да определи и да осигури достатъчно финансиране на компетентен национален орган за наблюдение на прилагането на разпоредбите, свързани с алгоритмичните системи; подчертава необходимостта националните органи за надзор на пазара да бъдат укрепени по отношение на капацитета, уменията и компетентностите в областта на изкуствения интелект, както и знанията относно специфичните рискове, свързани с изкуствения интелект;

 

20. призовава за тясна координация между органите на държавите членки и за създаването на Европейски съвет за надзор на пазара на алгоритмични системи, в който участват националните органи, за да се гарантират ефективният надзор и еднакви условия на конкуренция на европейско равнище и да се избегне разпокъсване на вътрешния пазар;

 

21. отбелязва ценните резултати от работата на експертната група на високо равнище по въпросите на изкуствения интелект, и по-конкретно публикацията „Насоки относно етичните аспекти за надежден изкуствен интелект“; предлага тази група, състояща се от представители на академичните среди, гражданското общество и промишлеността, както и на Европейския алианс за изкуствен интелект, да предоставя експертни знания на Европейския съвет за надзора на пазара на алгоритмични системи;

 

22. отбелязва, че системите следва да са ориентирани към потребителя и да са проектирани по начин, който позволява на всички хора да използват продукти или услуги с изкуствен интелект, независимо от своята възраст, пол, способности или особености, по-специално в областите, включващи отношения между предприятия и потребители; отбелязва, че достъпността на тази технология за хората с увреждания е от особено значение; отбелязва, че системите с изкуствен интелект следва да не използват универсален подход и следва да вземат предвид принципите за универсален дизайн, насочени към възможно най-широк кръг от ползватели, като се следват съответните стандарти за достъпност; подчертава, че това ще даде възможност на хората да имат равнопоставен достъп до и да участват активно в съществуващи и нововъзникващи дейности на човека и помощни технологии, за които се използва компютър.

 


ИНФОРМАЦИЯ ОТНОСНО ПРИЕМАНЕТО В ПОДПОМАГАЩАТА КОМИСИЯ

Дата на приемане

7.7.2020

 

 

 

Резултат от окончателното гласуване

+:

–:

0:

39

1

4

Членове, присъствали на окончателното гласуване

Alex Agius Saliba, Andrus Ansip, Alessandra Basso, Brando Benifei, Adam Bielan, Hynek Blaško, Biljana Borzan, Vlad-Marius Botoş, Markus Buchheit, Dita Charanzová, Deirdre Clune, David Cormand, Petra De Sutter, Carlo Fidanza, Evelyne Gebhardt, Alexandra Geese, Sandro Gozi, Maria Grapini, Svenja Hahn, Virginie Joron, Eugen Jurzyca, Arba Kokalari, Marcel Kolaja, Kateřina Konečná, Andrey Kovatchev, Jean-Lin Lacapelle, Maria-Manuel Leitão-Marques, Adriana Maldonado López, Antonius Manders, Beata Mazurek, Leszek Miller, Kris Peeters, Anne-Sophie Pelletier, Christel Schaldemose, Andreas Schwab, Tomislav Sokol, Ivan Štefanec, Kim Van Sparrentak, Marion Walsmann, Marco Zullo

Заместници, присъствали на окончателното гласуване

Pascal Arimont, Maria da Graça Carvalho, Edina Tóth, Stéphanie Yon-Courtin


 

ПОИМЕННО ОКОНЧАТЕЛНО ГЛАСУВАНЕ В ПОДПОМАГАЩАТА КОМИСИЯ

39

+

EPP

S&D

RENEW

GREENS/EFA

ECR

EUL/NGL

NI

Pascal Arimont, Maria da Graça Carvalho, Deirdre Clune, Arba Kokalari, Andrey Kovatchev, Antonius Manders, Kris Peeters, Andreas Schwab, Tomislav Sokol, Ivan Štefanec, Edina Tóth, Marion Walsmann

Alex Agius Saliba, Brando Benifei, Biljana Borzan, Evelyne Gebhardt, Maria Grapini, MariaManuel LeitãoMarques, Adriana Maldonado López, Leszek Miller, Christel Schaldemose

Andrus Ansip, VladMarius Botoş, Dita Charanzová, Sandro Gozi, Svenja Hahn, Stéphanie YonCourtin

David Cormand, Petra De Sutter, Alexandra Geese, Marcel Kolaja, Kimvan Sparrentak

Adam Bielan, Carlo Fidanza, Eugen Jurzyca, Beata Mazurek

Kateřina Konečná, AnneSophie Pelletier

Marco Zullo

 

1

ID

Hynek Blaško

 

4

0

ID

Alessandra Basso, Markus Buchheit, Virginie Joron, JeanLin Lacapelle

 

Легенда на използваните знаци:

+ : Гласове „за“

 : „против“

0 : abstention

 

 


 

 

СТАНОВИЩЕ НА КОМИСИЯТА ПО ТРАНСПОРТ И ТУРИЗЪМ (16.7.2020)

на вниманието на комисията по правни въпроси

с препоръки към Комисията относно рамка за етичните аспекти на изкуствения интелект, роботиката и свързаните с тях технологии

(2020/2012(INL))

Докладчик по становище: Валтер Флего

(*) Процедура с асоциирани комисии – член 57 от Правилника за дейността

 

 

(Право на инициатива – член 47 от Правилника за дейността)

 

 

ПРЕДЛОЖЕНИЯ

Комисията по транспорт и туризъм приканва водещата комисия по правни въпроси да включи в предложението за резолюция, което ще приеме, следните предложения:

А. като има предвид, че изкуственият интелект е форма на технологията, която е от стратегическо значение за транспортния сектор и се очаква да бъде от полза за гражданите и обществото, като подобрява качеството на живот, повишава степента на безопасност на всички видове транспорт и създава нови възможности за заетост и по-устойчиви бизнес модели; като има предвид, че изкуственият интелект има потенциала да преобрази обществото значително, особено ако стане широко наличен и достъпен;

Б. като има предвид, че пълният потенциал на изкуствения интелект в транспортния сектор може да бъде използван само ако ползвателите са наясно с потенциалните ползи и предизвикателства, които носи една такава технология; като има предвид, че е необходимо този въпрос да бъде разгледан в образованието и обучението, включително във връзка с подкрепата за цифровото приобщаване, както и да се провеждат информационни кампании на равнището на Съюза, които дават точна представа за всички аспекти на развитието на изкуствения интелект;

В. като има предвид, че европейският подход към изкуствения интелект, роботиката и свързани с тях технологии трябва да бъде в съответствие с етичните принципи, за да се гарантира, че изкуственият интелект, роботиката и свързани с тях технологии са насочени към човека, подобряват благосъстоянието на хората, благосъстоянието на обществото и околната среда, разглеждат съответните етични дилеми, зачитат напълно основните права, ценности и принципи на Съюза и са в пълно съответствие със законодателството на Съюза в областта на неприкосновеността на личния живот и защитата на данните; като има предвид, че при този подход ще трябва също така да се разглеждат въпроси, свързани с качеството на наборите от данни, използвани в алгоритмични системи, както и самите алгоритми, и стандартите за данни и обобщаване;

Г. като има предвид, че надеждният изкуствен интелект трябва да се основава на четири етични принципа: зачитане на автономността на хората, предотвратяване на вреди, справедливост и обяснимост; като има предвид, че за спазването на тези етични принципи е необходимо приемането на специфични правила за транспортния сектор на Съюза;

Д. като има предвид, че човешката грешка все още е в основата на близо 95% от всички пътни произшествия в Съюза; като има предвид, че Съюзът имаше за цел да намали смъртните случаи на година при пътнотранспортни произшествия в Съюза с 50% до 2020 г. в сравнение с 2010 г., но с оглед на липсата на напредък поднови усилията си в рамката за политиката относно пътната безопасност за периода 2021 – 2030 г. – Следващи стъпки към визия „Нулева смъртност“; като има предвид, че в това отношение изкуственият интелект, автоматизацията и други нови технологии имат голям потенциал и съществено значение за повишаване на пътната безопасност чрез намаляване на възможността от човешка грешка;

Е. като има предвид, че изкуственият интелект, автоматизацията и други нови технологии също могат да допринесат за намаляване на задръстванията и на емисиите на парникови газове и замърсители на въздуха;

Ж. като има предвид, че производството на етично отговорни, ориентирани към човека и издръжливи в технологично отношение изкуствен интелект, роботика и свързани с тях технологии в сектора на транспорта предоставят на предприятията от Съюза, включително МСП, възможност да станат световен лидер в тази област;

З. като има предвид, че тези нови бизнес възможности могат да допринесат за възстановяване на европейската индустрия след настоящата здравна и икономическа криза и за използване в по-голяма степен на технологиите с изкуствен интелект в транспортната индустрия; като има предвид, че тези възможности ще създадат нови работни места, тъй като внедряването на изкуствен интелект и свързаните с него технологии има потенциала да увеличи производителността на предприятията и да допринесе за повишаване на ефективността; като има предвид, че програмите за иновации в тази област могат да спомогнат регионалните клъстъри да процъфтяват;

И. като има предвид, че един такъв европейски подход към разработването на изкуствения интелект, роботиката и свързаните с тях технологии в транспорта има потенциала да повиши световната конкурентоспособност и стратегическата автономност на икономиката на Съюза;

Й. като има предвид, че в сектори като обществения транспорт системите с изкуствен интелект за интелигентни транспортни системи може да се използват за свеждане до минимум на чакането на опашка, оптимизиране на маршрутите, предоставяне на възможност на хората с увреждания да бъдат по-независими, и увеличават енергийната ефективност, като по този начин се увеличават усилията за декарбонизация и намаляване на екологичния отпечатък;

1. изтъква потенциала на използването на изкуствения интелект, роботиката и свързаните с тях технологии за всички автономни средства за автомобилен, железопътен, воден и въздушен транспорт, както и за преминаване към други видове транспорт и интермодалност, тъй като тези технологии могат да допринесат за намиране на оптимално съчетаване на видове транспорт при транспортиране на стоки и пътници; освен това подчертава, че те имат потенциал да направят транспорта, логистиката и транспортните потоци по-ефективни и да направят всички видове транспорт по-безопасни, по-интелигентни и съобразени в по-голяма степен с околната среда; посочва, че един етичен подход към изкуствения интелект може да се разглежда и като система за ранно предупреждение, по-специално по отношение на безопасността и ефективността на транспорта;

2. подчертава факта, че световната конкуренция между предприятията и икономическите региони означава, че е необходимо Съюзът да насърчава инвестициите и да укрепва международната конкурентоспособност на предприятията, осъществяващи дейност в транспортния сектор, като създава благоприятна среда за разработването и прилагането на решения с изкуствен интелект и допълнителни иновации, в която предприятията, установени в Съюза, могат да станат световни лидери в разработването на технологии с изкуствен интелект;

3. подчертава, че транспортният сектор на ЕС се нуждае от актуализация на регулаторната рамка по отношение на тези нововъзникващи технологии и тяхното използване в транспортния сектор, както и от ясна етична рамка за постигане на надежден изкуствен интелект, включително безопасност, сигурност, спазване на автономността на хората, аспектите, свързани с контрола и отговорността, което ще увеличи ползите, споделяни от всички, и ще бъде от ключово значение за стимулирането на инвестициите в научни изследвания и иновации, развитието на умения и възприемането на изкуствения интелект от обществените служби, МСП, стартиращите предприятия и предприятията, като същевременно се гарантира защитата на данните, както и оперативната съвместимост, без да се налага ненужна административна тежест върху предприятията и потребителите; подчертава, че е от решаващо значение да се гарантира, че всяка актуализация на регулаторната рамка относно тези нововъзникващи технологии се основава винаги на реална потребност и е в съответствие с принципа за по-добро регулиране, и в тази връзка:

а) призовава Комисията да предостави ясна рамка от етични принципи за разработването, внедряването и използването на изкуствен интелект, роботика и свързаните с тях технологии в транспортния сектор; изкуственият интелект, роботиката и свързаните с тях технологии в транспортния сектор трябва да се разработват, внедряват и използват в съответствие с тези етични принципи;

б) препоръчва създаването на насоки за хармонизирана класификация на рисковете при технологиите с изкуствен интелект в областта на всички видове транспорт, които да обхващат функциите на превозните средства, възлагани на хора и на изкуствен интелект, и да изясняват отговорностите и изискванията по отношение на безопасността;

в) призовава Комисията да проучи използването на съществуващата европейска структура за надзор на пазара на алгоритмични системи, включително свързаните разпоредби за защита на данните, която издава насоки, становища и предоставя експертен опит на органите на държавите членки, в това число относно оперативната съвместимост;

г) призовава Комисията да създаде схема за класификация на риска на изкуствения интелект за интелигентни транспортни системи в съответствие с оценките на риска на експертната група на високо равнище, за да се отговори по-добре на нововъзникващите нужди на транспортния сектор;

д) призовава Комисията да отдели особено внимание на положението на МСП и да изготви бъдещото законодателство по такъв начин, че възможностите тези предприятия да разработват и използват технология с изкуствен интелект да се подобрят;

е) счита, че е необходимо да се предоставя подробна информация на крайните ползватели относно експлоатацията на транспортните системи и на превозните средства, основани на изкуствен интелект;

4. подчертава, че европейският подход към технологиите в областта на изкуствения интелект следва да запази доверието на хората, да служи на обществения интерес и да укрепва споделената социална отговорност; счита, че разработването на надежден, етично отговорен и стабилен в техническо отношение изкуствен интелект е важен фактор за устойчива и интелигентна мобилност, която е безопасна и достъпна; във връзка с това призовава Комисията да продължава да насърчава възприемането на изкуствения интелект в транспортния сектор и да предложи – с цел да гарантира, че основните права на Съюза се спазват, съответните промени в законодателството на Съюза незабавно и в тясно сътрудничество с всички заинтересовани страни от транспортния сектор;

5. подчертава, че разработването и внедряването на изкуствен интелект дават възможност за безопасни и достъпни транспортни услуги;

6. препоръчва разработването на общи за Съюза сигурни стандарти за изкуствен интелект при всички видове транспорт, в това число за автомобилната промишленост, по отношение на безопасността, оперативната съвместимост, техническата стабилност, възможността за ремонт и рециклиране на съответния хардуеър, включително разглеждане на въпросите, свързани с ресурсната ефективност, неприкосновеността на личния живот, защитата на личните данни и прозрачността, както и стандарти за изпитването на превозните средства, използващи изкуствен интелект, и свързаните с тях продукти и услуги;

7. призовава Комисията да работи в тясно сътрудничество с държавите членки по разработването, внедряването и прилагането на сигурни стандарти за изкуствен интелект в Съюза; отбелязва, че Съюзът има потенциала да стане световен лидер в насърчаването на социално отговорен и устойчив подход към технологията с изкуствен интелект и нейното използване;

8. призовава Комисията да проучи възможността за възлагане на механизмите за наблюдение, изпълнение и налагане на санкции на една или на няколко от съществуващите агенции, институции или органи на равнището на Съюза, и да проучи по какъв начин съществуващите инструменти за надзор и контрол в транспортния сектор могат да бъдат подготвени и да се използват за предприемане на действия, за да се гарантира контрол на равнището на Съюза и да се даде възможност на Комисията да предприема действия, ако дадена система с изкуствен интелект, използвана в транспорта, нарушава основни права или европейската политика в областта на етиката и сигурността;

9. призовава Комисията да продължи да подкрепя разработването на надеждни системи с изкуствен интелект, за да направи транспорта по-сигурен, по-ефикасен, достъпен, финансово достъпен и приобщаващ, включително за лицата с намалена подвижност, особено хората с увреждания, като взема предвид Директива (ЕС) 2019/882 на Европейския парламент и на Съвета[22] и законодателството на Съюза в областта на правата на пътниците;

10. обръща внимание на голямата добавена стойност на автономните превозни средства за хората с намалена подвижност, тъй като те им дават възможност да участват по-ефективно в индивидуалното придвижване по пътищата и по този начин улесняват ежедневието им;

 

11. подчертава значението на достъпността, особено при проектирането на системи от типа „мобилността като услуга“ (MaaS);

 

12. подчертава, че науката за данните е от изключителното значение за проектирането на недискриминиращи системи с изкуствен интелект и за избягване на използването на вредни данни; освен това препоръчва да се следват процедурите за обработване на данни в съответствие с Общия регламент относно защитата на данните и да се спазват принципите на поверителност и недискриминация;

 

13. отбелязва, че системите с изкуствен интелект биха могли да спомогнат за значително намаляване на броя на смъртните случаи, например чрез подобряване на времето за реакция и по-добро спазване на правилата; счита обаче, че ще бъде невъзможно използването на автономни превозни средства да доведе до премахване на всички произшествия и подчертава, че поради това е още по-важно решенията на изкуствения интелект да могат да бъдат обяснявани, за да се обосноват недостатъците и нежеланите последици от решенията на изкуствения интелект;

 

14. счита, че винаги трябва да има възможност за обясняване на крайните ползватели и на други заинтересовани страни на решенията на изкуствения интелект, както и на всички съответни данни, подкрепящи тези решения, на нетехнически език;

 

15. отбелязва, че разработването и внедряването на изкуствен интелект в транспортния сектор няма да бъде възможно без наличието на модерна инфраструктура, която е съществена част от интелигентните транспортни системи; подчертава, че различията, които продължават да съществуват в степента на развитие между държавите членки, създават риск от лишаване на най-слабо развитите региони и техните жители от ползите, произтичащи от развитието на автономната мобилност; призовава за изготвяне на оценка на предизвикателствата, които развитието на технологиите в областта на изкуствения интелект в транспортния сектор поставя в бъдеще пред пазара на труда, както и за предоставяне на подходящо финансиране за модернизиране на инфраструктурата в Съюза, включително нейното интегриране в мрежата 5G.

ИНФОРМАЦИЯ ОТНОСНО ПРИЕМАНЕТО В ПОДПОМАГАЩАТА КОМИСИЯ

Дата на приемане

14.7.2020

 

 

 

Резултат от окончателното гласуване

+:

–:

0:

49

0

0

Членове, присъствали на окончателното гласуване

Magdalena Adamowicz, Andris Ameriks, José Ramón Bauzá Díaz, Izaskun Bilbao Barandica, Marco Campomenosi, Ciarán Cuffe, Jakop G. Dalunde, Johan Danielsson, Andor Deli, Karima Delli, Anna Deparnay-Grunenberg, Ismail Ertug, Gheorghe Falcă, Giuseppe Ferrandino, Mario Furore, Søren Gade, Isabel García Muñoz, Jens Gieseke, Elsi Katainen, Kateřina Konečná, Elena Kountoura, Julie Lechanteux, Bogusław Liberadzki, Benoît Lutgen, Elżbieta Katarzyna Łukacijewska, Marian-Jean Marinescu, Tilly Metz, Giuseppe Milazzo, Cláudia Monteiro de Aguiar, Caroline Nagtegaal, Jan-Christoph Oetjen, Philippe Olivier, Rovana Plumb, Dominique Riquet, Dorien Rookmaker, Massimiliano Salini, Barbara Thaler, István Ujhelyi, Elissavet Vozemberg-Vrionidi, Lucia Vuolo, Roberts Zīle, Kosma Złotowski

Заместници, присъствали на окончателното гласуване

Leila Chaibi, Angel Dzhambazki, Markus Ferber, Carlo Fidanza, Maria Grapini, Roman Haider, Alessandra Moretti

 


ПОИМЕННО ОКОНЧАТЕЛНО ГЛАСУВАНЕ В ПОДПОМАГАЩАТА КОМИСИЯ

49

+

ECR Group

Angel Dzhambazki, Carlo Fidanza, Roberts Zīle, Kosma Złotowski

GUE/NGL Group

Leila Chaibi, Kateřina Konečná, Elena Kountoura

ID Group

Marco Campomenosi, Roman Haider, Julie Lechanteux, Philippe Olivier, Lucia Vuolo

NI

Dorien Rookmaker, Mario Furore,

PPE Group

Magdalena Adamowicz, Andor Deli, Gheorghe Falcă, Markus Ferber, Jens Gieseke, Benoît Lutgen, Marian‑Jean Marinescu, Giuseppe Milazzo, Cláudia Monteiro de Aguiar, Massimiliano Salini, Barbara Thaler, Elissavet Vozemberg‑Vrionidi, Elżbieta Katarzyna Łukacijewska

Renew Group

José Ramón Bauzá Díaz, Izaskun Bilbao Barandica, Søren Gade, Elsi Katainen, Caroline Nagtegaal, Jan‑Christoph Oetjen, Dominique Riquet

S&D Group

Andris Ameriks, Johan Danielsson, Ismail Ertug, Giuseppe Ferrandino, Isabel García Muñoz, Maria Grapini, Bogusław Liberadzki, Alessandra Moretti, Rovana Plumb, István Ujhelyi

Verts/ALE Group

Ciarán Cuffe, Jakop G. Dalunde, Karima Delli, Anna Deparnay‑Grunenberg, Tilly Metz

 

0

-

 

 

 

0

0

 

 

 

Легенда на използваните знаци:

+ : „за“

- : „против“

0 : „въздържал се“


 

 

СТАНОВИЩЕ НА КОМИСИЯТА ПО ГРАЖДАНСКИ СВОБОДИ, ПРАВОСЪДИЕ И ВЪТРЕШНИ РАБОТИ (22.9.2020)

на вниманието на комисията по правни въпроси

с препоръки към Комисията относно рамката за етичните аспекти на изкуствения интелект, роботиката и свързаните с тях технологии

(2020/2012(INL))

Докладчик по становище (*): Асита Канко

(*) Процедура с асоциирани комисии – член 57 от Правилника за дейността

 

 

(Право на инициатива – член 47 от Правилника за дейността)

 

 

ПРЕДЛОЖЕНИЯ

Комисията по граждански свободи, правосъдие и вътрешни работи приканва водещата комисия по правни въпроси да включи в предложението за резолюция, което ще приеме, следните предложения:

 като взе предвид членове 2 и 3 от Договора за Европейския съюз (ДЕС),

 като взе предвид членове 10, 19, 21 и 167 от Договора за функционирането на Европейския съюз (ДФЕС),

 като взе предвид правото на петиция, заложено в членове 20 и 227 от ДФЕС и в член 44 от Хартата на основните права на Европейския съюз,

 като взе предвид членове 21 и 22 от Хартата на основните права на Европейския съюз,

 като взе предвид преамбюла на ДЕС,

 като взе предвид Рамковата конвенция на Съвета на Европа за защита на националните малцинства, Протокол № 12 към Конвенцията за защита на правата на човека и основните свободи и Европейската харта за регионалните или малцинствените езици,

 като взе предвид Директива 2000/43/ЕО на Съвета от 29 юни 2000 г. относно прилагане на принципа на равно третиране на лица без разлика на расата или етническия произход[23] (Директива за равенството между расите),

 като взе предвид Директива 2000/78/EО на Съвета от 27 ноември 2000 г. за създаване на основна рамка за равно третиране в областта на заетостта и професиите[24] (Директивата за равно третиране в областта на заетостта),

 като взе предвид Регламент (ЕС) 2016/679 на Европейския парламент и на Съвета от 27 април 2016 г. относно защитата на физическите лица във връзка с обработването на лични данни и относно свободното движение на такива данни и за отмяна на Директива 95/46/EО (Общ регламент относно защитата на данните)[25] (ОРЗД) и като взе предвид Директива (ЕС) 2016/680 на Европейския парламент и на Съвета от 27 април 2016 г. относно защитата на физическите лица във връзка с обработването на лични данни от компетентните органи за целите на предотвратяването, разследването, разкриването или наказателното преследване на престъпления или изпълнението на наказания и относно свободното движение на такива данни и за отмяна на Рамково решение 2008/977/ПВР на Съвета[26],

 като взе предвид съобщението на Комисията до Европейския парламент, Съвета, Европейския икономически и социален комитет и Комитета на регионите от 11 декември 2019 г., озаглавено „Европейският зелен пакт“,

 като взе предвид своята резолюция от 16 февруари 2017 г., съдържаща препоръки към Комисията относно гражданскоправни норми за роботиката[27],

 като взе предвид препоръката на Съвета на ОИСР относно изкуствения интелект, приета на 22 май 2019 г.,

А. като има предвид, че разработването и проектирането на т.нар. „изкуствен интелект“, роботиката и свързаните с тях технологии се извършва от хора и техният избор определя потенциала на технологиите в полза на обществото;

Б. като има предвид, че алгоритмичната отчетност следва да означава прилагане на технически и оперативни мерки, които гарантират прозрачност, ясно определени вериги на отговорност, недискриминация чрез автоматизирано вземане на решения или изчисляване на вероятностите за поведението на отделните лица; като има предвид, че прозрачността следва да даде на лицата съдържателна информация относно използваната логика, значимостта и предвидените последствия; като има предвид, че това следва да включва информация за данните, използвани за обучението на ИИ, и да позволява на отделните лица да разберат и следят решенията, които ги засягат;

В.  като има предвид, че съществуват сериозни опасения, че действащата правна уредба на ЕС, включително достиженията на правото в областта на защитата на потребителите, на безопасността на продуктите и на надзора на пазара, както и на законодателството в областта на борбата срещу дискриминацията, не винаги е пригодена да се справи ефективно с рисковете, произтичащи от изкуствения интелект, роботиката и свързаните с тях технологии;

Г. като има предвид, че изкуственият интелект, роботиката и свързаните с тях технологии могат да имат сериозни последици върху материалните и нематериалните блага на отделни лица, групи и обществото като цяло и че тези индивидуални и колективни вреди трябва да бъдат отразени в законодателните ответни действия;

Д. като има предвид, че управленските въпроси, свързани с въвеждането на ИИ в публичния сектор, трябва да бъдат надлежно взети под внимание от гледна точка на последиците от него за демокрацията, особено демократичната легитимност, отчетността, съдържателното обществено ангажиране и надзора;

Е. като има предвид, че анализът на данни и ИИ оказват все по-голямо въздействие върху информацията, която е достъпна за гражданите; като има предвид, че ако с подобни технологии се злоупотребява, основното право на получаване на информация, както и свободата и плурализмът на медиите може да бъдат застрашени;

Ж. като има предвид, че етичните насоки – като например принципите, приети от експертната група на високо равнище по въпросите на изкуствения интелект – представляват добра отправна точка, но не са достатъчни, за да се гарантира, че дружествата действат честно и гарантират ефективната защита на отделните лица;

1. подчертава, че гражданите, публичният и частният сектор, академичните среди и научноизследователската общност могат да черпят в пълна степен от перспективите и възможностите на ИИ единствено, когато общественото доверие в тези технологии се гарантира чрез стриктно прилагане на основните права и спазване на действащото законодателство на ЕС за защита на данните, както и правна сигурност за всички участници; подчертава, че обработването на лични данни може да се извърши единствено на някое от правните основания, предвидени в член 6 от Регламент (ЕС) 2016/679; счита, че е от решаващо значение прозрачността и правилното предоставяне на информация на засегнатия кръг от лица да са ключов фактор за изграждането на обществено доверие и за защитата на индивидуалните права;

2. подчертава, че спазването на съществуващото законодателство за защита на данните, наред със силни научни, етични и правни стандарти и методи за демократичен контрол, са от ключово значение за създаването на доверие в решенията в областта на ИИ и за тяхната надеждност; подчертава също, че разкритата чрез ИИ информация не предлага безпристрастен преглед на всеки въпрос и е надеждна само доколкото го позволяват използваните изходни данни; изтъква, че прогнозните анализи въз основа на ИИ могат да покажат единствено статистическата вероятност и поради това не винаги могат да предвиждат точно индивидуалното поведение; във връзка с това подчертава, че сериозните научни, етични и правни стандарти са от жизненоважно значение за управлението на събирането на данни и за оценяването на резултатите от подобни анализи чрез използване на ИИ;

3. счита, че всяка рамка от етични принципи за разработването, внедряването и използването на ИИ, роботиката и свързаните с тях технологии следва да зачита изцяло Хартата на основните права на ЕС, като по този начин се зачитат човешкото достойнство, самостоятелността и самоопределянето на личността, предотвратяват се вреди, насърчава се справедливостта, приобщаването и прозрачността, премахват се предубежденията и дискриминацията, също и на малцинствените групи, и се зачитат и спазват принципите за ограничаване на отрицателните външни страни на използваната технология, обяснимостта на технологиите и гаранцията, че технологиите са там, за да служат на хората, а не да ги заменят или да решават вместо тях, като крайната цел е все по-голямо човешко благоденствие за всички;

4. подчертава асиметрията между тези, които използват технологии с ИИ, и тези, които си взаимодействат с тях и са подложени на тях; подчертава, че доверието на гражданите в ИИ може да се изгради единствено върху рамка за „етичност по подразбиране и по проект“, която гарантира, че всеки пуснат в действие ИИ изцяло зачита и спазва Хартата на основните права на Европейския съюз, правото на Съюза и Договорите; счита, че това следва да съответства на принципа на предпазливост, който направлява законодателството на ЕС, и следва да бъде в основата на всяка рамка за ИИ; във връзка с това призовава за ясен и последователен модел на управление, който да даде възможност на дружествата и новаторите да развиват допълнително изкуствения интелект, роботиката и свързаните с тях технологии;

5. призовава Европейския съюз и държавите членки да насърчават осведомеността на обществеността относно рисковете и възможностите при използването на ИИ като етично изискване;

6. счита, че настоящата правна рамка на Съюза, по-специално относно защитата на неприкосновеността на личния живот и на личните данни, ще трябва да се прилага в пълна степен по отношение на ИИ, роботиката и свързаните с тях технологии и да бъде подложена на редовен преглед и при необходимост да бъде актуализирана, за да може ефективно да се справи с рисковете, породени от изкуствения интелект, роботиката и свързаните с тях технологии, и във връзка с това може да се подобри чрез допълнение със стабилни ръководни етични принципи; посочва, че в случаите, в които би било прибързано да се приемат правни актове, следва да се използва незадължителна правна рамка;

7. очаква от Комисията да включи стабилна етична рамка в предстоящото законодателно предложение като последващо действие във връзка с Бялата книга относно изкуствения интелект, включително във връзка с безопасността, отговорността и основните права, която да увеличава максимално възможностите и да свежда до минимум рисковете от технологиите в областта на ИИ; очаква, че предстоящото законодателно предложение ще включва политически решения на основните признати рискове от изкуствения интелект, включително, наред с другото, във връзка с етичното събиране и използване на големи информационни масиви, въпроса за прозрачността и пристрастността на алгоритмите; призовава Комисията да разработи критерии и показатели за етикетиране на технологиите в областта на ИИ, за да се стимулира прозрачността, обяснимостта и отчетността и да се стимулират допълнителни предпазни мерки от страна на разработчиците; подчертава необходимостта от инвестиране в интегрирането на нетехнически дисциплини пригодени към социалния контекст в проучванията и изследванията в областта на ИИ;

8. припомня, че ИИ, в зависимост от начина, по който се разработва, използва и прилага, има потенциал да създава и да засилва предубежденията, включително чрез вътрешни пристрастия в основните набори от данни, и следователно да създава различни форми на автоматизирана дискриминация, включително непряка дискриминация, по отношение по-специално на групи от хора със сходни характеристики; призовава Комисията и държавите членки да вземат всички възможни мерки, за да се избегнат подобни предубеждения и да се гарантира пълна защита на основните права;

9. отбелязва, че областта на ИИ, роботиката и свързаните с тях технологии е учудващо хомогенна и ѝ липсва многообразие; признава необходимостта да се гарантира, че екипите, които проектират, разработват, изпитват, поддържат, разгръщат и предоставят такива системи, отразяват многообразието на тяхното ползване и на обществото като цяло, за да се гарантира, че в тези технологии неволно няма да бъде „вградена“ пристрастност;

10. счита, че ефективно трансгранично сътрудничество и етични стандарти могат да бъдат постигнати, само ако всички заинтересовани страни се ангажират да гарантират свобода на действие на хората и надзор от тяхна страна, техническа стабилност и безопасност, прозрачност и отчетност, многообразие, недискриминация и справедливост, благосъстоянието на обществото и околната среда и зачитане на установените принципи за неприкосновеност на личния живот и управление и защита на данните, по-специално на залегналите в Регламент (ЕС) 2016/679 (ОРЗД);

11. призовава за основан на риска и насочен към бъдещето подход за регулиране на изкуствения интелект, роботиката и свързаните с тях технологии, включително технологично неутрални стандарти във всички сектори, със специфични за сектора стандарти, когато това е целесъобразно; изразява твърдо убеждение, че за всеки, който възнамерява да разработва или управлява приложения с изкуствен интелект в Съюза, следва да се прилага важаща за целия ЕС работеща етична рамка с цел избягване на разпокъсаност; призовава Съюза да насърчава силно и прозрачно сътрудничество и обмен на знания между публичния и частния сектор за създаване на най-добра практика и за идентифициране на високорискови приложения на ИИ;

12. насърчава корпоративната отговорност в областта на цифровите технологии на доброволна основа; Съюзът следва да подкрепя корпорациите, които по собствен избор използват по етичен начин цифрови технологии и ИИ в рамките на своите дружества; Съюзът следва да насърчава корпорациите да станат проактивни, като създаде платформа за дружествата, за да споделят своя опит в областта на етичната цифровизация, както и като координира действията и стратегиите на участващите дружества;

13. подчертава, че е важно мрежите да бъдат защитени от взаимосвързани ИИ и роботика и че трябва да се предприемат сериозни мерки за предотвратяване на нарушения на сигурността, изтичане на данни, замърсяване на данни, кибератаки и злоупотреба с лични данни и че това ще изисква съответните агенции, органи и институции както на европейско така и на национално равнище да работят заедно и в сътрудничество с крайните потребители на тези технологии; призовава Комисията и държавите членки да гарантират зачитането на европейските ценности и спазването на основните права по всяко време, когато разработват и внедряват технологии в областта на ИИ, за да гарантират сигурността и устойчивостта на цифровата инфраструктура на ЕС;

14. отбелязва в това отношение разпоредбите, предвидени в Регламент 2019/881 на Европейския парламент и на Съвета относно ENISA и Закона за киберсигурността, и по-специално ролята на ENISA за насърчаване на кампании за осведомяване на обществеността и образователни кампании, насочени към крайните потребители, включително относно потенциални киберзаплахи и престъпни дейности онлайн, както и за насърчаване на съществени мерки за защита на данните; признава добавената стойност на тази агенция на ЕС в това отношение;

15. подчертава, че злонамереното използване на ИИ може да изложи на риск ценностите на нашите демокрации и основните права на гражданите на Европейския съюз; призовава Комисията да предложи рамка, която да санкционира тези, които чрез използването на тази технология изкривяват възприемането на реалността чрез кампании за дезинформация или провокират кибератаки с цел нарушаване на цифровата киберсигурност.

16. отбелязва, че ИИ, роботиката и свързаните с тях технологии в областта на правоприлагането и граничния контрол биха могли да подобрят обществената безопасност и сигурност, но също така се нуждаят от всеобхватен и строг обществен контрол и възможно най-високо равнище на прозрачност както по отношение на оценката на риска на отделните приложения, така и от общ надзор по отношение на тяхното използване на ИИ, роботика и свързани с тях технологии в областта на правоприлагането и граничния контрол;  счита, че тези технологии носят значителни етични рискове, които трябва да бъдат обмислени подобаващо, като се отчитат възможните неблагоприятни последици за физическите лица, когато става въпрос, по-специално за техните права на неприкосновеност на личния живот, защита на данните и недискриминация; подчертава, че злоупотребата с тях може да се превърне в пряка заплаха за демокрацията и че внедряването и използването им трябва да зачитат принципите на пропорционалност и необходимост, Хартата на основните права, както и съответното вторично право на Съюза, като например правилата на ЕС за защита на данните; подчертава, че ИИ никога не следва да замества хората при издаването на съдебни решения; решения, които се разглеждат в съд, например за освобождаване под гаранция или условно, или решения, основаващи се единствено на автоматизирано обработване, които произвеждат правно действие по отношение на физически лица или съществено ги засягат, трябва винаги да включват съдържателна оценка и преценка от страна на човек;

17. предупреждава, че поради степента на намеса на решенията и мерките, предприети от правоприлагащите органи – включително чрез обработката на данни и ИИ – в живота и правата на гражданите, е необходима максимална предпазливост, за да се предотврати неправомерна дискриминация и визиране на определени лица или групи лица, определени по раса, цвят на кожата, етнически или социален произход, генетични характеристики, език, религия или убеждения, политически или други мнения, имотно състояние, рождение, увреждане, възраст, пол, изразяване на половата принадлежност или идентичност, сексуална ориентация, статус на пребиваване, здравословно състояние или принадлежност към национално малцинство, което често е предмет на етническо профилиране или на засилени полицейски действия в областта на правоприлагането, както и на лица, които се определят от специфични характеристики; призовава за подходящо обучение на лицата, пряко събиращи данни, и на ползвателите на разузнавателни сведения, получени от ИИ;

18. изтъква, че възможността, предоставяна от тези технологии за използване на лични и нелични данни, за да се категоризират и визират тясно хора, за да се идентифицират уязвимите места на отделните лица или за да се извлича полза от точни предвидими знания, трябва да бъде неутрализирана чрез ефективно наложени принципи за защита на данните и на неприкосновеността на личния живот, като например свеждането на данните до минимум, правото на възражение срещу профилиране и личен контрол над данните, правото на получаване на обяснение за решение, основаващо се на автоматизирана обработка, и защита на неприкосновеността на личния живот още при проектирането, както и чрез принципите на пропорционалност, необходимост и ограничение въз основа на строго определена цел; посочва, че макар някои модели на предвиждащо полицейско наблюдение да са съобразени в по-голяма степен с неприкосновеността на личния живот от други, например когато се правят основани на теорията на вероятностите прогнози за места или събития, а не за отделни лица, системите за полицейско прогнозиране доказано засилват прекомерната полицейска дейност въз основа на съществуваща предубеденост, като например расово профилиране, или мигрантски или работнически произход, дори когато това не съответства на действителното равнище на престъпност;

19. подчертава, че гражданите имат право на доверие в технологията, която използват, и на доверие в технологията, използвана от други; подчертава, че ИИ и роботиката не са непогрешими, и поради това подчертава значението на правото на обяснение, когато лицата се подлагат на алгоритми за вземане на решения, както и необходимостта алгоритмите да бъдат прозрачни, тъй като прозрачността по отношение на основната логика на даден алгоритъм е от голямо значение за засегнатите лица, за да могат основните им права да бъдат напълно защитени; счита, че е необходимо законодателите да обмислят сложния въпрос за отговорността и че отговорността за всички приложения с ИИ следва винаги да се носи от физическо или юридическо лице;

20. подчертава, че изкуственият интелект, роботиката и свързаните с тях технологии са глобални технологии и че тези стандарти трябва да бъдат приети в целия свят, за да се гарантира, че бъдещото им развитие съответства на европейските ценности и етични стандарти; призовава Комисията да се включи в дипломацията относно ИИ в рамките на международните форуми с партньори със сходни възгледи като Съединените щати, Г-7, Г-20 и ОИСР за установяване на общи етични стандарти и насоки за развитие на ИИ, роботиката и свързаните с тях технологии;

21 подчертава, че трябва да бъде въведена ясна рамка за използването на ИИ от страна на платформите на социалните медии, както и изисквания за прозрачност за използваните алгоритми и техните настройки, с цел да се избегне прекомерно премахване на съдържание и всякаква форма на филтриране или цензуриране в интернет;

22 отбелязва, че ИИ може да се използва за манипулиране на лицевите и аудиовизуалните характеристики, наричано често „дълбинни фалшификати“; припомня, че тази техника може да бъде използвана за манипулиране на избори, за разпространение на дезинформация и за други нежелани действия; поради това призовава Комисията да използва своята етична рамка, за да наложи задължение всички материали, представляващи дълбинни фалшификати, или други синтетични видеоматериали, изглеждащи реалистично, да съдържат заявление, че не са оригинални, и да въведе строги ограничения върху използването на такива материали за предизборни цели;

23. предлага да се създаде експертен център, който да обединява на равнището на Съюза академичните среди, научните изследвания, промишлеността и отделни експерти или като неразделна част от Агенцията или асоциирани към нея, с цел насърчаване на обмена на знания и технически експертен опит и улесняване на сътрудничеството в целия ЕС и извън него;

24. припомня значението на езиковото и културното многообразие; поради това призовава Комисията да използва своята етична рамка, за да не позволи ИИ да намалява това разнообразие, а да продължи да предлага достъп до голямо разнообразие на съдържание, което да не застъпва прекомерно един език и/или културен модел, и да осъди всеки опит за въвеждане на алгоритми, които биха ограничили това многообразие и биха предлагали само съдържание, съответстващо на вече съществуващи модели, или които биха могли да действат като „ехо камера“, възпрепятстваща достъпа до повече многообразие;

25. препоръчва на Комисията да покаже, че ясно е преразгледала, оценила и коригирала своя координиран план относно ИИ, за да се справи с тежките последици от изкуствения интелект за основните права и да очертае как тези рискове ще бъдат смекчени чрез законодателния подход на ЕС и в изпълнението на националните стратегии на държавите членки;

 


ИНФОРМАЦИЯ ОТНОСНО ПРИЕМАНЕТО В ПОДПОМАГАЩАТА КОМИСИЯ

Дата на приемане

22.9.2020

 

 

 

Резултат от окончателното гласуване

+:

–:

0:

55

5

7

Членове, присъствали на окончателното гласуване

Magdalena Adamowicz, Malik Azmani, Katarina Barley, Pernando Barrena Arza, Pietro Bartolo, Nicolas Bay, Vladimír Bilčík, Vasile Blaga, Ioan-Rareş Bogdan, Patrick Breyer, Saskia Bricmont, Joachim Stanisław Brudziński, Jorge Buxadé Villalba, Damien Carême, Anna Júlia Donáth, Lena Düpont, Cornelia Ernst, Laura Ferrara, Nicolaus Fest, Jean-Paul Garraud, Maria Grapini, Sylvie Guillaume, Andrzej Halicki, Balázs Hidvéghi, Evin Incir, Sophia in ‘t Veld, Patryk Jaki, Lívia Járóka, Marina Kaljurand, Assita Kanko, Fabienne Keller, Peter Kofod, Moritz Körner, Alice Kuhnke, Jeroen Lenaers, Juan Fernando López Aguilar, Nuno Melo, Roberta Metsola, Nadine Morano, Javier Moreno Sánchez, Maite Pagazaurtundúa, Nicola Procaccini, Paulo Rangel, Diana Riba i Giner, Ralf Seekatz, Michal Šimečka, Birgit Sippel, Sylwia Spurek, Tineke Strik, Ramona Strugariu, Annalisa Tardino, Tomas Tobé, Dragoş Tudorache, Milan Uhrík, Tom Vandendriessche, Bettina Vollath, Jadwiga Wiśniewska, Elena Yoncheva

Заместници, присъствали на окончателното гласуване

Delara Burkhardt, Gwendoline Delbos-Corfield, Kostas Papadakis, Kris Peeters, Anne-Sophie Pelletier, Sira Rego, Rob Rooken, Paul Tang, Tomáš Zdechovský

Заместници (чл. 209, пар. 7), присъствали на окончателното гласуване

Isabel Benjumea Benjumea

 


ПОИМЕННО ОКОНЧАТЕЛНО ГЛАСУВАНЕ В ПОДПОМАГАЩАТА КОМИСИЯ

55

+

EPP

Magdalena Adamowicz, Isabel Benjumea Benjumea, Vladimír Bilčík, Vasile Blaga, Ioan‑Rareş Bogdan, Lena Düpont, Andrzej Halicki, Balázs Hidvéghi, Lívia Járóka, Jeroen Lenaers, Nuno Melo, Roberta Metsola, Nadine Morano, Kris Peeters, Paulo Rangel, Ralf Seekatz, Tomas Tobé, Tomáš Zdechovský

S&D

Katarina Barley, Pietro Bartolo, Delara Burkhardt, Maria Grapini, Sylvie Guillaume, Evin Incir, Marina Kaljurand, Juan Fernando López Aguilar, Javier Moreno Sánchez, Birgit Sippel, Sylwia Spurek, Paul Tang, Bettina Vollath, Elena Yoncheva

RENEW

Malik Azmani, Anna Júlia Donáth, Sophia In 'T Veld, Fabienne Keller, Moritz Körner, Maite Pagazaurtundúa, Michal Šimečka, Ramona Strugariu, Dragoş Tudorache

ID

Peter Kofod

GREENS/EFA

Patrick Breyer, Saskia Bricmont, Damien Carême, Gwendoline Delbos-Corfield, Alice Kuhnke, Diana Riba I Giner, Tineke Strik

ECR

Joachim Stanisław Brudziński, Jorge Buxadé Villalba, Assita Kanko, Nicola Procaccini, Jadwiga Wiśniewska

NI

Laura Ferrara

 

5

-

EUL/NGL

Pernando Barrena Arza, Cornelia Ernst, Anne-Sophie Pelletier, Sira Rego

NI

Kostas Papadakis

 

7

0

ID

Nicolas Bay, Nicolaus Fest, Jean-Paul Garraud, Annalisa Tardino, Tom Vandendriessche

ECR

Rob Rooken

NI

Milan Uhrík

 

Легенда на използваните знаци:

+ : „за“

- : „против“

0 : „въздържал се“

 

 

 


 

 

СТАНОВИЩЕ НА КОМИСИЯТА ПО ЗАЕТОСТ И СОЦИАЛНИ ВЪПРОСИ (7.9.2020)

на вниманието на комисията по правни въпроси

с препоръки към Комисията относно рамка за етичните аспекти на изкуствения интелект, роботиката и свързаните с тях технологии

(2020/2012(INL))

Докладчик по становище: Лина Галвес Муньос

(Право на инициатива – член 47 от Правилника за дейността)

 

 

 

ПРЕДЛОЖЕНИЯ

Комисията по заетост и социални въпроси приканва водещата комисия по правни въпроси да включи в предложението за резолюция, което ще приеме, следните предложения:

А. като има предвид, че прилагането на изкуствения интелект (ИИ), роботиката и свързаните с тях технологии в ежедневието и на работното място непрекъснато се увеличава, като по този начин трансформира в значителна степен настоящите социалноикономически структури; като има предвид, че ИИ следва да бъде от полза за гражданите и обществото, като подобрява качеството на живот, създава нови възможности за заетост и повишава конкурентоспособността на Съюза; като има предвид, че ИИ е съществена част от цифровата икономика и има потенциала да насърчи просперитета и да улесни прехода към устойчива икономика, ако се използва добре;

Б. като има предвид, че наименованието „ИИ“ се използва за системи, които показват интелигентно поведение, като анализират своята среда и, с известна степен на самостоятелност, предприемат действия за постигане на конкретни цели; като има предвид, че базираните на ИИ системи могат да бъдат изцяло софтуерни – действащи във виртуалния свят, например под формата на гласови асистенти, софтуер за анализ на изображения, търсачки, системи за разпознаване на глас и лица, а могат и да бъдат внедрени в хардуерни устройства, например под формата на усъвършенствани роботи, автономни автомобили, дронове или приложения за интернет на предметите[28];

В. като има предвид, че ИИ представлява стратегически приоритет, чийто пълен потенциал може да бъде използван само ако ползвателите и потребителите са наясно с потенциалните ползи и предизвикателства, които той носи; като има предвид, че предприятията, както и работниците и техните представители често нито познават приложенията с ИИ, нито свързаните с тях функции и данни; като има предвид, че има случаи на приложения с ИИ, които нарушават съществуващите регламенти, като например в областта на защитата на данните;

Г. като има предвид, че ИИ потенциално предлага икономически и обществени ползи, както и нови възможности за предприятията и работниците, като същевременно поражда редица етични, правни и свързани със заетостта предизвикателства; като има предвид, че прилагането на ИИ на работното място може да допринесе за приобщаващи пазари на труда и да окаже въздействие върху здравословните и безопасни условия на труд, като същевременно може да се използва и за наблюдение, оценяване, предвиждане и насочване на резултатите на работниците с преки и непреки последици за техните кариери; като има предвид, че ИИ следва да има положително въздействие върху условията на труд и да се ръководи от зачитането на правата на човека, както и от основните права и ценности на Съюза; като има предвид, че ИИ следва да бъде ориентиран към човека, да повишава благосъстоянието на хората и обществото и да допринася за равноправен и справедлив преход;

Д. като има предвид, че ИИ оказва значително въздействие върху пазара на труда[29]; като има предвид, че той може потенциално да замени работниците, които извършват повтарящи се дейности, да улесни съвместните системи за работа човек-машина, да повиши конкурентоспособността и просперитета и да създаде нови възможности за работа за квалифицираните работници; като има предвид, че характерът на заетостта се променя бързо и според прогнозите 65% от днешните деца ще бъдат заети в изцяло нови видове работа, както и че съществува необходимост от преквалификация и повишаване на квалификацията на работниците, по-специално по отношение на цифровите умения, за да се гарантира, че никой няма да бъде забравен и че има достатъчно предлагане на специализирана работна сила[30];

Е. като има предвид, че по данни на Европейския център за развитие на професионалното обучение (CEDEFOP) около 43% от възрастните работници в Съюза са се сблъсквали с нови технологии на работното си място; като има предвид, че около седем от всеки десет работници в Съюза се нуждаят от поне умерени цифрови умения, за да вършат работата си[31]; като има предвид, че средно около една четвърт от гражданите на ЕС нямат цифрови умения или цифровите им умения са на ниско ниво; като има предвид, че цифровото разделение има специфични социално-икономически, полови, възрастови, географски и свързани с достъпността аспекти, които трябва да бъдат разгледани; като има предвид, че 42% от работниците в предприятия, които прилагат ИИ в своите бизнес процеси, считат, че подобни дейности водят до етични въпроси, които трябва да бъдат решени; като има предвид, че 28% от работодателите считат, че прилагането на ИИ не се е развило в пълния си мащаб поради липсата на етични правила по този въпрос[32];

Ж. като има предвид, че пандемията от COVID-19 подчерта значението на цифровите решения, в т.ч. дистанционната работа, както и техните технически и социални последици; като има предвид, че на равнището на Съюза няма общи разпоредби относно прилагането на ИИ на работното място, което би могло да доведе до нарушения на пазара и неблагоприятно положение от гледна точка на конкуренцията; като има предвид, че ИИ следва да бъде предмет на подходяща регулаторна рамка;

З. като има предвид, че ОИСР изготви препоръки относно ИИ[33];

И. като има предвид, че Съветът на Европейския съюз насърчава популяризирането на етичен и ориентиран към човека подход спрямо ИИ[34];

Й. като има предвид, че социалните партньори на равнището на Съюза са сключили рамково споразумение относно цифровизацията, което, наред с другото, включва глава относно „Изкуствен интелект и гарантиране на принципа на „човешкия контрол“[35];

К. като има предвид, че държавите членки вече са създали специални органи за наблюдение и оценяване на въздействието на ИИ на работното място;

Л. като има предвид, че усилията за преодоляване на предубежденията по отношение на пола и неравенството в цифровия сектор са недостатъчни; като има предвид, че във всички сфери на цифровите технологии, и по-специално свързаните с ИИ, продължава да съществува неравнопоставеност между половете, което затвърждава базираната на мъжка гледна точка траектория на цифровия сектор в обозримото бъдеще;

1. подчертава необходимостта от извършване на задълбочена оценка на възможностите и предизвикателствата, които приложенията с ИИ пораждат в частните и публичните предприятия, както и в публичната администрация по отношение на работните места и работниците, включително въздействието им върху баланса между професионалния и личния живот, организацията на работата и работните процеси; счита, че е крайно необходимо социалният диалог да не се пренебрегва, а работниците и техните представители да бъдат консултирани и да получават достатъчно информация от самото начало на процеса на вземане на решения; подчертава, че внедряването на ИИ трябва да бъде прозрачно и че системите с ИИ на работното място трябва да зачитат неприкосновеността на личния живот и достойнството на работниците;

2. отбелязва, че преди разработването, внедряването и прилагането на системите с ИИ следва да се извърши всеобхватна оценка на риска, при която се оценява въздействието на ИИ върху основните права и условията на труд, включително от гледна точка на здравословните и безопасни условия на труд, както и социалните последици от него; оценките следва да обхващат рисковете, свързани с вземането на решения от хората и със социалната дискриминация, както и оценяването на възникващите професионални рискове;

3. посочва, че решенията на основата на ИИ имат потенциала да подобрят условията на труд и качеството на живот, което включва по-добър баланс между професионалния и личния живот и по-добра достъпност за хората с увреждания, да предвидят развитието на пазара на труда и да подпомогнат управлението на човешките ресурси по отношение на предотвратяването на човешките предубеждения, но могат също така да породят безпокойства относно неприкосновеността на личния живот и здравословните и безопасни условия на труд, като например правото на откъсване от работната атмосфера, и да доведат до непропорционално и незаконно наблюдение на работниците в нарушение на тяхното достойнство и неприкосновеността на личния им живот, както и до дискриминационно отношение, включително в процедурите за набиране на персонал, поради пристрастни алгоритми, в т.ч. основани на полови или расови и етнически предубеждения алгоритми[36] и на алгоритми, които са в ущърб на уязвими групи; освен това изразява загриженост, че ИИ може да подкопае свободата и автономността на хората и да допринесе за проблеми с психичното здраве на работниците, като например прегаряне, стрес от технологиите, психологично претоварване и изтощение; подчертава, че основаните на ИИ решения на работното място трябва да бъдат прозрачни и справедливи и да избягват всякакви отрицателни последици за работниците;

4. подчертава, че компетентните органи следва да имат достъп до цялата информация относно данните, използвани за обучение, статистическите модели и теоретичните принципи, свързани с решенията на основата на ИИ, както и емпиричната валидност на резултатите от тях;

5. счита, че ИИ може да спомогне за по-доброто използване на уменията и компетентностите на хората с увреждания и че прилагането на ИИ на работното място може да допринесе за приобщаващи пазари на труда и по-високи равнища на заетост за хората с увреждания;

6. подчертава, че новите технологични възможности, като например ИИ, и оценяването на ефективността на работата не трябва да водят до нееднакви в технологично отношение възможности и дехуманизирано цифрово бъдеще; подчертава, че етиката на иновациите трябва да следва хуманистичен подход;

7. счита, че ползвателите, в т.ч. работниците, и потребителите следва задължително да бъдат уведомявани, когато дадена система използва ИИ, особено по отношение на персонализирани продукти или услуги, и да получават съдържателна информация в лесноразбираема и достъпна форма относно всички етични аспекти на приложенията с ИИ, които ги касаят, за да вземат информирани решения; подчертава, че е важно да се разбере как алгоритмите обработват и оценяват данните и как това може да се ограничи или прекрати; подчертава необходимостта от развитие на компетентностите чрез обучение и образование на работниците и техните представители относно ИИ на работното място с цел по-добро разбиране на последиците от решенията на основата на ИИ;

8. подчертава, че кандидатите и работниците трябва да бъдат надлежно информирани в писмена форма, когато се използва ИИ в хода на процедурите за набиране на персонал и други решения във връзка с човешките ресурси, както и за това как в този случай може да се изиска преглед от човек с цел отмяна на автоматизирано решение;

9. подчертава необходимостта да се гарантира, че повишаването на производителността в резултат на развитието и използването на ИИ и роботиката носи ползи не само за собствениците и акционерите на предприятията, но и за предприятията и работната сила чрез по-добри условия на труд и заетост, включително заплати, икономически растеж и развитие, и също така е в услуга на обществото като цяло, особено когато това повишаване е за сметка на работните места; призовава държавите членки да проучат внимателно потенциалното въздействие на ИИ върху пазара на труда и системите за социална сигурност и да разработят стратегии за гарантиране на дългосрочна стабилност чрез реформиране на данъците и вноските, както и други мерки в случай на по-малки публични приходи;

10. подчертава значението на корпоративните инвестиции във формално и неформално обучение и учене през целия живот с цел подпомагане на справедливия преход към цифрова икономика; в този контекст подчертава, че предприятията, които внедряват ИИ, имат отговорността да осигурят подходяща преквалификация и повишаване на квалификацията на всички засегнати служители, за да се научат как да използват цифрови инструменти и да работят с роботи за съвместна работа (коботи) и други нови технологии, като по този начин се адаптират към променящите се нужди на пазара на труда и останат на работа;

11. призовава за прилагане на принципа на предпазливост по отношение на новите технологии, основани на ИИ; подчертава основния принцип, че хората трябва винаги да имат контрол върху машините и ИИ и че взетите от ИИ решения трябва да подлежат на отчетност и оспорване и по целесъобразност да бъдат обратими; подчертава, че стандартите за безопасност и сигурност за ИИ трябва да бъдат зачитани, и изтъква значението на редовните проверки в тази връзка с цел предотвратяване на погрешни резултати от ИИ; припомня, че отговорността по отношение на използването на ИИ трябва да бъде ясно определена, както в случай на трудови злополуки, така и при вреди, причинени на трети страни;

12. подчертава, че ИИ трябва да бъде ориентиран към човека, прозрачен, безопасен и сигурен и да съответства на основните права и приложимите закони и регламенти, включително Общия регламент относно защитата на данните (ОРЗД), през целия жизнен цикъл на системата, особено когато е внедрен на работното място; призовава за разработването на надеждна система за сертифициране, основана на процедури за изпитване и ръководена от принципа на предпазливост, която би позволила на предприятията да докажат, че техните продукти с ИИ съответстват на основните права и стандартите на Съюза;

13. припомня, че достиженията на правото на Съюза в областта на заетостта и социалната сфера се прилагат изцяло за ИИ, и призовава Комисията и държавите членки да гарантират правилното прилагане и да отстранят евентуалните законодателни пропуски; отбелязва, че Съюзът може да се превърне в световен лидер в насърчаването на социално отговорно използване на ИИ;

14. подчертава важността на общия европейски подход по отношение на етичните аспекти на ИИ; подчертава, че всяка регулаторна рамка в тази връзка трябва да бъде адекватна и да се основава на цялостна оценка на въздействието, за да се избегне възпрепятстването на бъдещите иновации и създаването на работни места; в този контекст призовава за европейска регулаторна рамка относно етичните аспекти на ИИ, която е пропорционална и поставя специален акцент върху сферата на труда, включително правата на работниците и условията на труд; счита, че следва да се обърне специално внимание на новите форми на работа, като например работата по отделни заявки и работата на платформи, произтичащи от прилагането на новите технологии в този контекст; счита, че една законодателна рамка, която има за цел да регламентира условията за дистанционна работа в целия Съюз и да гарантира достойни условия на труд и заетост в цифровата икономика, трябва също така да взема предвид въздействието на ИИ; призовава Комисията да се консултира в това отношение със социалните партньори, разработчиците, изследователите и други заинтересовани страни;

15. подчертава, че ИИ и всяко свързано с него законодателство не трябва да засягат по никакъв начин упражняването на основните права, признати в държавите членки и на равнището на Съюза, включително правото или свободата на стачкуване или предприемане на други действия, обхванати от специфичните системи на колективни трудови правоотношения в държавите членки в съответствие с националното право и/или практика, или да засягат правото на договаряне, на сключване или на изпълняване на колективни споразумения, или на предприемане на колективни действия в съответствие с националното право и/или практика;

16. подчертава, че трябва да се обърне специално внимание на данните, събирани на работното място с помощта на ИИ, особено ако те се използват за решения във връзка с човешките ресурси; призовава социалните партньори на равнище предприятия да анализират и наблюдават съвместно внедряването на ИИ; призовава Комисията и социалните партньори да анализират необходимостта от специални разпоредби за защита на данните на работното място в контекста на ИИ; подчертава, че работниците са собственици на данните си, дори след края на трудовото правоотношение;

17. счита, че с новата европейска програма за умения трябва да се преодолеят предизвикателствата, свързани с адаптирането и придобиването на квалификации и знания, с оглед на екологичния и цифровия преход, включително етичните аспекти на ИИ; подчертава необходимостта етичните аспекти на ИИ и развитието на умения за етични цели да станат неразделна част от всяка образователна и учебна програма за разработчиците и хората, работещи с ИИ; припомня, че разработчиците, програмистите, лицата, отговорни за вземането на решения, и предприятията, които се занимават с ИИ, трябва да осъзнават своята етична отговорност; счита също така, че е важно да се гарантира, че крайните ползватели и потребители получават изчерпателна информация и че има редовен обмен между всички съответни заинтересовани страни в това отношение;

18. отново подчертава значението на образованието и непрекъснатото учене за развитие на необходимите в цифровата ера квалификации и за справяне с цифровото изключване; призовава държавите членки да инвестират във висококачествено, отзивчиво и приобщаващо образование, професионално обучение и системи за учене през целия живот, както и в политики за преквалификация и повишаване на квалификацията на работниците в сектори, които са потенциално сериозно засегнати от ИИ; подчертава необходимостта да се осигурят на настоящата и бъдещата работна сила необходимите езикова и математическа грамотност и цифрови умения, както и компетентност в сферата на науките, технологиите, инженерството и математиката (STEM) и междусекторни меки умения, като например критично мислене, творчество и предприемачество; подчертава, че в това отношение трябва да се обърне специално внимание на приобщаването на групите в неравностойно положение;

19. подчертава, че ИИ не трябва да изостря неравенствата между половете и стереотипите по отношение на пола, като превръща посредством алгоритми аналоговите предубеждения и предразсъдъци в цифрови;

20. подчертава необходимостта да се гарантира, че хората от различен произход, включително жените, младите хора, цветнокожите хора и хората с увреждания, са включени в разработването, внедряването и използването на ИИ; припомня, че основаните на ИИ технологии на работното място трябва да бъдат достъпни за всички въз основа на принципа за универсален дизайн;

21. посочва, че достъпът до решения на основата на ИИ е тясно свързан с достъпа до високоскоростен интернет и следователно покритието с широколентов достъп следва да бъде приоритет, за да се избегнат дискриминацията и неравният достъп до тези технологии;

22. отбелязва, че възможностите за решения на основата на ИИ разчитат на големи информационни масиви, като е необходима критична маса от данни за обучение на алгоритмите и прецизиране на резултатите; приветства в тази връзка предложението на Комисията за създаване на общо пространство на данни в Съюза, за да се засили обменът на данни и да се подпомогнат научните изследвания при пълно зачитане на европейските правила за защита на данните.

 


ИНФОРМАЦИЯ ОТНОСНО ПРИЕМАНЕТО В ПОДПОМАГАЩАТА КОМИСИЯ

Дата на приемане

7.9.2020

 

 

 

Резултат от окончателното гласуване

+:

–:

0:

46

6

1

Членове, присъствали на окончателното гласуване

Atidzhe Alieva-Veli, Abir Al-Sahlani, Marc Angel, Dominique Bilde, Gabriele Bischoff, Vilija Blinkevičiūtė, Andrea Bocskor, Milan Brglez, Sylvie Brunet, David Casa, Leila Chaibi, Margarita de la Pisa Carrión, Özlem Demirel, Klára Dobrev, Jarosław Duda, Estrella Durá Ferrandis, Lucia Ďuriš Nicholsonová, Rosa Estaràs Ferragut, Nicolaus Fest, Loucas Fourlas, Cindy Franssen, Heléne Fritzon, Elisabetta Gualmini, France Jamet, Agnes Jongerius, Radan Kanev, Ádám Kósa, Stelios Kympouropoulos, Katrin Langensiepen, Miriam Lexmann, Elena Lizzi, Radka Maxová, Kira Marie Peter-Hansen, Dragoș Pîslaru, Manuel Pizarro, Dennis Radtke, Elżbieta Rafalska, Guido Reil, Daniela Rondinelli, Mounir Satouri, Monica Semedo, Beata Szydło, Eugen Tomac, Romana Tomc, Yana Toom, Marie-Pierre Vedrenne, Nikolaj Villumsen, Marianne Vind, Maria Walsh, Stefania Zambelli, Tomáš Zdechovský

Заместници, присъствали на окончателното гласуване

Lina Gálvez Muñoz, Eugenia Rodríguez Palop

 


 

ПОИМЕННО ОКОНЧАТЕЛНО ГЛАСУВАНЕ В ПОДПОМАГАЩАТА КОМИСИЯ

46

+

ECR

Lucia Ďuriš Nicholsonová, Elżbieta Rafalska, Beata Szydło, Margarita de la Pisa Carrión

GUE/NGL

Leila Chaibi, Özlem Demirel, Eugenia Rodríguez Palop, Nikolaj Villumsen

NI

Daniela Rondinelli

PPE

Andrea Bocskor, David Casa, Jarosław Duda, Rosa Estaràs Ferragut, Loucas Fourlas, Cindy Franssen, Radan Kanev, Ádám Kósa, Stelios Kympouropoulos, Miriam Lexmann, Dennis Radtke, Eugen Tomac, Romana Tomc, Maria Walsh, Tomáš Zdechovský

Renew

Abir Al‑Sahlani, Atidzhe Alieva‑Veli, Sylvie Brunet, Dragoș Pîslaru, Monica Semedo, Yana Toom, Marie‑Pierre Vedrenne

S&D

Marc Angel, Gabriele Bischoff, Vilija Blinkevičiūtė, Milan Brglez, Klára Dobrev, Estrella Durá Ferrandis, Heléne Fritzon, Lina Gálvez Muñoz, Elisabetta Gualmini, Agnes Jongerius, Manuel Pizarro, Marianne Vind

Verts/ALE

Katrin Langensiepen, Kira Marie Peter‑Hansen, Mounir Satouri

 

6

-

ID

Dominique Bilde, Nicolaus Fest, France Jamet, Elena Lizzi, Guido Reil, Stefania Zambelli

 

1

0

Renew

Radka Maxová

 

Легенда на използваните знаци:

+ : „за“

-  „против“

0 :  „въздържал се“

 

 

 


 

 

СТАНОВИЩЕ НА КОМИСИЯТА ПО ОКОЛНА СРЕДА, ОБЩЕСТВЕНО ЗДРАВЕ И БЕЗОПАСНОСТ НА ХРАНИТЕ (16.9.2020)

на вниманието на комисията по правни въпроси

с препоръки към Комисията относно рамка за етичните аспекти на изкуствения интелект, роботиката и свързаните с тях технологии

(2020/2012(INL))

Докладчик по становище: Адам Ярубас (Право на инициатива – член 47 от Правилника за дейността)

 

 

ПРЕДЛОЖЕНИЯ

Комисията по околна среда, обществено здраве и безопасност на храните приканва водещата комисия по правни въпроси:

 да включи следните предложения в предложението за резолюция, което ще приеме:

А. като има предвид, че Съюзът се основава на ценностите, посочени в член 2 от Договора за Европейския съюз, и на спазването на принципа на предпазните мерки, посочен в член 191, параграф 2 от Договора за функционирането на Европейския съюз;

Б. като има предвид, че член 16 от ДФЕС гласи, че всеки има право на защита на личните си данни; като има предвид, че член 22 от Регламент (ЕС) 2016/679 на Европейския парламент и на Съвета[37] се отнася до ситуацията, в която данните се използват само при автоматизирано обработване, и признава правото на субекта на данните да не бъде обект на решение, основаващо се единствено на автоматизирано обработване;

В. като има предвид, че глобалната конкуренция за лидерство в развитието на изкуствен интелект (ИИ), която ще повлияе на източника на етичните ценности и стандарти, оформящи сектора в световен мащаб, набира скорост и Европейският съюз следва да даде пример за останалия свят с подходяща нормативна уредба, също така с цел да предотврати потенциална надпревара за достигане на най-ниски равнища на националните нормативни уредби;

Г. като има предвид, че глобалната конкуренция не следва да бъде отделяна от етичните ценности и стандарти;

Д.  като има предвид, че бързият напредък в изследванията и иновациите породи редица важни етични, правни и социални въпроси, които се отразяват на връзката между науката и обществото; като има предвид, че тези изследвания и иновации трябва да съответстват на етичните принципи и съответното национално, европейско и международно законодателство, включително Хартата на основните права на Европейския съюз и Европейската конвенция за защита на правата на човека и основните свободи, съгласно разпоредбите на европейските изследователски програми;

Е. като има предвид, че интегрирането на технологии за големи информационни масиви и ИИ в системите за обществено здравеопазване и други сектори трябва да бъде придружено от подходящи правила, стандарти и законодателство, които защитават основните права на хората и разглеждат тези нови етични предизвикателства;

Ж. като има предвид, че понастоящем има видима разлика по отношение на инвестициите и патентите между Съюза и други части на света;

З. като има предвид, че ИИ и други нововъзникващи цифрови решения могат да са от полза за обществото в областта на екологичния преход и опазването на околната среда и биологичното разнообразие, повишавайки ефективността на селското стопанство, управлението на отпадъците, кръговата икономика, смекчаването на последиците от изменението на климата и адаптирането към него, екологизирането на различни промишлени процеси, енергийното и транспортното управление и ефективност, качеството на водата и въздуха (например интелигентни мрежи и електромобилност), управлението на риска и наблюдението на Земята, в което, наред с другото, програмата „Коперник“ на Съюза е една от най-добрите;

И. като има предвид, че ИИ може да се прилага в почти всяка област на медицината: биомедицинските изследвания, пример за което е откритият с помощта на ИИ антибиотик Халицин или приносът на ИИ за профилактиката на раковите заболявания, по-ранното и по-точното им диагностициране и новите терапии за тях с методи като предикативна или геномна медицина, медицинското образование, подпомагането на лицата, полагащи грижи, подкрепата за грижата за възрастните хора, наблюдението на състоянието на пациентите, по-ефективното разработване на лекарства, по-целенасоченото лечение, вземането на клинични решения, персонализираната медицина, психиатричната диагностика и лечение, революционизирането на роботизираните протези и помощни системи, телемедицината, телехирургията и засилването на цялостната ефективност и оперативна съвместимост на здравните системи;

Й.  като има предвид, че цифровият напредък изисква подходящо обучение и подготовка на здравните и административните служители с цел предотвратяване на цифровото разделение, като същевременни се имат предвид застаряващите ни общества и потенциалните предизвикателства за здравните системи;

К. като има предвид, че съществуват сериозни етични опасения относно автономността на машините;

Л. като има предвид, че цифровото здравеопазване не следва да лишава здравните грижи от човешки облик и да омаловажава отношенията между лекарите и пациентите, а да оказва съдействие на лекарите за по-ефективното диагностициране и/или лечение на пациентите;

М. като има предвид, че технологията с ИИ ще ускори цифровата трансформация на промишлеността и ще играе ключова роля за успеха на цифровата икономика в един все по-взаимосвързан свят;

Н. като има предвид, че в настоящата правна рамка на Съюза и етични насоки за ИИ вече са разгледани някои етични предизвикателства във връзка с приложенията на ИИ, които са посочени в Бялата книга на Комисията за изкуствения интелект, например процесите за оценка на риска за основаните на ИИ здравни решения в единния пазар; като има предвид, че други области изостават от етичните предизвикателства, които трябва да бъдат идентифицирани и смекчени, тъй като ИИ има огромен капацитет да застраши предпочитанията, безопасността и неприкосновеността на личния живот на пациентите; като има предвид, че трябва да се очертаят границите между ролите на медицинските и здравните специалисти и машините при грижите за пациентите, включително принципа на контролирана автономност на роботите, и че е необходимо образоване както на здравните работници, така и на пациентите;

О. като има предвид, че правилата на Съюза за защита на данните следва да бъдат адаптирани, за да се вземе предвид нарастващата сложност и взаимосвързаност на роботите за грижи и медицинските роботи, които могат да бъдат използвани за управление на високо чувствителни лични и медицински данни и следва да бъдат приведени в съответствие с принципа за интегрирана защита на неприкосновеността на личния живот, както е установено с Регламент (ЕС) 2016/679 относно защитата на данните;

П. като има предвид, че решенията, при които се поставя акцент върху необходимостта от включване на научните изследвания като основа за стратегиите за развитие чрез създаване на регистри на медицински данни (например неврологични и кардиологични данни) и споделяне на данни от тези изследвания, могат да доведат до осезаеми социални ползи в контекста на общественото здраве и безопасност;

Р. като има предвид, че решенията с използване на ИИ могат да са от полза за обществото в областта на безопасността на храните, като, наред с другото, намалят употребата на пестициди, подкрепят прецизното земеделие, или в по-общ план селското стопанство 2.0, където Съюзът е сред лидерите в приложенията на ИИ (например за автоматизирани машинни настройки за прогнозиране на времето или идентифициране на заболявания), което ще позволи да се комбинира по-ефективно производство с по-високи екологични стандарти и по-добро използване на ресурсите, особено в райони, в които водните ресурси са ограничени и изменението на климата оказва сериозно въздействие, в съответствие с приоритетите на Зеления пакт;

С. като има предвид, че обхватът на тази рамка следва да бъде адекватен, пропорционален и задълбочено оценен; като има предвид, че тя следва да покрива широк спектър от технологии и техните компоненти, включително алгоритми, софтуер и данни, използвани или генерирани от ИИ; като има предвид, че е необходим целенасочен подход, основан на концепцията за висок риск, за да се избегне възпрепятстване на бъдещите иновации в предоставянето на ползи за гражданите от приложенията на ИИ, например в здравеопазването, опазването на околната среда и качеството на храните;

Т. като има предвид, че е от съществено значение да се открият ефективни начини за гарантиране на надеждни цифрови технологии, като се създаде възможност за извличане на ползите от тях и същевременно се защитят основните права и се насърчи развитието на неформални, отворени, толерантни и справедливи общества; като има предвид, че това е от особено значение при хибридните системи за човешки/изкуствен интелект;

У. като има предвид, че при роботизираните машини се губи границата между човешки субекти и технологични обекти; като има предвид, че те не само имат последици за обществото, които трябва да бъдат оценени от етична гледна точка, но също така поставят под въпрос дори етичните рамки, въз основа на които трябва да бъдат оценени; като има предвид, че както се посочва в доклада на Световната комисия по етика в научното познание и технологии (COMEST), следва да се обърне специално внимание на използването на медицински роботи, роботи медицински сестри, роботи за грижи за възрастни хора и роботи придружители;

Ф. като има предвид, че използването на социални роботи и роботи придружители бързо се разпространява в областта на здравните грижи, и по-специално грижите за възрастни хора; като има предвид, че роботите за грижи за възрастни хора и роботите придружители могат да заемат функционална и емоционална роля; като има предвид, че тези роботи могат да играят роля за намаляването на самотата на възрастните хора, предотвратяването на поведение, свързано с деменция, стимулирането на познавателните дейности на пациент, страдащ от невродегенеративно заболяване, или извършването на определени ежедневни задачи, които са трудни за изпълнение от възрастните хора; като има предвид, че по този начин роботите придружители могат да провокират лъжливи, илюзорни и нереципрочни чувства, като увличат и вдетиняват възрастните хора;

Х. като има предвид, че роботите придружители може все по-често да бъдат използвани за сексуални цели; като има предвид, че използването за сексуални цели на роботи с детски облик или роботи, програмирани с цел злоупотреба, има особено тревожни етични последици;

Правна и етична рамка за ИИ:

1. подчертава, че Съюзът трябва да предприеме всички необходими мерки, за да гарантира, че изразените в достиженията на правото му етични ценности се прилагат ефективно към всички области на ИИ на територията му, и за да популяризира стандартите си в световен мащаб; в това отношение подчертава, че технологичното развитие в областта на ИИ трябва да бъде винаги в полза на човечеството;

2. подчертава, че Съюзът трябва да предприеме всички необходими стъпки за засилване на доверието на обществото в разработването и прилагането на ИИ, роботиката и свързаните с тях технологии, предвид значителното въздействие, което тези технологии могат да имат върху гражданите; призовава Комисията да спазва етичните насоки относно надежден ИИ и да предложи адекватни мерки, за да гарантира, че тези технологии не генерират несправедливо предубедени резултати за гражданите;

3. подчертава, че основаната на закона екосистема на доверие към ИИ в Съюза, независимо дали се отнася до приложения в областта на опазването на околната среда, здравеопазването или безопасността на храните, разширена от етичната рамка на Съюза за ИИ, ще засили правната сигурност и предсказуемостта, ще насърчи участието на заинтересованите страни, ще увеличи обема на поверените данни и пазарната реализация, ще даде възможност за икономии от мащаба и ще подкрепи екосистема на високи постижения в тези сектори; счита, че това ще засили глобалната конкурентоспособност на сектора на ИИ на Съюза и потенциала за популяризиране на ценностите и стандартите на Съюза;

4. отбелязва, че поради факта, че правните разпоредби отговарят по-добре на настоящите добре определени предизвикателства, и предвид бързия развой на ИИ, който води до несигурност за предстоящото, наличието на обща, добре правно обвързана и приложима етична рамка на Съюза за ИИ ще разшири екосистемата на доверие за всички заинтересовани страни, както е определено в Бялата книга на Комисията, по-специално за приложенията в областта на опазването на околната среда или общественото здраве, създаването на по-здравословна среда, подобряването на ресурсите и услугите в областта на здравеопазването или безопасността на храните, като по този начин ще се подкрепи екосистемата за високи постижения в областта на правната сигурност и предсказуемост и ще се даде ефективен отговор на предизвикателствата, които все още не са определени в съдебни зали, на срещи на ръководството или в научни лаборатории;

5. отбелязва, че определението за ИИ изисква допълнителна работа; следователно подчертава значението на ориентирания към човека подход и на редовните прегледи на напредъка на ИИ и етичната рамка, за да се насърчи проактивното регулиране и за да се гарантира неговата приложимост във времето и спрямо новите разработки; подчертава, че има много нива на риск, които се развиват с течение на времето чрез напредъка на технологиите с ИИ; подчертава необходимостта от пропорционална законодателна рамка, която следва да се развива съобразно скоростта на технологичния напредък; посочва, че програмата „Коперник“ може да послужи като пример за най-добра практика при разработването на големи висококачествени набори от данни като входни данни в моделите на ИИ;

6. подчертава необходимостта от регулаторна рамка, определяща етичните принципи, които да бъдат прилагани при проектирането, разработването, въвеждането и функционирането на тази технология – от достъпа на данни до стриктния мониторинг на резултатите;

7. подчертава, че трябва да се намери балансиран подход към регулирането, като на първо място се гарантира, че ценностите ни не са компрометирани, и същевременно се избягва създаването на ненужна административна тежест, особено за МСП и стартиращите предприятия; подчертава в това отношение, че глобалната конкуренция в областта на ИИ невинаги следва същите етични принципи като Съюза; подчертава, че ИИ и свързаните с него технологии не следва да се оставят само на „леко“ саморегулиране; счита, че е изключително важно да се изиска пропорционална и подкрепяща законодателна рамка на Съюза; посочва, че много трети държави работят върху свои етични рамки и че има множество предложения на глобално равнище; осъзнава, че основната трудност по отношение на етичните принципи може да се състои в прилагането им, а не в тяхното съществуване;

8. подкрепя становището, че седемте изисквания за ИИ, посочени в Етичните насоки за надежден изкуствен интелект на експертната група на високо равнище по въпросите на изкуствения интелект, представляват солидни градивни елементи за обща етична рамка на Съюза за ИИ, с подходящо правно обвързване, която разглежда, наред с другото, етичните аспекти на приложенията на ИИ в областта на околната среда, здравеопазването и защитата на храните; призовава за подобряване на достиженията на правото на ЕС по отношение на прозрачността, проследимостта и човешкия надзор, които бяха посочени като нуждаещи се от по-нататъшно подобряване области в обратната информация, предоставена във връзка с насоките от 350 организации; освен това насърчава създаването на етична рамка на Съюза за ИИ в дух на откритост към работата на други международни партньори, които споделят ценностите на Съюза, например ООН, Съветът на Европа с неговите „Насоки за изкуствения интелект и защитата на данните“ от 2019 г.[38], Европейската етична харта за използване на изкуствения интелект в съдебните системи и работата на центъра му за юридически изследвания, ad hoc комитетът по изкуствен интелект (CAHAI), Принципите за ИИ[39], подписани от членовете на ОИСР през май 2019 г., Декларацията на министрите на Г-20 от 2019 г. относно търговията и цифровата икономика, в чието приложение се съдържат принципите за ИИ, и Глобалната инициатива на IEEE за етика на автономните и интелигентните системи[40];

9.  решително подкрепя Комисията при създаването на обща етична рамка на Съюза за ИИ с цел да се преодолеят недостатъците вследствие на разпокъсаността на вътрешния пазар на ИИ, в т.ч. изследванията, иновациите и експертния опит при приложенията в областта на околната среда, общественото здраве, здравеопазването и безопасността на храните, и с цел да се предотвратят двойните стандарти за ИИ в държавите членки за разработения в Съюза и извън него ИИ, наред с другото, в области като управлението на данните на потребителите, защитата и неприкосновеността на личния живот в интелигентните мрежи, управлението на отпадъците, равния достъп до услуги и технологии, стандартите за отношенията между лекарите и пациентите, законодателството относно защитата на данните и неприкосновеността на личния живот, включително взаимодействието им с изследователски дейности и разработване на лекарства, гражданската отговорност в областта на общественото здравеопазване с помощта на ИИ, гражданската отговорност във връзка с автономните превозни средства или машини; отбелязва, че на национално равнище законодателството на държавите членки не съдържа хармонизирани правила за отговорността, които са приложими за щети или вреди, които биха могли да настъпят в резултат от цифрови и поведенчески технологии; призовава за подходящо правно обвързване и позициониране на такава етична рамка на Съюза за ИИ;

10. във връзка с това припомня, че в резолюцията на Европейския парламент от 16 февруари 2017 г. относно гражданскоправни норми за роботиката[41] беше поискано Комисията да обмисли създаването на Европейска агенция за изкуствен интелект, която да гарантира, наред с другото, хармонизиран подход в целия Съюз, да разработи общи критерии и процес на кандидатстване, свързани с издаването на европейски сертификат за етично съответствие, и да разглежда новите възможности и предизвикателства, по-специално тези от трансгранично естество, произтичащи от текущите технологични промени; изисква от Комисията да обмисли дали съществуващите органи и институции на Съюза са достатъчни за тези задачи или трябва да се създаде нов орган за изкуствения интелект;

11. счита, че за всички приложения на ИИ, разработени в Съюза и извън него, трябва да бъде осигурена същата степен на защита в Съюза както за всички други технологии, в т.ч. ефективна съдебна защита за страните, които са засегнати отрицателно от системите с ИИ, като същевременно трябва да бъде позволено технологичните иновации да продължат да се развиват; освен това счита, че тази рискова зона на ИИ е от решаващо значение, например за здравните услуги, за транспорта, включващ автономни превозни средства, и за безопасността на храните; призовава за ясно разпределение на задълженията, правата и отговорностите между икономическите оператори, участващи в доставката на приложения на ИИ, за приписване на всяко задължение на участника/участниците, който/които е/са най-подходящ(и) за справяне с всички потенциални рискове, независимо дали това е разработчикът, внедрителят, производителят, дистрибуторът или вносителят, доставчикът на услуги, или професионалният или частният потребител, и в тази връзка призовава за адекватно преразглеждане на съответното законодателство на ЕС, например на Директивата за отговорността за продуктите, и за хармонизиране на националното законодателство; подкрепя позицията на Комисията, изразена в Бялата книга, че поради сложността на системите с ИИ осигуряването на ефективно ниво на правна защита може да изисква адаптиране на тежестта на доказване, изисквана от националните правила относно отговорността за вреди, причинени от работата на приложения на ИИ; счита, че яснотата по отношение на правната отговорност в сектора на ИИ ще засили прилагането на етичните ценности на Съюза, включени в достиженията на правото на ЕС, правната сигурност и предсказуемост и социалното приемане, подкрепяйки развитието на екосистемата на Съюза за високи постижения в областта на ИИ чрез обединяване на инвеститори и увеличаване на пазарната реализация;

12. подчертава, че много от предложенията от държави, които не са членки на Съюза, и от международни организации са съсредоточени около общи принципи или концепции за ИИ, а именно: ориентираност към човека, надеждност, зачитане на човешката автономност, предотвратяване на вреди, справедливост и „никой да не бъде изоставен“, както и обяснимост; счита, че една международна етична рамка около тези принципи би била изключително желателна; изразява загриженост, че напредъкът и иновациите в областта на ИИ водят до социално неравенство, ако не бъдат предприети действия; следователно призовава Комисията и държавите членки да предприемат необходимите мерки, така че „никой да не бъде изоставен“ в прехода към цифрова Европа, и да гарантират справедлив, финансово приемлив и равен достъп до тези иновации, особено в области като здравеопазването;

13. препоръчва да се допълни основаният на риск подход с оценка на въздействието на алгоритмите, черпеща информация, например, от анализа на регулаторното въздействие, процедурата за оценка на риска по ОРЗД и оценката на въздействието върху правата на човека, и резултатите да бъдат достъпни публично;

14. приветства факта, че методологията за основан на риска подход, определена в Бялата книга на Комисията от 19 февруари 2020 г.[42], признава секторите на здравеопазването, транспорта и енергетиката за високорискови сектори по подразбиране, като въвежда изброените изисквания за ИИ извън съществуващите правила на Съюза в тези сектори, освен ако начинът на използване на ИИ не предполага значителен риск; подчертава, че етичната рамка на Съюза за ИИ следва да разглежда по-специално горепосочените високорискови сектори;

15. призовава за ясни, обективни и прозрачни процедури на равнището на Съюза за създаването на публичен каталог за високорискови приложения на ИИ, включващ механизъм за периодичен преглед и актуализация; призовава да се обмисли възможността тежестта на доказване в такива процедури за всички приложения на ИИ във всички области да се постави върху субекта, който иска да разработи или внедри системата с ИИ, за да се запази каталогът отворен за иновации и да се избегне игнорирането на риска от класифициране на приложения на ИИ като невисокорискови;

16. счита, че има риск от предубеждения и дискриминация при разработването, внедряването и използването на високорисков изкуствен интелект, роботика и свързани с тях технологии, включително софтуер, алгоритми и данни, използвани или генерирани от такива технологии; припомня, че при всички обстоятелства тези технологии следва да зачитат човешкото достойнство и да гарантират равно третиране на всички; счита, че такива възможни предубеждения биха могли да бъдат преодолени чрез определяне на правила за обработването на данни и създаване на подходящи предпазни мерки срещу предубежденията и дискриминацията въз основа на социални, икономически, етнически, расови, сексуални, полови, свързани с увреждания или други фактори; предупреждава за потенциална злоупотреба с приложения на ИИ за диагностика и призовава за предпазни мерки във връзка с капацитета и мотивацията на ИИ;

17 приветства инициативата за доброволно етикетиране на ИИ, който не е високорисков;

18. препоръчва предприемането на мерки за насърчаване на участието на всички заинтересовани страни по отношение на етиката в областта на ИИ от частния сектор, потребителските групи и академичните среди с цел формулиране на етичен кодекс, съобразен с технологичното, социалното и политическото развитие;

19. припомня, че за да вземат решения, роботите използват алгоритми, които включват ценности и етични рамки, както и че тяхното въвеждане има важни етични последици за здравеопазването и социалните отношения; изразява особена загриженост относно използването на роботи придружители за целите на педофилия и сексуално насилие; счита, че етичните съображения следва да се вземат предвид при проектирането на роботизирани технологии; призовава в процеса на разработване на тези машини да се отдели място на етиката, въз основа на подход тип етично проектиране (value-sensitive design), по-специално по отношение на роботите за грижи за възрастни хора и роботите придружители; подчертава, че този подход следва също така да бъде адаптиран, за да се вземе предвид хуманното отношение към животните;

20. подчертава, че в допълнение към ясните регулаторни изисквания относно отчетността и отговорността е необходимо да се гарантира и алгоритмична прозрачност, така че да е възможно да се проследи моментът, в който „нещата са се объркали“, и да се даде възможност за навременната намеса на експерти; счита, че алгоритмичната прозрачност е от решаващо значение за предотвратяването на ситуации, при които вземането на медицински решения се извършва в условията на „черна кутия“; подчертава, че алгоритмите от типа „черна кутия“, които вземат необясними решения, са неприемливи в който и да е сектор, но в контекст, където вземането на решения от ИИ оказва въздействие върху решения, които касаят живота и смъртта, последствията от алгоритмичен провал могат да бъдат сериозни; призовава Комисията и държавите членки да започнат диалог с ключовите заинтересовани страни в областта на медицината, информационните технологии, математиката, физиката, технологиите за медицински данни, клиничната психология, биоинженерството и фармацевтиката, за да създадат платформи за изграждане на диалог и да оценят въздействието върху отношенията между лекарите и пациентите и дехуманизацията на медицинските грижи;

21. призовава за ръководни инициативи на Съюза за насърчаване на интерпретируеми алгоритми, „обясним“ ИИ, ИИ със символично мислене и техники за тестване на ИИ от типа „бяла кутия“, като се покаже, че тези технологии могат да бъдат комбинирани с дълбоки невронни мрежи, и като се покажат техните правни, етични и често бизнес предимства, и също така за насърчаване на методи за определяне на рисковете, свързани с различните технологични опции, като се използва, наред с другото, опитът на Службата на комисаря по информация на Обединеното кралство и насоките на Института Алън Тюринг „Обясняване на решенията, взети с ИИ“, които показват, че дори изключително сложните невронни системи с ИИ могат да бъдат интерпретирани в достатъчна степен;

22. призовава да се гарантира прозрачност, отговорност, проверимост, предсказуемост и отчетност, тъй като гражданите, пациентите и ползвателите следва да бъдат информирани при взаимодействие със система, която използва изкуствен интелект, чрез ясни и разбираеми обяснения на използваните данни, функционирането на алгоритъма, както и нейните цел, резултати и потенциални опасности; подчертава, че прозрачността и обяснимостта са от съществено значение за осигуряването на доверие в тези технологии; счита, че обяснението следва да бъде допълнено от проверимост и проследимост, тъй като спазването на такива принципи е начин за гарантиране на отчетността; посочва, че приложенията на ИИ могат да превъзхождат хората при тясно специфични задачи, но да не са успешни при общ анализ; призовава за човешки надзор, професионална отговорност и предсказуемост на системата, с възможност за отмяна на системата с ИИ;

23. счита, че всяко физическо или юридическо лице следва да може да търси правна защита за решение, издадено в негова вреда от високорисков ИИ, роботика или свързана с тях технология, и че всяко взето от ИИ решение следва да подлежи на строга човешка проверка и справедлив процес; предлага да се въведат предпазни мерки във връзка с използването на високорисков изкуствен интелект, роботика и свързани с тях технологии в рамките на решенията на публичната власт, включително периодична оценка и евентуален преглед на регулаторната рамка, за да бъде в крак с технологичното развитие, както и да се установят задължителни насоки за методологията на оценката на съответствието, които трябва да се следват от националните надзорни органи, и незадължителни насоки, насочени към разработчиците, внедрителите и ползвателите;

24. приветства една европейска стратегия за данните, която разглежда предстоящите предизвикателства за Съюза в тази ключова за напредъка на ИИ област и търси европейски възможности за конкурентно предимство в новата икономика, основана на данни, особено в разрастващия се сектор на децентрализираните нелични данни, идващи от промишлеността, бизнеса и публичния сектор и от устройствата по периферията на мрежата, които се очаква да съставляват 80% от 175 зетабайта през 2025 г. и да обърнат настоящите съотношения;

25. призовава за осигуряване на достатъчно финансиране за произтичащата от ИИ трансформация в Съюза; подкрепя амбициите, изложени в Бялата книга на Комисията, за привличането на 200 милиарда евро публични и частни инвестиции в областта на ИИ през следващите 10 години в Съюза; приветства вниманието, което се обръща на дефицитите на екосистемите на ИИ в по-слабо развитите региони и нуждите на МСП и стартиращите предприятия; призовава Комисията да идентифицира дефицитите в публичната инфраструктура и да насърчи финансирането за ИИ в областта на смекчаването на последиците от изменението на климата и адаптирането към него, енергията от възобновяеми източници и здравеопазването, както и да улесни географски балансирания достъп до цялото финансиране за ИИ, включително за МСП и стартиращите предприятия; подчертава, че новите цели на Съюза не трябва да отслабват ангажираността на Съюза в дългосрочните му приоритети, като например ОСП, политиката на сближаване, Зеления пакт и плана за възстановяване от COVID-19 Next Generation EU;

26 призовава Комисията да насърчава и финансира разработването на изкуствен интелект, роботика и свързани с тях технологии, които са ориентирани към човека и имат за цел преодоляване на предизвикателствата в областта на околната среда и климата и които гарантират еднакъв достъп до и упражняване на основните права чрез използването на данъци, екологосъобразни обществени поръчки или други стимули;

Въглероден отпечатък на ИИ:

27. отбелязва, че в пакета за цифровите услуги, публикуван на 19 февруари 2020 г., Комисията заявява, че днес на ИКТ се дължат между 5% и 9% от глобалното потребление на електроенергия и 2% от емисиите на CO2 и че обемът на прехвърлените и съхраняваните данни ще продължи да нараства експоненциално в предстоящите години и трябва да се намерят решения в тази връзка; отбелязва освен това, че в проучването на Съвместния изследователски център от 2018 г. на тема „Изкуствен интелект/Европейска перспектива“ се изчислява, че центровете за данни и предаването на данни биха могли да представляват 3 – 4% от цялото потребление на енергия в Съюза;

28. приветства факта, че европейската цифрова стратегия предлага мерки за екологична трансформация на цифровите сектори;

29. подчертава, че въпреки настоящия голям въглероден отпечатък на самото задълбочено учене и ИИ, тези технологии могат да допринесат за намаляването на настоящия екологичен отпечатък на сектора на ИКТ и развитието на ИИ, роботиката, автоматизираните решения и машинното самообучение; подчертава, че тези и други подходящо регулирани технологии следва да бъдат критични фактори за постигането на целите на Зеления пакт, целите на ООН за устойчиво развитие и Парижкото споразумение в много различни сектори и следва да засилят въздействието на политиките за опазване на околната среда, например по отношение на намаляването на отпадъците и влошаването на състоянието на околната среда;

30. призовава Комисията да извърши проучване относно въздействието на въглеродния отпечатък на технологията с ИИ и относно положителните и отрицателните въздействия от прехода към използването на технология с ИИ за потребителите;

31. отбелязва, че предвид нарастващото разработване на приложения на ИИ, които изискват изчислителни ресурси, ресурси за съхранение и енергийни ресурси, въздействието на системите с ИИ върху околната среда следва да бъде разглеждано през целия им жизнен цикъл;

Въздействие на ИИ върху сектора на здравеопазването и правата на пациентите:

32. признава основната роля, която ИИ може да играе по отношение на здравето, и подчертава, че приложенията на ИИ в здравеопазването винаги следва да целят максимално увеличение на възможностите, които могат да създадат, като например подобряване на здравето на отделните пациенти, както и на резултатността на системите за обществено здравеопазване на държавите членки, без да се занижават етичните стандарти и без да се застрашава неприкосновеността на личния живот или безопасността на гражданите;

33. приветства ангажимента на Комисията, изразен в Бялата книга, да изследва свързаните с безопасността и отговорността предизвикателства, които са характерни за здравеопазването, например системи с ИИ, предоставящи специализирана медицинска информация на лекарите или директно на пациента, и системи с ИИ, които сами изпълняват медицински задачи директно върху пациент; призовава да се извърши съответно проучване на останалите изброени сектори, които по подразбиране са високорискови;

34. счита, че в области като здравеопазването крайната отговорност трябва да се носи от физическо или юридическо лице; подчертава необходимостта от проследими и публично достъпни данни за обучение за алгоритмите;

35. призовава Комисията да инициира провеждането на открит и прозрачен секторен диалог, като отдаде приоритет на здравните грижи, за да може по-късно да представи план за действие с цел улесняване на разработването, тестването и въвеждането на ИИ в областта на изследванията и иновациите и широкото му приложение в обществените здравни услуги;

36. предупреждава срещу опитите за придаване на машините на някакъв вид „личностна индивидуалност“, което може да доведе до премахване на човешката отговорност в случай на грешки при лечението;

37. решително подкрепя създаването на предложеното от Комисията европейско пространство за здравните данни[43], което има за цел насърчаване на обмена на здравни данни и подпомагане на научните изследвания при пълно зачитане на защитата на данните, включително обработването на данните с технология с ИИ, и което засилва и разширява използването и повторното използване на здравните данни; призовава за увеличаване на трансграничния обмен на здравни данни, тяхната връзка и използване чрез сигурни федерирани хранилища, специфични видове здравна информация, като например европейски здравни досиета, геномна информация и цифрови здравни изображения, с цел да се улеснят оперативно съвместимите регистри или бази данни в целия Съюз в области като изследвания, наука и здравеопазване;

38. подчертава, че пациентите следва да знаят кога и как взаимодействат със специалист-човек и кога не; настоява пациентите да имат свободен избор относно това взаимодействие и да им бъде предложена алтернатива с равностоен стандарт;

39. счита, че, особено в сектора на здравеопазването, мобилните приложения могат да спомогнат за следенето на заболяванията и че е полезно да присъстват роботи като помощни фигури в работата на лекарите и лицата, полагащи здравни грижи, с оглед на подобряването на диагностицирането и лечението, като същевременно се гарантира, че медицинската практика и тази на грижите за пациентите не се дехуманизират;

40. призовава за стандартизирана в рамките на Съюза оперативна съвместимост на приложенията за електронно здравеопазване и за създаването на общ европейски достъп до данните за рецепти, диагнози и медицински доклади, които да бъдат лесно достъпни за всички граждани на Съюза и във всички държави членки;

41. отново заявява, че възможностите и рисковете, присъщи на тези технологии, имат глобално измерение, което изисква последователен хармонизиран подход на международно равнище; призовава Комисията да работи в рамките на двустранни и многостранни форуми с цел насърчаване и гарантиране на наличието на етично съответствие;

42. подчертава ползите от ИИ за профилактиката, лечението и контрола на заболяванията, пример за което е фактът, че ИИ прогнозира епидемията от COVID-19 преди СЗО; настоятелно призовава Комисията да предостави на Европейския център за профилактика и контрол върху заболяванията (ECDC) правната рамка и ресурсите за независимо събиране на необходимите анонимизирани здравни данни в реално време и в сътрудничество с държавите членки, за да се справи, наред с другото, с проблемите, които се проявиха при пандемията от COVID-19;

43. посочва, че използването на технологии за установяване и проследяване на контактни лица от публичните органи по време на пандемията от COVID-19 и други потенциални извънредни ситуации от здравен характер може да противоречи на защитата на данните; във връзка с това припомня съобщението на Комисията от 17 април 2020 г. относно насоките за мобилните приложения, които подпомагат борбата с пандемията от COVID-19, във връзка със защитата на данните[44], и необходимостта от пропорционалност, ограничаване във времето, привеждане в съответствие с европейските ценности и зачитане на човешкото достойнство и основните права;

44. счита, че ИИ и роботиката могат да осигурят значителни подобрения в контрола на медицинските изделия и да улеснят ежедневната работа на здравните специалисти; счита, че за критичните медицински изделия трябва да има резервна система за наблюдение и осигуряване на функционалността на изделието във всяка възможна ситуация на намеса и че трябва да се вземат предвид и смекчат евентуалните киберзаплахи във връзка с контрола над такива изделия; подчертава, че освен от хакери и външни заплахи, киберзаплахите могат да произтичат и от човешки грешки или системни грешки и че е необходимо да има създадени и функциониращи адекватни резервни системи; освен това счита, че Съюзът следва да създаде пътна карта за разработване на резервен ИИ за справяне с възможните проблеми при грешка на контрола на системите с ИИ;

45. посочва, че стандартите за безопасност, определени в Регламент (ЕС) 2017/745 на Европейския парламент и на Съвета[45], може да не са достатъчни за справяне с предизвикателствата, произтичащи от системите с ИИ; призовава Комисията да следи предизвикателствата в тази област и да представя предложения при необходимост;

46. подчертава необходимостта да се гарантира, че управляваните от ИИ медицински изделия отговарят на изискванията за безопасност и ефективност на Регламент (ЕС) 2017/745; призовава Комисията и държавите членки да гарантират, че Регламент (ЕС) 2017/745 се прилага по отношение на тези технологии; счита, че са необходими нови насоки и спецификации за оценката на безопасността и ефективността на софтуера и изделията с ИИ и задълбочено учене през целия цикъл на използване;

47. призовава за осигуряване на по-ясна правна компетентност и достатъчно финансиране за EMA и националните компетентни органи, които отговарят за лекарствата, за да се подпомогнат иновациите и аспектите на общественото здравеопазване, свързани с ИИ по време на жизнения цикъл на лекарствата, по-специално с цел събиране и анализ на здравни данни в реалния свят, които могат да генерират допълнителни доказателства за лекарствените продукти с цел подпомагане на научноизследователската и развойна дейност и оптимизиране на безопасната и ефективна употреба на съществуващите лекарства в интерес на пациентите и на европейските здравни системи;

48. настоява, че нито застрахователните дружества, нито другите видове доставчици на услуги следва да могат да използват данните за електронно здравеопазване, за да въвеждат дискриминация при определянето на цените, тъй като това би противоречало на основното право на достъп до най-високото възможно ниво на здравеопазване;

ИИ и защита на данните:

49.  приветства наскоро публикувания от Комисията преглед[46] на Регламент (ЕС) 2016/679 и отбелязва, че законодателствата на държавите членки следват различни подходи при въвеждането на дерогации от общата забрана за обработване на специални категории лични данни както по отношение на равнището на конкретизиране, така и по отношение на гаранциите, включително за целите на здравеопазването; следователно заявява, че в крайна сметка хората следва да поемат отговорността за вземането на решения, особено в сектори, където има големи залози и рискове, като например здравето;

50. приветства намерението на Комисията да наблюдава прилагането на Регламент (ЕС) 2016/679 по отношение на новите технологии, включително при евентуални бъдещи инициативи в областта на изкуствения интелект и съгласно Стратегията за данните, и подкрепя призива на Комисията към Европейския комитет по защита на данните да издаде насоки относно прилагането на Регламент (ЕС) 2016/679 в областта на научните изследвания, изкуствения интелект, блок-веригите и други възможни технологични разработки;

51. призовава за овластяване на гражданите и пациентите по отношение на техните лични данни с цел гарантиране на пълното прилагане и еднаквото тълкуване на правната рамка на Съюза относно защитата на данните и неприкосновеността на личния живот, особено в приложенията на ИИ в областта на здравеопазването и други свързани чувствителни данни, за да се спази изцяло правото „да бъдеш забравен“, предвидено в член 17 от Регламент (ЕС) 2016/679, и за да се укрепи „правото на получаване на обяснение“, предвидено в член 22 от Регламент (ЕС) 2016/679, както и по-високи изисквания за тълкуване за високорисковия ИИ;

52. подчертава, че етичната рамка относно ИИ следва да включва правото на получаване на обяснение за решение, основаващо се на автоматизирано обработване, за лицата, които са обект на такива решения;

53. призовава за намиране на правилния баланс между неприкосновеността на личния живот и защитата на данните и ползата от данните; счита, че за научния прогрес е важно да се осигури възможността за достатъчно задълбочено и подробно споделяне и обработване на здравни данни; призовава за гарантиране на анонимността на данните, като същевременно се избягва прекомерното им минимализиране; призовава за оперативно съвместими, подходящи бази данни, регистри и хранилища на равнището на Съюза, за да се улесни използването на здравни данни в секторите на здравеопазването, околната среда и безопасността на храните;

54. подчертава необходимостта да се гарантира защитата на здравните данни и данните, принадлежащи на уязвими групи, и посочва, че доколкото приложенията на ИИ обработват здравни данни въз основа на съгласието на субекта на данните, условията, предвидени в член 7 от Регламент (ЕС) 2016/679, трябва да бъдат изпълнени;

55. подчертава, че генерираните данни не следва по никакъв начин да допринасят за каквато и да е дискриминация; призовава за гаранции, че събирането и достъпността на данните винаги са в съответствие с правната рамка на Съюза;

56. посочва, че рискът от злонамерени промени и манипулации на данните, както и от възможни хакерски атаки или кражба на данни, може да бъде особено сериозен в сектора на здравеопазването и може да бъде използван за причиняване на вреда, дискредитиране или получаване на печалба от отделни лица; подчертава, че за съответните мрежи следва да бъдат установени най-високите стандарти за киберсигурност;

Въздействие на ИИ върху трудовата и социалната среда:

57. посочва, че в етичната рамка на ОИСР се вземат предвид сътресенията на пазара на труда; подчертава, че автоматизацията, в съчетание с ИИ, ще увеличи производителността и следователно ще увеличи производството; посочва, че както и при предишните технологични революции, някои работни места ще бъдат заменени; подчертава, че увеличеното използване на роботиката и ИИ би трябвало също така да намали излагането на човека на вредни и опасни условия на труд и да спомогне за създаването на повече качествени и достойни работни места и подобряването на производителността; припомня работата на ОИСР, която подчертава, че автоматизацията може да позволи на обществото да избере да намали броя на отработените часове, като по този начин се подобрят условията на живот и здравето на работниците;

58. обръща внимание в по-широк смисъл на препоръките на ОИСР, с които се отправя призив към правителствата да работят в тясно сътрудничество със заинтересованите страни за насърчаване на отговорното използване на ИИ на работното място, подобряване на безопасността на работниците и качеството на работните места и гарантиране, че ползите от ИИ се споделят широко и справедливо; подчертава в този контекст, че наличието на различни екипи от разработчици и инженери, които работят заедно с основните участници, може да допринесе за предотвратяването на полови и културни предубеждения и за гарантирането на зачитането на физическото и психическото благосъстояние на работниците в алгоритмите, системите и приложенията на ИИ;

59. подчертава, че разработването на приложения на ИИ може да намали разходите и да увеличи обема на наличните услуги, например здравните услуги, обществения транспорт, селското стопанство 2.0, като ги направи финансово по-достъпни за по-широк спектър от обществото; подчертава, че приложенията на ИИ може също така да доведат до увеличаване на безработицата, натиск върху системите за социални грижи и увеличаване на бедността; подчертава, в съответствие с ценностите, залегнали в член 3 от Договора за Европейския съюз, необходимостта от адаптиране на произтичащата от ИИ трансформация в Съюза към социално-икономическия капацитет, адекватна социална защита, образование и създаване на алтернативни работни места; призовава да се обмисли създаването на Фонд за приспособяване към ИИ в Съюза, надграждащ опита на Европейския фонд за приспособяване към глобализацията (ЕФПГ) или разработвания понастоящем Фонд за справедлив преход;

60. подчертава също така важността на социалния диалог с цел осигуряване на справедлив и приобщаващ преход за работниците към повлияната от ИИ нова работна действителност и необходимостта дружествата да инвестират в обучението и преквалификацията на работната си сила;

61. призовава държавите членки да приведат образованието за специалистите в областта на опазването на околната среда, здравеопазването и безопасността на храните в съответствие с развитието в областта на ИИ, както и да повишат осведомеността за свързаните с ИИ рискове и етични предизвикателства;

62. приветства изискванията, предложени в Бялата книга относно данните за обучение на високорисков ИИ, като се разглежда и безопасността – достатъчно широки данни за покриване на всички съответни сценарии, за да се избегнат опасни ситуации като дискриминацията, и достатъчно представителни данни, които да отразяват добре социалната среда, към която ще се прилагат;

63. подчертава, че публичният сектор следва да се съсредоточи върху решаването на социалните проблеми, а не върху внедряването на ИИ заради самия себе си; призовава за подобряване на нормативната уредба и насоките за обществените поръчки на Съюза, включително екологосъобразните обществени поръчки на Европейския съюз, така че по време на съответните процедури за оценка на тръжните оферти да се взема предвид дали даден въпрос изисква приложение на система с ИИ и да се дава възможност да се следва алтернативен път на доставка в случаите, когато оценката показва, че решение без използване на ИИ се справя по-добре със социалния проблем.

 


 

ИНФОРМАЦИЯ ОТНОСНО ПРИЕМАНЕТО В ПОДПОМАГАЩАТА КОМИСИЯ

Дата на приемане

10.9.2020

 

 

 

Резултат от окончателното гласуване

+:

–:

0:

77

2

2

Членове, присъствали на окончателното гласуване

Nikos Androulakis, Bartosz Arłukowicz, Margrete Auken, Simona Baldassarre, Marek Paweł Balt, Traian Băsescu, Aurelia Beigneux, Monika Beňová, Sergio Berlato, Alexander Bernhuber, Malin Björk, Simona Bonafè, Delara Burkhardt, Pascal Canfin, Sara Cerdas, Mohammed Chahim, Tudor Ciuhodaru, Nathalie Colin-Oesterlé, Miriam Dalli, Esther de Lange, Christian Doleschal, Marco Dreosto, Bas Eickhout, Eleonora Evi, Agnès Evren, Fredrick Federley, Pietro Fiocchi, Andreas Glück, Catherine Griset, Jytte Guteland, Teuvo Hakkarainen, Martin Hojsík, Pär Holmgren, Jan Huitema, Yannick Jadot, Adam Jarubas, Petros Kokkalis, Athanasios Konstantinou, Ewa Kopacz, Joanna Kopcińska, Ryszard Antoni Legutko, Peter Liese, Sylvia Limmer, Javi López, César Luena, Fulvio Martusciello, Liudas Mažylis, Joëlle Mélin, Tilly Metz, Silvia Modig, Dolors Montserrat, Alessandra Moretti, Dan-Ștefan Motreanu, Ville Niinistö, Ljudmila Novak, Jutta Paulus, Stanislav Polčák, Jessica Polfjärd, Luisa Regimenti, Frédérique Ries, María Soraya Rodríguez Ramos, Sándor Rónai, Rob Rooken, Silvia Sardone, Christine Schneider, Günther Sidl, Ivan Vilibor Sinčić, Linea Søgaard-Lidell, Nicolae Ştefănuță, Nils Torvalds, Edina Tóth, Véronique Trillet-Lenoir, Alexandr Vondra, Mick Wallace, Pernille Weiss, Michal Wiezik, Tiemo Wölken, Anna Zalewska

Заместници, присъствали на окончателното гласуване

Michael Bloss, Manuel Bompard, Christel Schaldemose

 


 

 

ПОИМЕННО ОКОНЧАТЕЛНО ГЛАСУВАНЕ В ПОДПОМАГАЩАТА КОМИСИЯ

77

+

#PPE#

Bartosz Arłukowicz, Alexander Bernhuber, Traian Băsescu, Nathalie Colin‑Oesterlé, Christian Doleschal, Agnès Evren, Adam Jarubas, Ewa Kopacz, Peter Liese, Fulvio Martusciello, Liudas Mažylis, Dolors Montserrat, Dan‑Ștefan Motreanu, Ljudmila Novak, Jessica Polfjärd, Stanislav Polčák, Christine Schneider, Edina Tóth, Pernille Weiss, Michal Wiezik, Esther de Lange

S&D

Nikos Androulakis, Marek Paweł Balt, Monika Beňová, Simona Bonafè, Delara Burkhardt, Sara Cerdas, Mohammed Chahim, Tudor Ciuhodaru, Miriam Dalli, Jytte Guteland, César Luena, Javi López, Alessandra Moretti, Sándor Rónai, Christel Schaldemose, Günther Sidl, Tiemo Wölken

Renew

Pascal Canfin, Fredrick Federley, Andreas Glück, Martin Hojsík, Jan Huitema, Frédérique Ries, María Soraya Rodríguez Ramos, Linea Søgaard‑Lidell, Nils Torvalds, Véronique Trillet‑Lenoir, Nicolae Ştefănuță

ID

Simona Baldassarre, Aurelia Beigneux, Marco Dreosto, Catherine Griset, Joëlle Mélin, Luisa Regimenti, Silvia Sardone

Verts/ALE

Margrete Auken, Michael Bloss, Bas Eickhout, Pär Holmgren, Yannick Jadot, Tilly Metz, Ville Niinistö, Jutta Paulus

ECR

Sergio Berlato, Pietro Fiocchi, Joanna Kopcińska, Ryszard Antoni Legutko, Alexandr Vondra, Anna Zalewska

GUE/NGL

Malin Björk, Manuel Bompard, Petros Kokkalis, Silvia Modig, Mick Wallace

NI

Eleonora Evi, Athanasios Konstantinou

 

2

-

ID

Sylvia Limmer

ECR

Rob Rooken

 

2

0

ID

Teuvo Hakkarainen

NI

Ivan Vilibor Sinčić

 

Легенда на използваните знаци:

+ : in favour

- : „против“

0 : „въздържал се“

 

 

 


 

 

СТАНОВИЩЕ НА КОМИСИЯТА ПО КУЛТУРА И ОБРАЗОВАНИЕ (3.9.2020)

на вниманието на комисията по правни въпроси

с препоръки към Комисията относно рамка за етичните аспекти на изкуствения интелект, роботиката и свързаните с тях технологии

(2020/2012(INL))

Докладчик по становище: Лукаш Кохут

(Право на инициатива – член 47 от Правилника за дейността)

 

 

ПРЕДЛОЖЕНИЯ

Комисията по култура и образование приканва водещата комисия по правни въпроси:

- да включи следните предложения в предложението за резолюция, което ще приеме:

1. припомня, че разработването, внедряването и използването на изкуствен интелект (ИИ) в секторите на културата и творчеството и в политиката в областите на образованието, медиите, младежта и информацията, не само има огромен потенциал, но също така повдигна и ще продължи да повдига широк набор от етични въпроси, които трябва да бъдат разгледани; подчертава, че Съюзът следва да изпълнява водеща роля в изграждането на етичен изкуствен интелект, основаващ се на европейските ценности и осигуряващ защитата на човешкото достойнство и на основните права в рамките на една демократична, справедлива и устойчива Европа; призовава институциите на ЕС да участват в дългосрочен размисъл относно въздействието на ИИ върху нашите демократични дебати, нашите общества и самата природа на човешките същества, за да могат да проправят пътя към технология с ИИ, която зачита свободата ни и не възпрепятства иновациите, нито ограничава свободата на изразяване на мнение;

2. изразява твърдо убеждение, че е необходимо да се проучи по какъв начин рамките и задълженията в областта на правата на човека могат да насочват действията и политиките, свързани с новите и нововъзникващите цифрови технологии, за да се гарантира антропоцентричният подход на тези права и достъпността на ползите от тях за всички; признава необходимостта да се гарантира, че развитието, внедряването и използването на ИИ се извършва без дискриминация и предразсъдъци при профилирането и отразява всички основни елементи на обществото; признава, че ИИ и автоматизацията ще окажат влияние върху глобализираната икономика, което може да затвърди съществуващите неравенства;

3. подчертава необходимостта от разработването на специално пригодени критерии за разработването, внедряването и използването на ИИ в областите на образованието, медиите, младежта, научните изследвания и в секторите на култура и творчеството, чрез разработване на показатели и определяне на принципи за етично отговорни и приети приложения на технологиите с ИИ в тези области, включително необходимостта от ясен режим на отговорност за продукти, които са резултат от използването на ИИ; подчертава, че тези критерии трябва да могат да бъдат адаптирани и да бъдат постоянно приспособявани, за да отразяват напредъка в технологиите с ИИ, така че да се спомогне отговорно за мобилизирането на пълния потенциал на ИИ; подчертава по-специално необходимостта да се разгледат опасенията, свързани със събирането на лични потребителски данни и неприкосновеността на личния живот, както и въпросите за отговорността в случаите, в които автоматизираните процеси на учене водят до нежелани резултати; припомня, че за да се осигури солидна основа за тези критерии, е необходимо да се изисква да се спазват принципите на съответствие на дадена система с нейните спецификации, прозрачност, добросъвестност и справедливост, като се провеждат консултации с компетентните комисии по етика, които отговарят за полагането на основите в съответствие с културните ценности на Европейския съюз и разпоредбите на правната рамка; отбелязва, че системите с ИИ са базирани на софтуер, като демонстрират интелигентно поведение въз основа на анализа на тяхната среда; подчертава, че този анализ се основава на статистически модели, при които грешките представляват неизбежна част; подчертава необходимостта да се гарантира, че съществуват системи и методи, които позволят проверка на алгоритъма, обяснимост на алгоритъма и достъп до средства за защита; подчертава необходимостта да се гарантира наличието на задължителни правила, които да гарантират спазването на принципите на прозрачност, отчетност и недискриминация; отново посочва етичните насоки за надежден изкуствен интелект от 2019 г. и седемте ключови изисквания за надеждност на ИИ;

4.  отбелязва, че всяко дете има право на качествено обществено образование на всички равнища; поради това призовава за разработването, внедряването и използването на качествени системи на изкуствен интелект, които предоставят и улесняват достъпа до качествени образователни инструменти за всички на всички равнища и подчертава, че внедряването на нови системи с ИИ в училищата не следва да води до увеличаване на цифровото разделение в обществото;

5. отбелязва, че системите за персонализирано обучение с ИИ все повече се внедряват в училищата и университетите, което постепенно променя ролята на преподавателите в процеса на учене; подчертава, че следва да се направи задълбочена оценка на тази промяна и тя да бъде отразена в съответните учебни програми и да бъде обвързана с ценности, в центъра на които стои човекът; признава огромния потенциален принос, който ИИ и роботиката могат да имат за образованието; отбелязва, че персонализираните системи за учене с ИИ не следва да заместват образователните отношения, включващи учители, и че традиционните форми на образование не следва да бъдат изоставени, като същевременно посочва, че трябва да се осигури финансова, технологична и образователна подкрепа, включително специализирано обучение по информационни и комуникационни технологии за учителите, които желаят да придобият подходящи умения, така че да се адаптират към технологичните промени и не само да използват потенциала на ИИ, но и да разбират неговите ограничения;

6. подчертава, че когато при подбора на потенциални студенти се използва машинно самообучение, трябва да се прилагат подходящи предпазни мерки, включително да се информират кандидатите за такива процедури и техните права в това отношение; отбелязва, че съответните алгоритми трябва да бъдат обучени на широки набори от данни, за да се избегне несправедливата дискриминация от страна на алгоритмите срещу определени групи; счита, че съответните решения, взети с помощта на автоматизирани процеси, трябва да могат да бъдат обяснени, включително, ако е необходимо, на отхвърлените студенти;

7. призовава за разработването на стратегия за изкуствен интелект, роботика и свързани с тях технологии на равнището на Съюза с цел да се спомогне за трансформирането и актуализирането на нашите образователни системи, подготовката на нашите образователни институции на всички равнища и придобиването от учителите и учениците на умения и способности; счита, че съществува необходимост от етична рамка в образованието; препоръчва включването на гражданското общество, университетите, профсъюзите и сдруженията на работодателите в процеса на изготвяне на подобна рамка; отбелязва, че системите за изкуствен интелект, които се разработват, внедряват и използват в Съюза, следва да отразяват неговото културно многообразие и многоезичие; подчертава, че трябва да бъде предоставена специална подкрепа за разработчиците и бенефициерите от групи в неравностойно положение и лица с увреждания;

8. счита, че трябва да се посвети специално внимание и защита на зачитането на правата на малолетните и непълнолетните лица, като се има предвид специфичното влияние на образованието върху тяхното бъдеще, по-специално правото на неприкосновеност на личния живот и на достъп до образование, като се гарантират равни възможности във всички случаи; подчертава, че образователните институции следва да използват системите с ИИ само за цели на образованието, които са одитирани и сертифицирани като етични, полезни и действащи в съответствие с принципите на правата на човека; призовава Комисията и държавите членки да насърчават сътрудничеството между публичния и частния сектор и академичните среди с цел засилване на споделянето на знания и отворените източници;

9. отбелязва, че понятията „изкуство“, „културни и творчески произведения“, както и ролята на човека като създател и творец, следва да бъдат изяснени; подчертава, че възможностите, предлагани от цифровизацията и новите технологии, не трябва да водят до загуба на работни места в секторите на културата и творчеството, до пренебрегване на опазването на оригиналите и до намаляване на традиционния достъп до културното наследство, който също следва да бъде насърчаван;

10. признава нарастващия потенциал на изкуствения интелект в областта на информацията, медиите и онлайн платформите, включително и като мощно средство в борбата с дезинформацията; при все това изразява загриженост относно възможността за злоупотреба с ИИ с цел манипулиране на общественото мнение онлайн; подчертава, че ако не бъде регулиран, изкуственият интелект може да има неблагоприятно от етична гледна точка въздействие чрез експлоатацията на предубежденията, заложена в данните и алгоритмите, която може да доведе до разпространение на дезинформация, създаване на информационни балони и използване на предубеждения, включени в алгоритмите на ИИ; припомня, че подходящото образование е необходимо условие за защита на правата на гражданите по отношение на свободата на информация, убеждения и изразяване на мнение, призовава за етично използване на технологиите с ИИ в областта на медиите; предупреждава за рисковете, които носи цензурата, наложена с помощта на технологиите, както и за необходимостта от етична рамка, която да защитава свободата на словото;

11. счита, че използването на определени видове ИИ, като системи за разпознаване на лица, емоции и поведение, биха могли да имат вредни последици, по-специално за ролята на медиите и журналистите като пазители на демокрацията, а оттам и за демокрацията; поради това подчертава, че използването на подобни системи на обществени места следва да бъде забранено, когато това е необходимо; подчертава необходимостта от продължаване на борбата с фалшивите новини, включително техники като „дълбинни фалшификати“, срещу цензурата и автоматизираното наблюдение;

12. подчертава необходимостта от повишаване на осведомеността и на разбирането на широката общественост за ролята и въздействието на изкуствения интелект посредством формално и неформално образование, включително науките за човека, по-специално използването на алгоритми и тяхното въздействие, наред с другото, върху работните места и неприкосновеността на личния живот, разбирането за мястото, което имат ИТ системите в подбора, интерпретирането, съхранението и представянето на данни; застъпва се за създаването на инструменти за цифрова грамотност на всички равнища на образование и съответно призовава държавите членки и институциите на ЕС да инвестират в информационна и медийна грамотност, образование и обучение; счита, че компетентностите в областта на информацията и медиите са от съществено значение за всички граждани, включително за уязвимите социални групи, за да могат те да оценяват критично и да разбират новите разработки, включително да разбират функционирането на ИИ и присъщите му отклонения, и по този начин да развиват нови форми на критично мислене; препоръчва Комисията да насърчава формати на образование и непрекъснато обучение, които са свързани с изкуствения интелект, роботиката и технологиите;

13. отбелязва важното разграничение между прозрачността на алгоритмите и прозрачността на използването на алгоритмите; подчертава значението на прозрачността и отчетността по отношение на алгоритмите, използвани от платформите за споделяне на видеоклипове (VSP), за да се гарантира достъп до разнообразно в културно и езиково отношение съдържание и да се избегне привилегироването; счита, че всеки ползвател следва да бъде надлежно уведомен, когато се използва  даден алгоритъм, за да му бъде препоръчано съдържание, следва да може да го оптимизира съгласно собствения си избор и такива алгоритми не следва да ограничават избора на ползвателя; счита, че всеки ползвател следва да може да изключи функцията за получаване на препоръки за съдържание, изготвени от ИИ; подчертава, че подобни алгоритми следва да бъдат проектирани по такъв начин, че да отразяват културното многообразие на нашите общества, като осигуряват истинска откритост към различни култури и гарантират свобода на творчеството; настоятелно заявява, че потребителските данни, събрани от ИИ, като културни предпочитания или образователни постижения, не трябва да бъдат предавани или използвани без знанието на притежателя на тези данни;

14. отбелязва, че спортът винаги е приемал технологичните иновации; счита, въпреки това, че използването технологии с ИИ, което навлиза бързо в спортните състезания, все повече поражда въпроси във връзка с справедливото съревнование в спорта, при което отборите с най-много финансови ресурси могат да придобият най-добрата технология, което им дава несправедливо предимство; подчертава, че това развитие следва да се наблюдава внимателно и че тази област се нуждае от регулаторна рамка, която да прилага етични и ориентирани към човека критерии при развитието и използването на технологиите с ИИ; призовава за пълна прозрачност на алгоритмите и технологиите, използвани в спорта, за да се осигурят равнопоставени условия на съревнование;

 

 

ИНФОРМАЦИЯ ОТНОСНО ПРИЕМАНЕТО В ПОДПОМАГАЩАТА КОМИСИЯ

Дата на приемане

31.8.2020

 

 

 

Резултат от окончателното гласуване

+:

–:

0:

28

0

2

Членове, присъствали на окончателното гласуване

Isabella Adinolfi, Christine Anderson, Ilana Cicurel, Gilbert Collard, Gianantonio Da Re, Laurence Farreng, Tomasz Frankowski, Romeo Franz, Hannes Heide, Irena Joveva, Petra Kammerevert, Niyazi Kizilyürek, Predrag Fred Matić, Dace Melbārde, Victor Negrescu, Peter Pollák, Marcos Ros Sempere, Andrey Slabakov, Massimiliano Smeriglio, Michaela Šojdrová, Sabine Verheyen, Salima Yenbou, Milan Zver

Заместници, присъствали на окончателното гласуване

Isabel Benjumea Benjumea, Christian Ehler, Ibán García Del Blanco, Bernard Guetta, Marcel Kolaja, Elżbieta Kruk, Martina Michels

 

 


ПОИМЕННО ОКОНЧАТЕЛНО ГЛАСУВАНЕ В ПОДПОМАГАЩАТА КОМИСИЯ

 

28

+

PPE

Isabel Benjumea Benjumea, Christian Ehler, Tomasz Frankowski, Peter Pollák, Michaela Šojdrová, Sabine Verheyen, Milan Zver

S&D

Ibán García del Blanco, Hannes Heide, Petra Kammerevert, Predrag Fred Matić, Victor Negrescu, Marcos Ros Sempere, Massimiliano Smeriglio

RENEW

Ilana Cicurel, Laurence Farreng, Bernard Guetta, Irena Joveva

ID

Gilbert Collard

VERTS/ALE

Romeo Franz, Marcel Kolaja, Salima Yenbou

ECR

Elżbieta Kruk, Dace Melbārde, Andrey Slabakov

GUE/NGL

Niyazi Kizilyürek, Martina Michels

NI

Isabella Adinolfi

 

0

-

-

-

 

2

0

ID

Christine Anderson, Gianantonio Da Re

 

Легенда на използваните знаци:

+ : „за“

- : „против“

0 : „въздържал се“

 

 

 


ИНФОРМАЦИЯ ОТНОСНО ПРИЕМАНЕТО ОТ ВОДЕЩАТА КОМИСИЯ

Дата на приемане

1.10.2020

 

 

 

Резултат от окончателното гласуване

+:

–:

0:

20

0

4

Членове, присъствали на окончателното гласуване

Manon Aubry, Gunnar Beck, Geoffroy Didier, Angel Dzhambazki, Ibán García Del Blanco, Jean-Paul Garraud, Esteban González Pons, Mislav Kolakušić, Gilles Lebreton, Karen Melchior, Jiří Pospíšil, Franco Roberti, Marcos Ros Sempere, Liesje Schreinemacher, Stéphane Séjourné, Raffaele Stancanelli, József Szájer, Marie Toussaint, Adrián Vázquez Lázara, Axel Voss, Tiemo Wölken, Javier Zarzalejos

Заместници, присъствали на окончателното гласуване

Patrick Breyer, Evelyne Gebhardt

 


ПОИМЕННО ОКОНЧАТЕЛНО ГЛАСУВАНЕ ВЪВ ВОДЕЩАТА КОМИСИЯ

20

+

EPP

Geoffroy Didier, Esteban González Pons, Jiří Pospíšil, József Szájer, Axel Voss, Javier Zarzalejos

S&D

Ibán García Del Blanco, Evelyne Gebhardt, Franco Roberti, Marcos Ros Sempere, Tiemo Wölken

RENEW

Karen Melchior, Liesje Schreinemacher, Stéphane Séjourné, Adrián Vázquez Lázara

VERTS/ALE

Patrick Breyer, Marie Toussaint

ECR

Angel Dzhambazki, Raffaele Stancanelli

NI

Mislav Kolakušić

 

0

-

 

 

 

 

 

4

0

ID

Gunnar Beck, Jean Paul Garraud, Gilles Lebreton

GUE/NGL

Manon Aubry

 

Легенда на използваните знаци:

+ : „за“

- : „против“

0 : „въздържал се“

 

 

 

 

Последно осъвременяване: 19 октомври 2020 г.
Правна информация - Политика за поверителност