ДОКЛАД с препоръки към Комисията относно режим на гражданска отговорност за изкуствения интелект

5.10.2020 - (2020/2014(INL))


Комисия по правни въпроси
Докладчик: Аксел Фос
(Право на инициатива – член 47 от Правилника за дейността)

Процедура : 2020/2014(INL)
Етапи на разглеждане в заседание
Етапи на разглеждане на документа :  
A9-0178/2020
Внесени текстове :
A9-0178/2020
Гласувания :
Приети текстове :

ПРЕДЛОЖЕНИЕ ЗА РЕЗОЛЮЦИЯ НА ЕВРОПЕЙСКИЯ ПАРЛАМЕНТ

с препоръки към Комисията относно режим на гражданска отговорност за изкуствения интелект

 

(2020/2014(INL))

Европейският парламент,

 като взе предвид член 225 от Договора за функционирането на Европейския съюз,

 като взе предвид членове 114 и 169 от Договора за функционирането на Европейския съюз,

 като взе предвид Директива 85/374/ЕИО на Съвета от 25 юли 1985 г. за сближаване на законовите, подзаконовите и административните разпоредби на държавите членки относно отговорността за вреди, причинени от дефект на стока,

 като взе предвид Директива 2005/29/ЕО на Европейския парламент и на Съвета от 11 май 2005 г. относно нелоялни търговски практики от страна на търговци към потребители на вътрешния пазар („Директива за нелоялните търговски практики“)[1] и Директива 2011/83/ЕС на Европейския парламент и на Съвета от 25 октомври 2011 г. относно правата на потребителите[2], както и други правила за защита на потребителите,

 като взе предвид Регламент (ЕС) № 2017/745 на Европейския парламент и на Съвета от 5 април 2017 г. за медицинските изделия[3],

 като взе предвид Регламент (ЕС) 2018/1488 на Съвета от 28 септември 2018 г. за създаване на Съвместно предприятие за европейски високопроизводителни изчислителни технологии[4];

 като взе предвид Директива (ЕС) 2019/770 на Европейския парламент и на Съвета от 20 май 2019 г. за някои аспекти на договорите за предоставяне на цифрово съдържание и цифрови услуги[5],

 като взе предвид Междуинституционалното споразумение от 13 април 2016 г. за по-добро законотворчество и насоките за по-добро регулиране[6],

 като взе предвид предложението за регламент на Европейския парламент и на Съвета от 6 юни 2018 г. за създаване на програмата „Цифрова Европа“ за периода 2021 – 2027 г. (COM(2018)0434),

 като взе предвид съобщението на Комисията от 25 април 2018 г., озаглавено „Изкуствен интелект за Европа“ (COM(2018)0237),

 като взе предвид съобщението на Комисията от 7 декември 2018 г., озаглавено „Координиран план за изкуствения интелект“ (COM(2018)0795),

 като взе предвид съобщението на Комисията от 8 април 2019 г., озаглавено „Изграждане на доверие в ориентирания към човека изкуствен интелект“ (COM(2019)0168),

 като взе предвид доклада на Комисията от 19 февруари 2020 г. до Европейския парламент, Съвета и Европейския икономически и социален комитет относно последиците от изкуствения интелект, интернета на нещата и роботиката за безопасността и отговорността (COM(2020)0064),

 като взе предвид Бялата книга на Комисията от 19 февруари 2020 г., озаглавена „Изкуствен интелект – Европа в търсене на високи постижения и атмосфера на доверие“ (COM(2020)0065),

 като взе предвид своята резолюция от 16 февруари 2017 г., съдържаща препоръки към Комисията относно гражданскоправни норми за роботиката[7],

 като взе предвид своята резолюция от 1 юни 2017 г. относно цифровизацията на европейската промишленост[8],

 като взе предвид своята резолюция от 12 септември 2018 г. относно автономните оръжейни системи[9],

 като взе предвид своята резолюция от 12 февруари 2019 г. относно всеобхватната европейска промишлена политика в областта на изкуствения интелект и роботиката[10],

 като взе предвид своята резолюция от 12 февруари 2020 г. относно автоматизираните процеси на вземане на решения: гарантиране на защитата на потребителите и на свободното движение на стоки и услуги[11],

 като взе предвид доклада от 8 април 2019 г. на експертната група на високо равнище по въпросите на изкуствения интелект, озаглавен „Насоки относно етичните аспекти за надежден ИИ“,

 като взе предвид доклада от 8 април 2019 г. на експертната група на високо равнище по въпросите на изкуствения интелект, озаглавен „Определение за ИИ: основни възможности и дисциплини“,

 като взе предвид доклада от 26 юни 2019 г. на експертната група на високо равнище по въпросите на изкуствения интелект, озаглавен „Policy and investment recommendations for trustworthy AI“ (Препоръки относно политиката и инвестициите за надежден ИИ),

 като взе предвид доклада от 21 ноември 2019 г. на експертната група по въпросите на отговорността и новите технологии – подгрупа по новите технологии, озаглавен „Liability for Artificial Intelligence and other emerging digital technologies“ (Отговорност за изкуствения интелект и други нововъзникващи цифрови технологии),

 като взе предвид информационната бележка на отдела за оценка на научно-технологичните възможности (STOA) на Генералната дирекция за парламентарни изследвания от юни 2016 г. относно правните и етичните съображения, свързани с роботиката,

 като взе предвид проучването на Генералната дирекция за вътрешни политики на Европейския парламент от октомври 2016 г. за комисията по правни въпроси, озаглавено „European Civil Law Rules in Robotics“ (Европейските гражданскоправни норми за роботиката),

 като взе предвид членове 47 и 54 от своя Правилник за дейността,

 като взе предвид становищата на комисията по вътрешния пазар и защита на потребителите и комисията по транспорт и туризъм,

 като взе предвид доклада на комисията по правни въпроси (A9-0178/2020),

А. като има предвид, че понятието „отговорност“ играе важна двойна роля в нашето ежедневие: от една страна, то гарантира, че лице, което е претърпяло вреда, има право да търси и получи обезщетение от страната, за която е установено, че носи отговорност за тази вреда, а от друга страна – предоставя икономически стимули на физическите и юридическите лица да избягват преди всичко да причиняват вреди или да имат предвид в поведението си риска да трябва да заплатят обезщетение;

Б. като има предвид, че всяка ориентирана към бъдещето правна уредба относно гражданската отговорност трябва да вдъхва доверие в безопасността, надеждността и съгласуваността на продуктите и услугите, включително в цифровите технологии, за да се постигне баланс между ефективната и справедлива защита на потенциалните увредени лица, и същевременно осигуряването на достатъчно свобода на действие, за да се даде възможност на предприятията, и в частност на малките и средните предприятия, да разработват нови технологии, продукти или услуги; като има предвид, че това ще спомогне за изграждането на доверие и за създаването на стабилност за инвестиции; като има предвид, че в крайна сметка целта на всяка уредба относно отговорността следва да бъде осигуряването на правна сигурност за всички страни, независимо дали става въпрос за производителя, оператора, засегнатото лице или друго трето лице;

В. като има предвид, че правната система на дадена държава членка може да приспособи своите правила за отговорност за определени субекти или да ги направи по-строги за определени дейности; като има предвид, че обективна отговорност означава, че страната може да носи отговорност въпреки липсата на вина; като има предвид, че в деликтното право на много държави ответникът носи обективна отговорност, ако риск, който този ответник е създал за обществеността, например в случая с автомобили или опасни дейности, или риск, който той не може да контролира, като например животните, причини вреди;

Г. като има предвид, че всяко бъдещо законодателство на Съюза, което има за цел изричното определяне на отговорността по отношение на системите с изкуствен интелект (ИИ), следва да бъде предшествано от анализ и консултация с държавите членки относно съответствието на предложения законодателен акт с икономическите, правните и социалните условия;

Д. като има предвид, че въпросът за режима на гражданска отговорност за ИИ следва да бъде предмет на широк обществен дебат, който взема предвид всички засегнати интереси, и особено етичните, правните, икономическите и социалните аспекти, за да се избегнат недоразумения и необосновани опасения, които подобна технология може да предизвика у гражданите; като има предвид, че внимателното разглеждане – в рамките на оценка на въздействието – на последствията от всяка нова регулаторна рамка за всички участници следва да бъде предварително условие за предприемането на по-нататъшни законодателни стъпки;

Е. като има предвид, че понятието „системи с ИИ“ обхваща голяма група от различни технологии, включително проста статистика, машинно самообучение и задълбочено учене;

Ж. като има предвид, че с използването на термина „автоматизирано вземане на решения“ би могло да се избегне евентуалното двусмислие на термина ИИ; като има предвид, че при „автоматизираното вземане на решения“ ползвател първоначално делегира решение, частично или изцяло, на друго лице чрез използването на софтуер или услуга; като има предвид, че впоследствие това лице на свой ред използва автоматично изпълнявани модели за вземане на решение, за да извърши действие от името на ползвателя или за да осигури информация за решенията на ползвателя при извършването на дадено действие;

З. като има предвид, че определени системи с ИИ поставят значителни правни предизвикателства пред съществуващата уредба относно отговорността и биха могли да доведат до ситуации, при които тяхната непрозрачност би могла да направи изключително скъпо или дори невъзможно да се установи кой е упражнявал контрол върху риска, свързан със системата с ИИ, или кой код, информация или данни в крайна сметка са обусловили вредоносната експлоатация; като има предвид, че този фактор би могъл да затрудни идентифицирането на връзката между вредата и поведението, което я причинява, като в резултат на това увредените лица може да не получат подходящо обезщетение;

И. като има предвид, че правните предизвикателства произтичат също така и от свързаността между дадена система с ИИ и други системи със или без ИИ, тяхната зависимост от външни данни, тяхната уязвимост спрямо нарушения в сферата на киберсигурността, както и от факта, че се разработват все по-автономни системи с ИИ, които използват, наред с другото, техники за машинно самообучение и техники за задълбочено учене;

Й. като има предвид, че стабилните етични стандарти за системите с ИИ, съчетани с надеждни и справедливи процедури за обезщетение, могат да помогнат за справянето с тези правни предизвикателства и да елиминират риска ползвателите да са по-малко склонни да приемат нововъзникващата технология; като има предвид, че справедливите процедури за обезщетение означават, че всяко лице, което търпи вреда, причинена от системи с ИИ, или чиято имуществена вреда е причинена от системи с ИИ, следва да има еднакво ниво на защита в сравнение със случаите, при които не е намесена система с ИИ; като има предвид, че потребителят трябва да бъде сигурен, че потенциалните вреди, причинени от системите, използващи ИИ, имат подходящо застрахователно покритие и че съществува установен законов ред за правна защита;

К. като има предвид, че правната сигурност е също така съществено условие за динамичното развитие и иновациите на технологията, основаваща се на ИИ, особено за стартиращите предприятия, микро-, малките и средните предприятия, и практическото ѝ прилагане в ежедневието; като има предвид, че ключовата роля на стартиращите предприятия, микро-, малките и средните предприятия, особено в европейската икономика, оправдава използването на строго пропорционален подход, който да им позволи да се развиват и да извършват иновации;

Л. като има предвид, че разнородността на системите с ИИ и разнообразният спектър от рискове, които технологията създава, усложняват усилията за намиране на единно решение, което да е подходящо за целия спектър от рискове; като има предвид, че в това отношение следва да се възприеме подход, при който да се използват експерименти, пилотни проекти и експериментални регулаторни практики, за да се намерят пропорционални и основани на доказателства решения, насочени към конкретни ситуации и сектори, когато е необходимо;

Въвеждане

1. счита, че предизвикателството, свързано с въвеждането на системите с ИИ в обществото, на работното място и в икономиката, е един от най-важните въпроси в настоящия политически дневен ред; като има предвид, че технологиите, основани на ИИ, биха могли и следва да се стремят да подобрят живота ни в почти всяка област, от личната сфера, например транспортния сектор, персонализираното образование, подпомагането на уязвими лица, фитнес програмите и предоставянето на кредити, до работната среда, например облекчаването от еднообразни и повтарящи се задачи, и глобалните предизвикателства като изменението на климата, здравеопазването, изхранването и логистиката;

2. твърдо вярва, че за да се използват ефективно предимствата и да се предотвратят потенциалните злоупотреби със системите с ИИ и за да се избегне нормативната разпокъсаност в Съюза, е изключително важно да има единно, основано на принципи и ориентирано към бъдещето законодателство на цялата територия на Съюза за всички системи с ИИ; счита, че макар за широкия кръг от възможни приложения да са за предпочитане регламенти, които са специфични за даден сектор, изглежда е необходима хоризонтална и хармонизирана правна рамка, основана на общи принципи, за да се гарантира правна яснота, за да се установят еднакви стандарти в целия Съюз и за да се защитят ефективно европейските ценности и правата на гражданите;

3. заявява, че цифровият единен пазар трябва да бъде напълно хармонизиран, тъй като цифровата сфера се характеризира с бърза трансгранична динамика и международни потоци от данни; счита, че Съюзът ще постигне целите за запазване на цифровия суверенитет на Съюза и за насърчаване на цифровите иновации в Европа само чрез съгласувани и общи правила в съответствие с култура на иновации;

4. отбелязва, че глобалната надпревара в областта на ИИ вече е в ход и че Съюзът следва да играе водеща роля в нея, като използва своя научен и технологичен потенциал; категорично подчертава, че технологичното развитие не трябва да бъде за сметка на защитата на ползвателите от вреди, които могат да бъдат причинени от устройства и системи, използващи ИИ; насърчава популяризирането на стандартите на Съюза за гражданската отговорност на международно равнище;

5. твърдо вярва, че новите общи правила за системите с ИИ следва да бъдат единствено под формата на регламент; счита, че въпросът за отговорността в случай на вреда, причинена от система с ИИ, е един от ключовите аспекти, които трябва да бъдат разгледани в тази уредба;

Отговорност и изкуствен интелект

6. счита, че не е необходимо цялостно преразглеждане на добре функциониращите режими на отговорност, но че сложността, свързаността, непрозрачността, уязвимостта, възможността за промяна посредством актуализации, възможността за самообучение и потенциалната автономност на системите с ИИ, както и множеството ангажирани с тях участници, все пак представляват значително предизвикателство по отношение на ефективността на разпоредбите на уредбата на Съюза и националните уредби относно отговорността; счита, че са необходими конкретни и координирани корекции на режимите на отговорност, за да се предотврати ситуация, при която лица, които претърпяват вреди или на чието имущество са нанесени вреди, в крайна сметка не получават обезщетение;

7. отбелязва, че всички физически или виртуални дейности, устройства или процеси, които се задвижват от системи с ИИ, могат технически да бъдат пряка или косвена причина за вреди, но все пак почти винаги са резултат от изграждането, внедряването или манипулирането на системите от дадено лице; във връзка с това отбелязва, че не е необходимо да се дава юридическа правосубектност на системите с ИИ; счита, че непрозрачността, свързаността и автономността на системите с ИИ биха могли да направят практически трудно или дори невъзможно да се проследи дали конкретни вредоносни действия на системите с ИИ се дължат на конкретен принос на човек или на решения при проектирането; припомня, че в съответствие с широко възприетите концепции за отговорност все пак може да се избегне тази пречка, като различните лица по цялата верига за създаване на стойност, които създават или поддържат системите с ИИ или контролират риска, свързан с посочените системи, носят отговорност;

8. счита, че през последните над 30 години Директивата за отговорността за вреди, причинени от дефект на стокa, се доказа като ефективно средство за получаване на обезщетение за вреди, причинени от дефектен продукт, но въпреки това следва да бъде преразгледана с оглед на адаптирането ѝ към цифровия свят и с цел да се обърне внимание на предизвикателствата, породени от нововъзникващите цифрови технологии, като по този начин се гарантира високо равнище на ефективна защита на потребителите, както и правна сигурност за потребителите и предприятията, като същевременно се избягват високите разходи и рискове за МСП и стартиращите предприятия; настоятелно призовава Комисията да прецени дали Директивата за отговорността за вреди, причинени от дефект на стока, следва да бъде преобразувана в регламент, да поясни определението за „продукти“, като определи дали цифровото съдържание и цифровите услуги попадат в нейното приложно поле, и да разгледа възможността за адаптиране на понятия като „вреда“, „дефект“ и „производител“; счита, че за целите на правната сигурност в целия Съюз след прегледа на Директивата за отговорността за вреди, причинени от дефект на стокa, понятието „производител“ следва да включва производителите, разработчиците, програмистите, доставчиците на услуги, както и бекенд операторите; призовава Комисията да разгледа възможността за отмяна на правилата, уреждащи тежестта на доказване на вреда, причинена от нововъзникващи цифрови технологии, в ясно определени случаи и след подходяща оценка; посочва, че е важно да се гарантира, че актуализираният акт на Съюза остава ограничен до ясно набелязани проблеми, за които вече съществуват осъществими решения, и същевременно позволява да се обхване и бъдещото технологично развитие, включително разработките, които се основават на безплатен и с отворен код софтуер; отбелязва, че Директивата за отговорността за вреди, причинени от дефект на стокa, следва да продължи да се използва по отношение на претенции за гражданска отговорност срещу производителя на дефектна система с ИИ, когато системата с ИИ отговаря на определението за продукт по силата на посочената директива; подчертава, че всяка актуализация на рамката за отговорност за продуктите следва да върви ръка за ръка с актуализацията на Директива 2001/95/ЕО на Европейския парламент и на Съвета от 3 декември 2001 г. относно общата безопасност на продуктите[12], за да се гарантира, че системите с ИИ включват при проектирането си принципите за безопасност и сигурност;

9. счита, че съществуващото деликтно право на държавите членки, основано на виновна отговорност, предлага в повечето случаи достатъчно ниво на защита за лицата, които претърпяват вреди, причинени от трето лице, което манипулира системите, например хакер, или за лицата, на чието имущество са нанесени вреди от такова трето лице, тъй като манипулирането обикновено представлява действие, за което се носи виновна отговорност; отбелязва, че добавянето на правила за отговорност с цел допълване на съществуващото национално деликтно право изглежда необходимо само в специфични случаи, включително когато третото лице е непроследимо или не разполага със средства;

10. поради това счита, че е целесъобразно този доклад да се съсредоточи върху претенциите за гражданска отговорност срещу оператора на система с ИИ; потвърждава, че отговорността на оператора се обосновава с факта, че той упражнява контрол върху риск, свързан със системата с ИИ, сравним с този на собственика на автомобил; счита, че поради сложността и свързаността на системата с ИИ в много случаи операторът ще бъде първата видима точка за контакт за засегнатото лице;

Отговорност на оператора

11. счита, че правилата за отговорност, прилагани към оператора, следва да обхващат всички операции на системите с ИИ, независимо от това къде се извършва експлоатацията и дали това се случва физически или виртуално; отбелязва обаче, че експлоатацията на обществени места, която излага много лица на риск, представлява случай, който се нуждае от допълнително разглеждане; счита, че потенциалните увредени лица често не са запознати с експлоатацията и обикновено нямат претенции за договорна отговорност срещу оператора; отбелязва, че когато настъпи вреда, тези лица ще имат само претенция за виновна отговорност и може да се окаже трудно да докажат вината на оператора на системата с ИИ и следователно съответните претенции за отговорност може да се окажат неуспешни;

12. счита, че е целесъобразно под „оператор“ да се разбира както бекенд оператор, така и фронтенд оператор, при условие че последният не е вече покрит съгласно Директивата за отговорността за вреди, причинени от дефект на стокa; отбелязва, че „фронтенд операторът“ следва да бъде определен като физическото или юридическото лице, което упражнява определен контрол върху риск, свързан с експлоатацията и функционирането на системата с ИИ, и което извлича ползи от нейната експлоатация; заявява, че „бекенд операторът“ следва да бъде определен като физическото или юридическото лице, което постоянно определя характеристиките на технологията, предоставя данни и основни бекенд помощни услуги и следователно също така упражнява известен контрол върху риска, свързан с експлоатацията и функционирането на системата с ИИ; счита, че упражняването на контрол означава всяко действие на оператора, което влияе върху експлоатацията на системата с ИИ и следователно върху това до каква степен излага трети лица на потенциалните рискове на системата; счита, че подобни действия биха могли да окажат влияние върху експлоатацията на система с ИИ от началото до края чрез определяне на входящите данни, изходящите данни или резултатите, или да променят специфични функции или процеси в рамките на системата с ИИ;

13. отбелязва, че е възможно да има случаи, в които има повече от един оператор, например бекенд и фронтенд оператор; счита, че в такъв случай всички оператори следва да бъдат солидарно отговорни, като същевременно имат право на пропорционален регресен иск; счита, че пропорциите на отговорността следва да се определят от съответните степени на контрол, които операторите са имали върху риска, свързан с експлоатацията и функционирането на системата с ИИ; счита, че проследимостта на продуктите следва да се подобри, за да се определят по-добре участниците в различните етапи;

Различни правила за отговорност за различните рискове

14. признава, че видът на системата с ИИ, върху която операторът упражнява контрол, е определящ фактор по отношение на отговорността; отбелязва, че система с ИИ, която носи присъщ висок риск и функционира автономно, потенциално застрашава обществеността в много по-висока степен; счита, че въз основа на правните предизвикателства, които системите с ИИ пораждат за съществуващите режими на гражданска отговорност, изглежда разумно да се установи общ режим на обективна отговорност за тези високорискови автономни системи с ИИ; подчертава, че такъв основан на риска подход, който може да включва няколко равнища на риск, следва да се основава на ясни критерии и подходящо определение за висок риск и да предвижда правна сигурност;

15. счита, че дадена система с ИИ носи висок риск, когато нейното автономно функциониране има значителен потенциал да причини вреда на едно или повече лица по начин, който е случаен и надхвърля това, което може разумно да се очаква; счита, че когато се определя дали дадена система с ИИ е високорискова, трябва да се вземат предвид секторът, в който може да се очаква да възникнат значителни рискове, и естеството на предприеманите дейности; счита, че значимостта на потенциала зависи от взаимодействието между сериозността на възможната вреда, вероятността рискът да причини вреда и начина на използване на системата с ИИ;

16. препоръчва всички високорискови системи с ИИ да бъдат изчерпателно изброени в приложение към предложения регламент; признава, че като се имат предвид бързото технологично развитие и необходимият технически експертен опит, Комисията следва да извършва преглед на това приложение без ненужно забавяне, но най-малко на всеки шест месеца и, ако е необходимо, да го изменя чрез делегиран акт; счита, че Комисията следва да си сътрудничи тясно с новоучреден постоянен комитет, подобен на съществуващия Постоянен комитет по прекурсорите или на Техническия комитет по моторните превозни средства, който да включва национални експерти от държавите членки и заинтересованите лица; счита, че балансираното членство в „експертната група на високо равнище по въпросите на изкуствения интелект“ би могло да послужи като пример за сформирането на групата от заинтересовани лица, като се включат и експерти по етика и антрополози, социолози и специалисти в областта на психичното здраве; счита също така, че Европейският парламент следва да назначи консултативни експерти, които да съветват новосъздадения постоянен комитет;

17. отбелязва, че развитието на технологии, основани на ИИ, е изключително динамично и темпът му се ускорява непрекъснато; подчертава, че за да се гарантира адекватна защита на ползвателите, е необходим ускорен подход за анализиране на новите устройства и системи, използващи системи с ИИ, които се появяват на европейския пазар, по отношение на потенциалните рискове; препоръчва всички процедури в това отношение да бъдат опростени във възможно най-голяма степен; освен това предлага оценката на Комисията дали дадена система с ИИ представлява висок риск да започне едновременно с оценката на безопасността на продукта, за да се предотврати ситуация, при която високорискова система с ИИ вече е одобрена за пазара, но все още не е класифицирана като високорискова и следователно функционира без задължително застрахователно покритие;

18. отбелязва, че Комисията следва да направи оценка на това как данните, събрани, записани или съхранявани във високорискови системи с ИИ за целите на събирането на доказателства в случай на вреда, причинена от тази система с ИИ, могат да бъдат достъпни и използвани от разследващия орган и как биха могли да се подобрят проследимостта и проверимостта на тези данни, като същевременно се вземат предвид основните права и правата на неприкосновеност на личния живот;

19. заявява, че в съответствие със системите за обективна отговорност на държавите членки предложеният регламент следва да обхваща нарушенията на важните защитени от закона права на живот, здраве, физическа неприкосновеност и имущество и следва да определя размера и обхвата на обезщетенията, както и давностния срок; счита, че предложеният регламент следва също така да включва значителна неимуществена вреда, която води до проверима икономическа загуба над определен праг, хармонизиран в правото на Съюза относно отговорността, с което се постига баланс между достъпа до правосъдие на засегнатите лица и интересите на други участващи лица; настоятелно призовава Комисията да направи преоценка и да приведе в съответствие праговете за вреди в правото на Съюза; счита, че Комисията следва да анализира задълбочено правните традиции във всички държави членки и техните съществуващи национални законодателства, които предоставят обезщетение за неимуществени вреди, за да прецени дали е необходимо неимуществените вреди да бъдат включени в специфични за ИИ законодателни актове и дали това противоречи на съществуващата правна рамка на Съюза или подкопава националното право на държавите членки;

20. счита, че всички дейности, устройства или процеси, задвижвани от системи с ИИ, които причиняват вреда, но не са изброени в приложението към предложения регламент, следва да продължат да подлежат на виновна отговорност; счита, че засегнатото лице следва все пак да се ползва от презумпция за вина от страна на оператора, който следва да може да се освободи от отговорност, като докаже, че е спазил задължението за полагане на грижа;

21. счита, че система с ИИ, която все още не е оценена от Комисията и новосъздадения постоянен комитет и следователно все още не е класифицирана като високорискова и не е включена в списъка в приложението към предложения регламент, следва въпреки това, по изключение от предвидената в параграф 20 система, да подлежи на обективна отговорност, ако е причинила многократни инциденти, водещи до сериозни вреди; отбелязва, че ако случаят е такъв, Комисията следва също без ненужно забавяне да направи оценка на необходимостта от преразглеждане на това приложение с цел въпросната система с ИИ да бъде добавена към списъка; счита, че ако след тази оценка Комисията реши да включи системата с ИИ в списъка, това включване следва да има обратно действие от момента на първия доказан инцидент, причинен от тази система с ИИ, който е довел до сериозни вреди;

22. изисква от Комисията да направи оценка на необходимостта от правни разпоредби на равнището на Съюза относно договорите с цел предотвратяване на договорни клаузи за освобождаване от отговорност, включително в отношенията между предприятията (Business-to-Business) и между предприятията и администрацията (Business-to-Administration);

Застраховки и системи с ИИ

23. счита, че застрахователното покритие за отговорност е един от ключовите фактори, които определят успеха на новите технологии, продукти и услуги; отбелязва, че адекватното покритие за отговорност също е от съществено значение, за да се гарантира пред обществеността, че може да се довери на новата технология въпреки потенциала за претърпяване на вреда или съдебни искове от страна на засегнатите лица; отбелязва в същото време, че тази регулаторна система се съсредоточава върху необходимостта от използване и разширяване на предимствата на системите с ИИ, като същевременно се въвеждат строги предпазни мерки;

24. счита, че въз основа на значителния потенциал за причиняване на вреда и като се вземе предвид Директива 2009/103/ЕО на Европейския парламент и на Съвета от 16 септември 2009 г. относно застраховката „Гражданска отговорност“ при използването на моторни превозни средства и за контрол върху задължението за сключване на такава застраховка[13], всички оператори на високорискови системи с ИИ, изброени в приложението към предложения регламент, следва да имат застраховка за отговорност; счита, че такъв задължителен застрахователен режим за високорисковите системи с ИИ следва да покрива размера и обхвата на обезщетението, определено с предложения регламент; осъзнава факта, че понастоящем тези технологии все още са много редки, тъй като предполагат висока степен на автономно вземане на решения, и че следователно настоящите дискусии са насочени предимно към бъдещето; въпреки това счита, че несигурността по отношение на рисковете не следва да води до прекомерно повишаване на застрахователните премии и съответно да стане пречка за научните изследвания и иновациите;

25. счита, че един механизъм за обезщетение на равнището на Съюза, финансиран с публични средства, не е правилният начин за запълване на евентуални застрахователни празноти; счита, че липсата на данни за рисковете, свързани със системите с ИИ, в съчетание с несигурността по отношение на развитието в бъдещето, пречи на застрахователния сектор да предлага адаптирани или нови застрахователни продукти; счита, че ако развитието на задължителна застраховка бъде оставено изцяло на пазара, това вероятно ще доведе до използването на универсален подход с непропорционални високи застрахователни премии и погрешни стимули, насърчаващи операторите да избират най-евтината застраховка, а не най-доброто покритие, и би могло да стане пречка за научните изследвания и иновациите; счита, че Комисията следва да работи в тясно сътрудничество със застрахователния сектор, за да прецени как данните и иновативните модели могат да се използват за създаване на застрахователни полици, които предлагат адекватно покритие на достъпна цена;

Заключителни аспекти

26. изисква от Комисията да представи, въз основа на член 225 от Договора за функционирането на Европейския съюз, предложение за регламент относно отговорността за експлоатацията на системи с изкуствен интелект, в съответствие с препоръките, отправени в приложението към настоящата резолюция;

27. счита, че исканото предложение няма да породи финансови последици;

28. възлага на своя председател да предаде настоящата резолюция и приложените към нея препоръки на Комисията и на Съвета.

 

 


ПРИЛОЖЕНИЕ КЪМ ПРЕДЛОЖЕНИЕТО ЗА РЕЗОЛЮЦИЯ: ПОДРОБНИ ПРЕПОРЪКИ ЗА ИЗГОТВЯНЕ НА РЕГЛАМЕНТ НА ЕВРОПЕЙСКИЯ ПАРЛАМЕНТ И НА СЪВЕТА ОТНОСНО ОТГОВОРНОСТТА ЗА ЕКСПЛОАТАЦИЯТА НА СИСТЕМИ С ИЗКУСТВЕН ИНТЕЛЕКТ

А. ПРИНЦИПИ И ЦЕЛИ НА ПРЕДЛОЖЕНИЕТО

Настоящият доклад разглежда важен аспект на цифровизацията, който е обусловен от трансграничната дейност, конкуренцията в световен мащаб и основни съображения от обществен характер. Като насоки следва да служат следните принципи:

За истински цифров единен пазар е необходима пълна хармонизация чрез регламент. Новите правни предизвикателства, породени от развитието на системите с изкуствен интелект (ИИ), трябва да бъдат преодолени, като се създаде максимална правна сигурност по цялата верига на отговорност, включително за производителя, оператора, засегнатото лице и всяка друго трето лице. Не следва да има свръхрегулиране и трябва да се предотвратява бюрокрацията, тъй като това би попречило на европейските иновации в областта на ИИ, особено в случай че технологията, продуктите или услугите са разработени от МСП или стартиращи предприятия. Правилата за гражданска отговорност за ИИ следва да се стремят към постигане на баланс между защитата на обществеността, от една страна, и стимулите за предприятията да инвестират в иновации, по-специално в системи с ИИ, от друга страна; Вместо да се заменят добре функциониращите режими за отговорност, би трябвало да се направят няколко необходими корекции чрез въвеждането на нови и ориентирани към бъдещето идеи. Бъдещото предложение за регламент и Директивата за отговорността за вреди, причинени от дефект на стокa, са два стълба на обща уредба относно отговорността за системите с ИИ и изискват тясно сътрудничество и съгласуваност между всички участници в политическия живот на равнището на Съюза и на национално равнище. Гражданите следва да имат право на едно и също ниво на защита и права, независимо дали вредата е причинена от система с ИИ или не и независимо дали се случва физически или виртуално, така че да се укрепи доверието им в новата технология.

 В бъдещото предложение за регламент следва да се вземат предвид както имуществените, така и неимуществените вреди. Въз основа, наред с други документи, на съобщението ѝ от 19 февруари 2020 г. относно последиците от изкуствения интелект и роботиката за безопасността и отговорността, към Европейската комисия е отправен призив да анализира задълбочено правните традиции във всички държави членки, както и техните съществуващи законодателни разпоредби, които предоставят обезщетение за неимуществени вреди, за да прецени дали включването на неимуществените вреди в бъдещото предложение за регламент е правно издържано и необходимо от гледна точна на засегнатото лице. Въз основа на наличната към момента информация, Парламентът счита, че значителната неимуществена вреда следва да бъде включена, ако засегнатото лице е претърпяло явна, т.е. проверима, икономическа загуба.


Б. ТЕКСТ НА ИЗИСКВАНОТО ПРЕДЛОЖЕНИЕ

 

Предложение за

РЕГЛАМЕНТ НА ЕВРОПЕЙСКИЯ ПАРЛАМЕНТ И НА СЪВЕТА

относно отговорността за експлоатацията на системи с изкуствен интелект

 

като взеха предвид Договора за функционирането на Европейския съюз, и по-специално член 114 от него,

като взеха предвид предложението на Европейската комисия,

след предаване на проекта на законодателния акт на националните парламенти,

като взеха предвид становището на Европейския икономически и социален комитет[14],

в съответствие с обикновената законодателна процедура[15],

като имат предвид, че:

 

(1) Понятието „отговорност“ играе важна двойна роля в нашето ежедневие: от една страна, то гарантира, че лице, което е претърпяло вреда, има право да търси обезщетение от страната, която носи отговорност за тази вреда, а от друга страна, предоставя икономически стимули за лицата да избягват преди всичко да причиняват вреди. Целта на всяка уредба относно отговорността следва да бъде да вдъхва доверие в безопасността, надеждността и съгласуваността на продуктите и услугите, включително нововъзникващите цифрови технологии, като например изкуствения интелект (ИИ), интернет на нещата (ИН) или роботиката, за да се постигне баланс между ефективната защита на потенциалните увредени лица и същевременно осигуряването на достатъчно свобода на действие, за да се даде възможност за разработване на нови технологии, продукти или услуги.

 

(2) Особено в началото на жизнения цикъл на новите продукти и услуги, след като те са били предварително изпитани, съществува известен риск за ползвателя, както и за трети лица, че нещо няма да функционира правилно. Този процес на „проба и грешка“ е в същото време и ключов фактор на техническия прогрес, без който повечето от нашите технологии не биха съществували. До този момент рисковете, свързани с новите продукти и услуги, са били подходящо ограничени от строгите разпоредби относно безопасността на продуктите и правилата за отговорност.

(3) Засиленото използване на ИИ обаче представлява значително предизвикателство за съществуващите уредби относно отговорността. Използването на системи с ИИ в нашето ежедневие ще доведе до ситуации, при които тяхната непрозрачност (елементът „черна кутия“) и множеството лица, които се намесват в техния жизнен цикъл, ще направят изключително скъпо или дори невъзможно да се установи кой е упражнявал контрол върху риска, свързан със системата с ИИ, или кой код или информация в крайна сметка е обусловил вредоносната експлоатация. Тази трудност е още по-голяма поради свързаността между дадена система с ИИ и други системи със или без ИИ, поради нейната зависимост от външни данни, поради нейната уязвимост спрямо нарушения в сферата на киберсигурността, както и поради нарастващата автономност на системите с ИИ благодарение на възможностите за машинно самообучение и задълбочено учене. Освен тези сложни характеристики и потенциални уязвимости, системите с ИИ също така биха могли да бъдат използвани за причиняване на сериозни вреди, като например компрометиране на човешкото достойнство и европейските ценности и свободи чрез проследяване на физическите лица против тяхната воля, чрез въвеждане на системи за социален кредит, чрез вземане на субективни решения по въпроси на здравното осигуряване, предоставянето на кредити, съдебни разпореждания или решения за назначаване на работа или във връзка със заетостта или чрез изграждане на смъртоносни автономни оръжейни системи.

(4) Важно е да се отбележи, че предимствата от внедряването на системи с ИИ далеч ще надхвърлят недостатъците. Те ще помогнат за по-ефективна борба с изменението на климата, за подобряване на медицинските прегледи и условията на труд, за по-добро интегриране на хората с увреждания и възрастните хора в обществото и за предоставяне на съобразени с конкретните нужди учебни курсове за всички видове студенти. За да се използват различните технологични възможности и да се засили доверието на хората в използването на системите с ИИ, като същевременно се предотвратят вредоносните сценарии, най-доброто решение е наличието на стабилни етични стандарти в съчетание със солидна и справедлива процедура за обезщетение.

(5) Необходим е подходящ режим на отговорност, за да се противодейства на нарушаването на правилата за безопасност. Определеният в настоящия регламент режим на отговорност обаче трябва да отчита всички засегнати интереси. Внимателното разглеждане на последствията от всяка нова регулаторна рамка за малките и средните предприятия (МСП) и стартиращите предприятия представлява предварително условие за предприемането на по-нататъшни законодателни действия. Ключовата роля на тези предприятия в европейската икономика оправдава използването на строго пропорционален подход с цел да им се позволи да се развиват и да извършват иновации. От друга страна, лицата, претърпели вреди, причинени от системи с ИИ, трябва да имат право на правни средства за защита и пълно обезщетение за понесените вреди.

(6) Всички необходими промени в съществуващата правна уредба следва да започнат с уточнението, че системите с ИИ нямат нито статут на юридическо лице, нито човешко съзнание, и че единствената им задача е да служат на хората. Много системи с ИИ също така не се различават твърде от други технологии, които понякога се базират на още по-сложен софтуер. В крайна сметка по-голямата част от системите с ИИ се използват за обработка на обикновени задачи без никакви рискове или с минимални рискове за обществото. С използването на термина „автоматизирано вземане на решения“ би могло да се избегне евентуалното двусмислие на термина ИИ. Този термин описва ситуация, при която ползвател първоначално делегира решение, частично или изцяло, на друго лице посредством софтуер или услуга. Това лице на свой ред използва автоматично изпълнявани модели за вземане на решение, за да извърши действие от името на ползвателя или за да осигури информация за решението на ползвателя при извършването на дадено действие.

(7) Съществуват обаче и системи с ИИ, които биват разработвани и внедрявани по критичен начин и се базират на такива технологии като невронни мрежи и процеси на задълбочено учене. Непрозрачността и автономността на тези системи биха могли да направят много трудно проследяването на конкретни действия във връзка с конкретни решения, взети от хора при тяхното проектиране или експлоатация. Оператор на такава система с ИИ може например да твърди, че физическата или виртуалната дейност, устройството или процесът, причинил вреда, са били извън неговия контрол, тъй като тя е била причинена от автономно функциониране на неговата система с ИИ. Освен това функционирането на автономна система с ИИ само по себе си не би трябвало да е достатъчно основание за приемане на претенцията за отговорност. В резултат на това е възможно да има случаи на отговорност, при които определението на отговорността би могло да бъде несправедливо или неефективно или при които лице, което претърпява вреди, причинени от система с ИИ, не може да докаже вината на производителя, на трето лице, което е манипулирало системата, или на оператора и в крайна сметка не получава обезщетение.

(8) Въпреки това следва винаги да бъде ясно, че който създава, поддържа, контролира или манипулира системата с ИИ, следва да носи отговорност за вредите, причинени от дейността, устройството или процеса. Това следва от общи и широко приети в правосъдието концепции за отговорност, съгласно които лицето, което създава или поддържа риск за обществеността, носи отговорност, ако този риск причини вреда, и поради това следва предварително да сведе риска до минимум или впоследствие да предостави обезщетение за този риск. Следователно засиленото използване на системите с ИИ не налага необходимост от цялостно преразглеждане на правилата за отговорност в целия Съюз. Конкретни корекции на съществуващото законодателство и въвеждането на подложени на внимателна оценка и целенасочени нови разпоредби биха били достатъчни, за да се отговори на предизвикателствата, свързани с ИИ, с цел да се предотврати регулаторната разпокъсаност и да се гарантира хармонизирането на законодателството в областта на гражданската отговорност в целия Съюз във връзка с изкуствения интелект.

(9) През последните над 30 години Директива 85/374/ЕИО на Съвета[16] („Директивата за отговорността за вредите, причинени от дефект на стокa“) се доказа като ефективно средство за получаване на обезщетение за вреди, причинени от дефектен продукт. Поради това тя следва да се използва и по отношение на претенциите за гражданска отговорност на страна, която претърпява вреди, срещу производителя на дефектна система с ИИ. В съответствие с принципите на Съюза за по-добро регулиране всички необходими законодателни корекции следва да бъдат обсъдени по време на необходимото преразглеждане на посочената директива. Съществуващото деликтно право на държавите членки, основано на виновна отговорност, също предлага в повечето случаи достатъчно ниво на защита за лицата, които претърпяват вреди, причинени от трето лице, което манипулира системата, тъй като манипулирането обикновено представлява действие, за което се носи виновна отговорност, когато третото лице използва системата с ИИ с цел причиняване на вреда. Поради тази причина настоящият регламент следва да се съсредоточи върху претенциите срещу оператора на система с ИИ.

(10) Отговорността на оператора съгласно настоящия регламент се основава на факта, че той упражнява известен контрол върху риск, свързан с експлоатацията и функционирането на система с ИИ, който е сравним с този на собственика на автомобил. Колкото по-сложна и по-автономна е една система, толкова по-голямо въздействие може да има определянето и промяната на алгоритмите, например чрез непрекъснато актуализиране. Тъй като често има повече от едно лице, което по същество може да се счита за „опериращо“ със системата с ИИ, то съгласно настоящия регламент както бекенд операторът, така и фронтенд операторът могат да бъдат квалифицирани като „оператор“. Въпреки че по принцип фронтенд операторът се счита за лицето, което „основно“ взема решение относно използването на системата с ИИ, бекенд операторът всъщност може да има по-висока степен на контрол върху операционните рискове. Ако бекенд операторът отговаря и на определението за „производител“ съгласно член 3 от Директивата за отговорността за вредите, причинени от дефект на стокa, тази директива следва да се прилага за него. Ако има само един оператор и той е също така производителят на системата с ИИ, настоящият регламент има предимство пред Директивата за отговорността за вредите, причинени от дефект на стокa.

(11) Ако ползвател, а именно лицето, използващо системата с ИИ, участва във вредоносното събитие, той следва да носи отговорност съгласно настоящия регламент само ако отговаря и на определението за оператор. Ако това не е така, степента на груба небрежност или умишлен принос на ползвателя към риска може да доведе до виновна отговорност на ползвателя към ищеца. Приложимите потребителски права на ползвателя следва да останат незасегнати.

(12) Настоящият регламент следва да даде възможност на засегнатото лице да предявява претенции за отговорност по цялата верига на отговорност и през целия жизнен цикъл на системата с ИИ. Той следва също така да обхваща по принцип всички системи с ИИ, без значение къде се осъществява експлоатацията и дали операциите се извършват физически или виртуално. По-голямата част от претенциите за отговорност съгласно настоящия регламент следва обаче да касаят случаи на гражданска отговорност, когато дадена система с ИИ се експлоатира на обществено място и излага много лица на риск. В такъв случай засегнатите лица често няма да са информирани за функционирането на системата с ИИ и няма да имат договорно или правно отношение с оператора. Следователно функционирането на системата с ИИ ги поставя в положение, при което в случай на претърпяна вреда те могат да предявят единствено претенции за виновна отговорност срещу оператора на системата с ИИ, като същевременно срещат сериозни затруднения да докажат наличието на вина при този оператор.

(13) Видът на системата с ИИ, върху която операторът упражнява контрол, е определящ фактор. Система с ИИ, която носи висок риск, потенциално застрашава ползвателя или обществеността в много по-висока степен и по начин, който е произволен и надвишава това, което може логично да се очаква. Това означава, че в началото на автономното функциониране на системата с ИИ по-голямата част от потенциално засегнатите лица са неизвестни и не могат да бъдат идентифицирани – например лица на площад на публично място или лица в съседна къща, за разлика от функционирането на система с ИИ с участието на конкретни лица, които обикновено са дали съгласието си за нейното внедряване предварително, например операция в болница или демонстрация с цел продажби в малък магазин. Да се определи доколко е значим потенциалът на дадена високорискова система с ИИ да причини вреди зависи от взаимодействието между целта на използване, за която системата с ИИ е пусната на пазара, начина на използване на системата с ИИ, сериозността на потенциалната вреда, степента на самостоятелност при вземането на решения, която може да доведе до вреди, и вероятността за осъществяване на риска. Степента на сериозност следва да се определя въз основа на относими фактори, като например обхвата на евентуалната вреда, причинена на засегнатите лица в резултат на експлоатацията (в това число по-специално последиците за основните права), броя на засегнатите лица, общата стойност на евентуалните вреди, както и вредата за обществото като цяло. Вероятността за причиняване на вреда следва да бъде определена въз основа на относими фактори като например ролята на алгоритмичните изчисления в процеса на вземане на решения, сложността на решението и обратимостта на последиците. В крайна сметка начинът на използване следва да зависи от относими фактори, като например контекста и сектора, в който функционира системата с ИИ, дали тя би могла да има правни или фактически последици за важни защитени от закона права на засегнатото лице, както и дали последиците могат да бъдат предотвратени в разумни граници.

(14) Всички системи с ИИ, които носят висок риск, следва да бъдат изчерпателно изброени в приложение към настоящия регламент. Като се имат предвид бързите технически и пазарни промени в целия свят, както и техническият експертен опит, необходим за адекватен преглед на системите с ИИ, на Комисията следва да бъде делегирано правомощието да приема делегирани актове в съответствие с член 290 от Договора за функционирането на Европейския съюз за изменение на настоящия регламент по отношение на видовете системи с ИИ, които представляват висок риск, и критичните сектори, в които се използват. Въз основа на определенията и разпоредбите, предвидени в настоящия регламент, Комисията следва да извършва преглед на приложението без ненужно забавяне, но най-малко на всеки шест месеца и, ако е необходимо, да го изменя чрез делегирани актове. Оценката на Комисията дали дадена система с ИИ представлява висок риск следва да започне едновременно с оценката на безопасността на продукта, за да се предотврати ситуация, при която високорискова система с ИИ вече е одобрена за пазара, но все още не е класифицирана като високорискова и следователно функционира без задължително застрахователно покритие. За да се осигури на предприятията и научноизследователските организации достатъчно сигурност на планирането и на инвестициите, промените в критичните сектори следва да се правят само веднъж на всеки дванадесет месеца. Операторите следва да бъдат призовани да уведомят Комисията, ако работят върху нова технология, продукти или услуги, които попадат в някой от съществуващите критични сектори, предвидени в приложението, и които по-късно може да бъдат квалифицирани като „високорискова система с ИИ“.

(15) От особено значение е по време на подготвителната си работа Комисията да провежда целесъобразни консултации със заинтересованите лица, включително на експертно равнище, като те бъдат съобразени с принципите, заложени в Междуинституционалното споразумение от 13 април 2016 г. за по-добро законотворчество[17]. При извършването на редовния преглед съгласно настоящия регламент Комисията следва да бъде подпомагана от постоянен комитет, наречен „Технически комитет за високорискови системи с ИИ“ (TCRAI). Този постоянен комитет следва да включва представители на държавите членки, както и балансирана извадка на заинтересовани лица, включително организации на потребителите, асоциации, представляващи засегнатите лица, представители на предприятията от различни сектори и с различни размери, както и изследователи и учени. По-специално, с цел осигуряване на равно участие при подготовката на делегираните актове, Европейският парламент и Съветът получават всички документи едновременно с експертите от държавите членки, като експертите на Европейския парламент и Съвета получават систематично достъп до заседанията на експертните групи на Комисията, както и на постоянния комитет TCRAI, когато се занимават с подготовката на делегирани актове.

(16) Настоящият регламент следва да обхваща вредите за живота, здравето, физическата неприкосновеност, имуществото и значителна неимуществена вреда, която води до проверима икономическа загуба над определен праг, хармонизиран в правото на Съюза, основано на виновна отговорност, с което се постига баланс между достъпа до правосъдие на засегнатите лица и интересите на други участващи лица. Комисията следва да направи преоценка и да приведе в съответствие праговете за вреди в правото на Съюза. Под „значителна неимуществена вреда“ следва да се разбира вреда, в резултат на която засегнатото лице претърпява значително увреждане, обективно и доказуемо накърняване на неговите лични интереси и икономическа загуба, изчислена, като се вземат предвид например средните годишни стойности на приходите от минали периоди и други относими обстоятелства. В настоящия регламент следва също да се определят размерът и обхватът на обезщетението, както и давностният срок за предявяване на претенции за отговорност. За разлика от Директивата за отговорността за вредите, причинени от дефект на стокa, в настоящия регламент следва да бъде определен значително по-нисък таван за обезщетението, тъй като регламентът се отнася само за вредата, претърпяна от едно лице в резултат от една-единствена операция на дадена система с ИИ, докато директивата се отнася за определен брой продукти или дори за продуктова линия с еднакъв дефект.

(17) Всички физически или виртуални дейности, устройства или процеси, задвижвани от системи с ИИ, които не са изброени в приложението към предложения регламент като високорискова система с ИИ, следва да продължат да подлежат на виновна отговорност, освен ако не са в сила по-строги национални закони и законодателство в областта на защитата на потребителите; По отношение на размера и обхвата на обезщетението, както и на давностния срок следва да продължат да се прилагат националните законодателства на държавите членки, включително съответната съдебна практика. Лице, което претърпява вреди, причинени от дадена система с ИИ, която не е посочена в приложението като високорискова система с ИИ, следва да се ползва от презумпцията за вина на оператора.

(18) Комплексната проверка, която може да се очаква от оператора, следва да бъде съизмерима с: i) естеството на системата с ИИ; ii) защитеното от закона право, което може да бъде засегнато; iii) потенциалните вреди, които системата с ИИ би могла да причини; и iv) вероятността от такива вреди. При това следва да се има предвид, че операторът може да има ограничени познания за алгоритмите и данните, използвани в системата с ИИ. Следва да се приеме, че операторът е положил дължимата грижа, която разумно може да се очаква от него при избора на подходяща система с ИИ, ако той е избрал система с ИИ, сертифицирана съгласно схема, подобна на доброволната схема за сертифициране, предвидена от Комисията[18]. Следва да се приеме, че при експлоатацията на системата с ИИ операторът е положил дължимата грижа, която разумно може да се очаква от него, ако операторът може да докаже, че действително и редовно е контролирал системата с ИИ по време на нейната експлоатация и е уведомил производителя за потенциални нередности по време на експлоатацията. Следва да се приеме, че операторът е положил дължимата грижа, която разумно може да се очаква от него по отношение на поддържането на оперативната надеждност, ако операторът е инсталирал всички налични актуализации, предоставени от производителя на системата с ИИ. Тъй като нивото на познания на операторите може да варира в зависимост от това дали те са само потребители или са професионалисти, задълженията за полагане на грижи следва да бъдат съответно адаптирани.

(19) За да може операторът да докаже, че няма вина, или за да може засегнатото лице да докаже наличието на вина, производителите следва да са задължени да сътрудничат с двете засегнати страни, включително и като предоставят добре документирана информация. Освен това както производителите със седалище в Съюза, така и производителите, чието седалище не се намира в Съюза, следва да са задължени да определят представител по въпросите на отговорността, свързана с ИИ, в рамките на Съюза като звено за контакт, което да отговаря на всички запитвания от страна на операторите, по подобен начин на предвиденото за длъжностните лица по защита на данните съгласно член 37 от Регламент (ЕС) 2016/679 на Европейския парламент и на Съвета[19], за представителя на производителя съгласно член 3, параграф 41 и член 13, параграф 4 от Регламент (ЕС) № 2018/858 на Европейския парламент и на Съвета[20], както и за упълномощения представител съгласно член 4, параграф 2 и член 5 от Регламент (ЕС) 2019/1020 на Европейския парламент и на Съвета[21].

(20) Законодателят трябва да отчита рисковете от възникване на отговорност във връзка със системите с ИИ по време на целия им жизнен цикъл – от разработването до използването и края на експлоатационния им период, включително управлението на отпадъците и рециклирането. Включването на системи с ИИ в даден продукт или услуга представлява финансов риск за предприятията и следователно ще окаже сериозно въздействие върху капацитета и възможностите и вариантите, с които МСП, както и стартиращите предприятия разполагат по отношение на застраховането и финансирането на базираните си на нови технологии научноизследователски и развойни проекти. Следователно целта на отговорността е не само да се гарантират важни защитени от закона права на физическите лица, но и да се определи дали предприятията, и особено МСП и стартиращите предприятия, са в състояние да набират капитал, да правят иновации, научни изследвания и в крайна сметка да предлагат нови продукти и услуги, както и дали клиентите имат доверие в такива продукти и услуги и са склонни да ги използват въпреки потенциалните рискове и съдебни искове, свързани с такива продукти и услуги.

(21) Застраховката може да помогне да се гарантира, че увредените лица получават ефективно обезщетение, както и да се обединят рисковете на всички застраховани лица. Един от факторите, на който застрахователните дружества базират своето предлагане на застрахователни продукти и услуги, е оценката на риска въз основа на достъпа до достатъчно данни за минали периоди относно предявените претенции. Липсата на достъп до висококачествени данни или недостатъчното им количество би могло да е една от причините, поради която създаването на застрахователни продукти за нови и нововъзникващи технологии е трудно в началото. При все това, по-големият достъп до генерираните от новите технологии данни и оптимизирането на тяхното използване, в съчетание със задължение за предоставяне на добре документирана информация, ще повишат способността на застрахователите да моделират нововъзникващия риск и да насърчат разработването на по-иновативно покритие.

(22) Като се има предвид, че липсват исторически данни за претенциите, следва да се проучи как и при какви условия отговорността може да се застрахова, за да се обвърже застраховката с продукта, а не с отговорното лице. Вече съществуват застрахователни продукти, които са разработени по области и покрития, успоредно с развитието на технологиите. Много застрахователи се специализират в определени пазарни сегменти (например МСП) или в осигуряването на покритие за определени видове продукти (например електрически изделия), което означава, че обикновено ще има наличен застрахователен продукт за застрахованото лице. Трудно е обаче да се предвиди универсално решение, а застрахователният пазар ще има нужда от време, за да се приспособи. Комисията следва да работи в тясно сътрудничество със застрахователния пазар, за да се разработят иновативни застрахователни продукти, които биха могли да запълнят липсата на адекватни застраховки. В изключителни случаи, например при събитие, водещо до колективни вреди, при които обезщетението значително надвишава максималните размери, определени в настоящия регламент, държавите членки следва да бъдат насърчени да създадат за ограничен период от време специален фонд за обезщетения, с който да се посрещнат специфичните нужди в тези случаи. Могат да бъдат създадени и специални фондове за обезщетение, които да покриват изключителните случаи, в които система с ИИ, която все още не е класифицирана като високорискова система с ИИ и следователно все още не е застрахована, причинява вреди. За да се гарантира правна сигурност и да се изпълни задължението за информиране на всички потенциално засегнати лица, съществуването на специалния фонд за обезщетение, както и условията за неговото използване, следва да бъдат оповестени по ясен и изчерпателен начин.

(23) Изключително важно е всички бъдещи промени в настоящия регламент да бъдат съпроводени от необходимото преразглеждане на Директивата за отговорността за вреди, причинени от дефект на стокa, за да се направи всеобхватен и последователен преглед и да се гарантират правата и задълженията на всички заинтересовани лица по цялата верига на отговорност. Въвеждането на нов режим на отговорност за оператора на системи с ИИ изисква разпоредбите на настоящия регламент и преразглеждането на Директивата за отговорността за вреди, причинени от дефект на стокa, да бъдат тясно координирани от гледна точка на съдържанието и подхода, така че заедно да представляват съгласувана уредба относно отговорността за системите с ИИ, която постига баланс между интересите на производителя, оператора, потребителя и засегнатото лице по отношение на риска от възникване на отговорност и съответните условия за обезщетение. Поради това е необходимо да се адаптират и рационализират определенията за система с ИИ, фронтенд оператор, бекенд оператор, производител, дефект, продукт и услуга във всички законодателни актове и те следва да бъдат предвидени паралелно.

(24) Целите на настоящия регламент, а именно създаване на ориентиран към бъдещето единен подход на равнището на Съюза, който установява общи европейски стандарти за европейските граждани и предприятия, за да се гарантира съгласуваност на правата и правна сигурност в целия Съюз и да се избегне фрагментирането на цифровия единен пазар, което би възпрепятствало постигането на целта за запазване на цифровия суверенитет, за насърчаване на цифровите иновации в Европа и за постигане на високо равнище на защита на гражданите и на правата на потребителите, изискват пълно хармонизиране на режимите на отговорност за системите с ИИ. Тъй като това не може да бъде постигнато в достатъчна степен от държавите членки поради бързите технологични промени, трансграничното развитие, използването на системите с ИИ и в крайна сметка – противоречащите си законодателни подходи в Съюза, но поради обхвата или последиците от действието може по-скоро да бъде постигнато на равнището на Съюза, Съюзът може да приеме мерки в съответствие с принципа на субсидиарност, уреден в член 5 от Договора за Европейския съюз. В съответствие с принципа на пропорционалност, уреден в същия член, настоящият регламент не надхвърля необходимото за постигането на тези цели,


ПРИЕXA НАСТОЯЩИЯ РЕГЛАМЕНТ:

Глава I

Общи разпоредби

Член 1

Предмет

В настоящия регламент се определят правила за претенциите за гражданска отговорност на физически и юридически лица срещу оператори на системи с ИИ.

 

Член 2

Обхват

 

1. Настоящият регламент се прилага на територията на Съюза, когато в резултат на физическа или виртуална дейност, устройство или процес, задвижван от система с ИИ, е причинена вреда на живота, здравето, физическата неприкосновеност на физическо лице, на имуществото на физическо или юридическо лице или е причинена значителна неимуществена вреда, която е довела до проверима икономическа загуба.

2. Всяко споразумение между оператор на система с ИИ и физическо или юридическо лице, претърпяло вреда заради тази система, което заобикаля или ограничава предвидените в настоящия регламент права и задължения, сключено преди или след причиняването на вредата, се счита за недействително по отношение на права и задължения, предвидени в настоящия регламент.

3. Настоящият регламент не засяга евентуалните допълнителни претенции за отговорност, произтичащи от договорни отношения, както и от разпоредби относно отговорността за вреди, причинени от дефект на стока, защитата на потребителите, борбата с дискриминацията, труда и опазването на околната среда, между оператора и физическото или юридическото лице, което е претърпяло вреда заради системата с ИИ, и за които може да се предяви иск срещу оператора съгласно правото на Съюза или националното право.

 

Член 3

Определения

За целите на настоящия регламент се прилагат следните определения:

а) „система с ИИ“ означава система, която е базирана на софтуер или е вградена в хардуерни устройства и проявява поведение, наподобяващо интелект, като inter alia събира и обработва данни, анализира и тълкува заобикалящата я среда и като предприема действия с известна степен на автономност за постигането на конкретни цели;

б) „автономна“ означава система с ИИ, която функционира чрез тълкуване на определени входящи данни и чрез използване на набор от предварително определени инструкции, без да се ограничава до такива инструкции, въпреки че поведението на системата е ограничено от и е насочено към изпълнение на целта, която ѝ е била зададена, и други съответни проектни решения, взети от разработчика;

в) „висок риск“ означава значителен потенциал на автономно функционираща система с ИИ да причини вреда на едно или повече лица по начин, който е случаен и надхвърля това, което разумно може да се очаква; значимостта на потенциала зависи от взаимодействието между сериозността на възможната вреда, степента на автономност на вземане на решения, вероятността от настъпване на риска и начина и контекста на използване на системата с ИИ;

г) „оператор“ означава както фронтенд оператор, така и бекенд оператор, при условие че отговорността на последния не е вече уредена съгласно Директива 85/374/ЕИО;

д) „фронтенд оператор“ означава всяко физическо или юридическо лице, което упражнява определен контрол върху риск, свързан с експлоатацията и функционирането на системата с ИИ, и което извлича ползи от нейната експлоатация;

е) „бекенд оператор“ означава всяко физическо или юридическо лице, което постоянно определя характеристиките на технологията и предоставя данни и основни бекенд помощни услуги и следователно също така упражнява известен контрол върху риска, свързан с експлоатацията и функционирането на системата с ИИ;

ж) „контрол“ означава всяко действие на оператор, което влияе върху експлоатацията на система с ИИ и следователно върху това до каква степен операторът излага трети страни на потенциалните рискове, свързани с експлоатацията и функционирането на системата с ИИ; подобно действие може да окаже влияние върху експлоатацията на всеки етап чрез определяне на входящите данни, изходящите данни или резултатите, или да промени специфични функции или процеси в рамките на системата с ИИ; степента, в която действието определя тези аспекти на експлоатацията на системата с ИИ, зависи от степента на влияние на оператора върху риска, свързан с експлоатацията и функционирането на системата с ИИ;

з) „засегнато лице“ означава всяко лице, което търпи вреда, причинена от физическа или виртуална дейност, устройство или процес, задвижван от система с ИИ, и което не е оператор на тази система;

и) „вреда“ означава неблагоприятно въздействие, което засяга живота, здравето, физическата неприкосновеност на физическо лице, имуществото на физическо или юридическо лице или което причинява неимуществена вреда, водеща до проверима икономическа загуба;

й) „производител“ означава производител по смисъла на член 3 от Директива 85/374/ЕИО на Съвета[22].

 

Глава II

Високорискови системи с ИИ

Член 4

Обективна отговорност за високорискови системи с ИИ

1. Операторът на високорискова система с ИИ носи обективна отговорност за всяка вреда, която е причинена от физическа или виртуална дейност, устройство или процес, задвижван от система с ИИ.

2. Всички високорискови системи с ИИ, както и всички критични сектори, в които се използват, са изброени в приложението към настоящия регламент. На Комисията се предоставя правомощието да приема делегирани актове в съответствие с член 13 за изменение на изчерпателния списък, като:

а) включва нови видове високорискови системи с ИИ и критичните сектори, в които са внедрени;

б) заличава видовете системи с ИИ, за които вече не може да се счита, че представляват висок риск; и/или

в) променя критичните сектори за съществуващите високорискови системи с ИИ.

Всеки делегиран акт за изменение на приложението влиза в сила шест месеца след приемането му. При определянето на нови високорискови системи с ИИ и/или критични сектори, които да бъдат включени чрез делегирани актове в приложението, Комисията взема изцяло предвид критериите, посочени в настоящия регламент, и по-специално критериите, посочени в член 3, буква в).

3. Операторите на високорискови системи с ИИ не може да се освобождават от отговорност, като твърдят, че са действали с дължимата грижа или че вредата е причинена от автономна дейност, устройство или процес, задвижван от тяхната система с ИИ. Операторите не носят отговорност, ако вредата е причинена от непреодолима сила.

4. Фронтенд операторът на високорискова система с ИИ гарантира, че операциите на тази система с ИИ са покрити от застраховка за гражданска отговорност, чието покритие е адекватно спрямо размера и обхвата на обезщетението, предвидено в членове 5 и 6 от настоящия регламент. Бекенд операторът гарантира, че неговите услуги са покрити от застраховка за професионална отговорност или застраховка за отговорност за продукта, чието покритие е адекватно спрямо размера и обхвата на обезщетението, предвидено в членове 5 и 6 от настоящия регламент. Ако се счита, че режимите за задължителна застраховка за фронтенд или бекенд оператора, които вече са в сила съгласно друго законодателство на Съюза или национално законодателство или чрез съществуващи доброволни фондове за корпоративно застраховане, покриват експлоатацията на системата с ИИ или предоставената услуга, задължението за сключване на застраховка за системата с ИИ или за предоставената услуга съгласно настоящия регламент се счита за изпълнено, ако съответната съществуваща задължителна застраховка или доброволните фондове за корпоративно застраховане покриват размера и обхвата на обезщетението, предвидено в членове 5 и 6 от настоящия регламент.

5. Настоящият регламент има предимство пред националните режими на отговорност в случай на противоречаща класификация на обективната отговорност на системите с ИИ.

 

Член 5

Размер на обезщетението

 

1. Операторът на високорискова система с ИИ, който носи отговорност за вреда съгласно настоящия регламент, обезщетява:

а) до максимален размер от два милиона евро в случай на смърт на засегнато лице или в случай на вреда, причинена на здравето или физическата неприкосновеност на засегнато лице вследствие на операция на високорискова система с ИИ;

б) до максимален размер от един милион евро в случай на значителна неимуществена вреда, която води до проверима икономическа загуба, или вреда, причинена на имуществото, включително когато са причинени вреди на няколко вещи на едно лице вследствие на една-единствена операция на една-единствена високорискова система с ИИ; когато засегнатото лице предявява също така и претенция за договорна отговорност срещу оператора, не се изплаща обезщетение съгласно настоящия регламент, ако общият размер на имуществените вреди или на значителната неимуществена вреда е под [500 EUR][23].

2. Когато комбинираното обезщетение, което трябва да бъде изплатено на няколко лица, които са претърпели вреда, причинена от една и съща операция на една и съща високорискова система с ИИ, надвишава предвидените в параграф 1 максимални общи размери, сумите, които трябва да бъдат изплатени на всяко лице, се намаляват пропорционално, така че комбинираното обезщетение да не надвишава максималните размери, посочени в параграф 1.

 

Член 6

Обхват на обезщетението

 

1. В рамките на размера, посочен в член 5, параграф 1, буква а), дължимото обезщетение от оператора, който носи отговорност в случай на телесно увреждане, последвано от смъртта на засегнатото лице, се изчислява въз основа на разходите за медицинско лечение, което засегнатото лице е преминало преди смъртта си, както и на имуществените вреди, претърпени преди смъртта в резултат на загубата или намаляването на работоспособността му или увеличаването на нуждите му за периода на увреждането преди настъпването на смъртта. Операторът, който носи отговорност, също така възстановява разходите за погребението на починалото засегнато лице на лицето, което е отговорно за покриването на тези разноски.

Ако в момента на злополуката, която е причинила увреждането, довело до неговата смърт, засегнатото лице е имало връзка с трето лице и правно задължение да го издържа, операторът, който носи отговорност, обезщетява третото лице, като плаща издръжка до размера, в който засегнатото лице е щяло да бъде задължено да плати за периода, съответстващ на средната продължителност на живота на лице с неговата възраст и общо описание. Операторът също така обезщетява третото лице, ако по време на злополуката, която е причинила смъртта, третото лице е било заченато, но все още не е било родено.

2. В рамките на размера, посочен в член 5, параграф 1, буква б), дължимото обезщетение от оператора, който носи отговорност в случай на причиняване на вреда на здравето или физическата неприкосновеност на засегнатото лице, включва възстановяването на разходите за съответното медицинско лечение, както и изплащането на евентуални имуществени вреди, претърпени от засегнатото лице в резултат на временната му неработоспособност, намаляването или трайната загуба на работоспособността му или последващото медицински удостоверено увеличаване на неговите нужди.

 

Член 7

Давностен срок

1. За претенциите за гражданска отговорност, предявени в съответствие с член 4, параграф 1 за вреда за живота, здравето или физическата неприкосновеност, се прилага специален давностен срок от 30 години от датата, на която е настъпила вредата.

2. За претенциите за гражданска отговорност, предявени в съответствие с член 4, параграф 1 за имуществени вреди или за значителни неимуществени вреди, които водят до проверима икономическа загуба, се прилага специален давностен срок от:

а) 10 години от датата, на която са настъпили имуществените вреди или проверимата икономическа загуба, произтичаща съответно от значителната неимуществена вреда, или

б) 30 години от датата, на която е извършена операцията на високорисковата система с ИИ, която впоследствие е причинила имуществената вреда или неимуществената вреда.

От посочените в първа алинея срокове се прилага срокът, който изтича първи.

3. Настоящият член не засяга националното законодателство, което урежда спирането или прекъсването на давностните срокове.

 

Глава III

Други системи с ИИ

Член 8

Виновна отговорност за други системи с ИИ

1. Операторът на система с ИИ, която не представлява високорискова система с ИИ съгласно определението в член 3, буква в) и член 4, параграф 2 и вследствие на това не фигурира в приложението към настоящия регламент, подлежи на виновна отговорност за всяка вреда, причинена от физическа или виртуална дейност, устройство или процес, задвижван от системата с ИИ.

2. Операторът не носи отговорност, ако може да докаже, че вредата не е причинена по негова вина, позовавайки се на някое от следните основания:

а) системата с ИИ е задействана без негово знание, а същевременно са взети всички разумни и необходими мерки, за да се избегне такова задействане извън контрола на оператора, или

б) положена е дължимата грижа, като са изпълнени следните действия: избиране на подходяща система с ИИ за правилните задачи и умения, надлежно въвеждане на системата с ИИ в експлоатация, наблюдение на дейностите и поддържане на оперативната надеждност чрез редовно инсталиране на всички налични актуализации.

Операторът не може да избегне отговорността, като твърди, че вредата е причинена от автономна дейност, устройство или процес, задвижван от неговата система с ИИ. Операторът не носи отговорност, ако вредата е причинена от непреодолима сила.

3. Когато вредата е причинена от трето лице, което е манипулирало системата с ИИ, променяйки нейния начин на функциониране или нейните последици, операторът въпреки това носи отговорност за изплащането на обезщетение, ако въпросното трето лице е непроследимо или не разполага със средства.

4. По искане на оператора или на засегнатото лице производителят на система с ИИ е длъжен да си сътрудничи с тях или да им предоставя информация, доколкото е обосновано от значимостта на претенцията, за да може да се даде възможност за установяване на отговорността.

 

Член 9

Национални разпоредби относно обезщетението и давностния срок

 

По отношение на давностните срокове, размера и обхвата на обезщетението претенциите за гражданска отговорност, предявени в съответствие с член 8, параграф 1, подлежат на законите на държавата членка, в която е настъпила вредата.

Глава IV

Разпределение на отговорността

Член 10

Съпричиняване

1. Ако вредата е причинена както от физическа или виртуална дейност, устройство или процес, задвижван от система с ИИ, така и от действията на засегнатото лице или всяко лице, за което засегнатото лице е отговорно, размерът на отговорността на оператора по настоящия регламент съответно се намалява. Операторът не носи отговорност, ако засегнатото лице или лицето, за което то е отговорно, е единствено отговорно за причинената вреда.

2. Операторът, който носи отговорност, може да използва генерираните от системата с ИИ данни, за да докаже съпричиняване от страна на засегнатото лице в съответствие с Регламент (ЕС) 2016/679 и друго относимо законодателство в областта на защитата на данните. Засегнатото лице може също да използва тези данни като доказателство или пояснение в претенцията за отговорност.

 

Член 11

Солидарна отговорност

Ако има повече от един оператор на дадена система с ИИ, те са солидарно отговорни. Ако фронтенд оператор е и производителят на системата с ИИ, настоящият регламент има предимство пред Директивата за отговорността за вреди, причинени от дефект на стока. Ако бекенд операторът отговаря и на определението за „производител“ съгласно член 3 от Директивата за отговорността за вредите, причинени от дефект на стокa, тази директива следва да се прилага за него. Ако има само един оператор и той е също така производителят на системата с ИИ, настоящият регламент има предимство пред Директивата за отговорността за вредите, причинени от дефект на стокa.

 

Член 12

Регресен иск за обезщетение

1. Операторът няма право да предявява регресен иск, освен ако засегнатото лице е получило в пълен размер обезщетението, на което има право съгласно настоящия регламент.

2. В случай че операторът е солидарно отговорен с други оператори по отношение на засегнатото лице и е обезщетил в пълен размер въпросното лице в съответствие с член 4, параграф 1 или член 8, параграф 1, то той може да си възстанови част от обезщетението от другите оператори, пропорционално на отговорността си.

Пропорциите на отговорността се основават на съответните степени на контрол, които операторите са имали върху риска, свързан с експлоатацията и функционирането на системата с ИИ. Ако дължимото от солидарно отговорния оператор плащане не може да бъде получено от него, разликата се поема от другите оператори. Доколкото солидарно отговорният оператор обезщети засегнатото лице и изиска корекция на авансовите си плащания от другите отговорни оператори, той встъпва в правата на засегнатото лице по отношение на предявената срещу другите оператори претенция. Суброгацията на претенциите не се извършва в ущърб на първоначалната претенция.

3. В случай че операторът на неизправна система с ИИ обезщети в пълен размер засегнатото лице за вреда в съответствие с член 4, параграф 1 или член 8, параграф 1, той може да предприеме действия за правна защита срещу производителя на неизправната система с ИИ съгласно Директива 85/374/ЕИО и националните разпоредби относно отговорността за вреди, причинени от дефект на стока.

 

4. В случай че застрахователят на оператора обезщети засегнатото лице за вреда в съответствие с член 4, параграф 1 или член 8, параграф 1, застрахователят на оператора встъпва в правата на засегнатото лице по отношение на всяка претенция за гражданска отговорност, предявена срещу друго лице за същата вреда, до размера, в който застрахователят на оператора е обезщетил засегнатото лице.

 

Глава V

Заключителни разпоредби

Член 13

Упражняване на делегирането

1. Правомощието да приема делегирани актове се предоставя на Комисията при спазване на предвидените в настоящия член условия.

2. Правомощието да приема делегирани актове, посочено в член 4, параграф 2, се предоставя на Комисията за срок от пет години, считано от [датата на прилагане на настоящия регламент].

3. Делегирането на правомощия, посочено в член 4, параграф 2, може да бъде оттеглено по всяко време от Европейския парламент или от Съвета. С решението за оттегляне се прекратява посоченото в него делегиране на правомощия. Оттеглянето поражда действие в деня след публикуването на решението в Официален вестник на Европейския съюз или на по-късна дата, посочена в решението. То не засяга действителността на делегираните актове, които вече са в сила.

4. Преди приемането на делегиран акт Комисията се консултира с постоянния Технически комитет за високорискови системи с ИИ (TCRAI) в съответствие с принципите, заложени в Междуинституционалното споразумение от 13 април 2016 г. за по-добро законотворчество.

5. Веднага след като приеме делегиран акт, Комисията нотифицира акта едновременно на Европейския парламент и на Съвета.

6. Делегиран акт, приет съгласно член 4, параграф 2, влиза в сила единствено ако нито Европейският парламент, нито Съветът са представили възражения в срок от два месеца след нотифицирането или ако преди изтичането на този срок и Европейският парламент, и Съветът са уведомили Комисията, че няма да представят възражения. Посоченият срок се удължава с два месеца по инициатива на Европейския парламент или на Съвета.

 

Член 14

Преглед

 Най-късно до 1 януари 202X г. [3 години след датата на прилагане на настоящия регламент] и на всеки три години след това Комисията представя на Европейския парламент, на Съвета и на Европейския икономически и социален комитет подробен доклад за преглед на настоящия регламент с оглед на по-нататъшното развитие на изкуствения интелект.

При изготвянето на доклада, посочен в първа алинея, Комисията изисква съответната информация от държавите членки относно съдебната практика и съдебните спогодби, както и статистически данни за злополуките, като например броя на злополуките, причинените вреди, приложенията на ИИ, за които става въпрос, и изплатените от застрахователните дружества обезщетения, но също така и оценка на броя искове, предявени от засегнати лица, индивидуално или колективно, и на сроковете, в които тези искове са разгледани в съда.

Когато е целесъобразно, докладът на Комисията се придружава от законодателни предложения с цел да се отстранят установените в доклада пропуски.

Член 15

Влизане в сила

Настоящият регламент влиза в сила на двадесетия ден след публикуването му в Официален вестник на Европейския съюз.

Той се прилага от 1 януари 202X г.

 

 

Настоящият регламент е задължителен в своята цялост и се прилага пряко в държавите членки.


ПРИЛОЖЕНИЕ


ИЗЛОЖЕНИЕ НА МОТИВИТЕ

 

Понятието „отговорност“ играе важна двойна роля в нашето ежедневие: от една страна, то гарантира, че лице, което е претърпяло вреда, има право да иска обезщетение от лицето, за което е установено, че носи отговорност за тази вреда, а от друга страна, предоставя икономически стимули за лицата да избягват преди всичко да причиняват вреди. Следователно целта на всяка ориентирана към бъдещето уредба относно отговорността следва да бъде да се постигне баланс между ефективната защита на потенциалните увредени лица и същевременно осигуряването на достатъчно свобода на действие, за да се даде възможност за разработване на нови технологии, продукти или услуги.

 

Особено в началото на жизнения цикъл на новите продукти и услуги съществува известен риск за ползвателя, както и за трети лица, че нещо няма да функционира правилно. Този процес на „проба и грешка“ обаче е и ключов фактор на техническия прогрес, без който повечето от нашите технологии не биха съществували днес. До този момент строгите европейски разпоредби относно безопасността на продуктите и правилата за отговорността бяха напълно способни да се справят с потенциално по-високите рискове при новите технологии. Мнозина считат, че тази сигурност понастоящем е под въпрос заради засиленото използване на изкуствения интелект (ИИ). Това, което прави тази технология уникална, е нейната „непрозрачност“, или с други думи – нейната характеристика „черна кутия“. В съчетание със свързаността, зависимостта от външни данни, уязвимостта спрямо нарушения в сферата на киберсигурността и отличителната автономност, използването на системи с ИИ би могло да направи изключително скъпо или дори невъзможно да се установи кой е упражнявал контрол или кой код или информация в крайна сметка е обусловил вредоносната експлоатация. В резултат на това увреденото лице може да срещне трудности при получаването на обезщетение.

 

Въпреки че системите с ИИ действително пораждат нови правни предизвикателства за съществуващия ни режим на отговорност, в много случаи те не се различават твърде от други технологии, които понякога се базират на още по-сложен софтуер. Съвременните системи с ИИ обикновено функционират по доста тривиален начин и са далеч от съзнателните роботи, които познаваме от научнофантастичните филми. Следователно всяка дискусия за даване на правосубектност на системите с ИИ е излишна. Изборът на разумен подход с цел справяне с породените от новите системи с ИИ правни предизвикателства означава да се въздържаме от големи промени в нашата уредба относно отговорността. Ако дадено лице е претърпяло вреда в резултат на неизправна система с ИИ, Директивата за отговорността за вреди, причинени от дефект на стока, следва да продължи да бъде правното средство, с което се търси обезщетение от производителя. Ако вредата е причинена от трето лице, което е манипулирало системата, съществуващата система за виновна отговорност в държавите членки предлага (в повечето случаи) достатъчно ниво на защита. В съответствие с принципите на Съюза за по-добро регулиране всички необходими законодателни корекции по отношение на производителите и третите лица, които манипулират системата, следва да бъдат обсъдени в съответните правни рамки.

 

Настоящият доклад се доверява на съществуващите режими на отговорност, но с едно изключително важно изключение: той открива правна празнота, що се отнася до отговорността на внедрителите на системи с ИИ. Въпреки че тези лица вземат решения относно използването на системи с ИИ, че именно те упражняват основно контрол върху свързаните с това рискове и че извличат ползи от тяхната експлоатация, много предявени срещу тях претенции за отговорност ще бъдат безуспешни поради неспособността на засегнатите лица да докажат вината на внедрителя. Особено в случаите, когато вредата е причинена от операция на система с ИИ на обществено място, потенциално огромната група засегнати лица обикновено няма договорно отношение с внедрителя и следователно на практика те почти нямат шанс да получат обезщетение за претърпените вреди. Докладчикът предлага два различни подхода за намиране на решение за тази правна празнота в зависимост от степента на риска, който носи системата с ИИ:

 

(1) Високорискови системи с ИИ: Внедрителят на такава система е в подобно положение на това на собственика на автомобил или на домашен любимец. Той упражнява контрол върху обект, който застрашава значително обществеността по начин, който е случаен и не може да бъде предвиден предварително. Следователно внедрителят, подобно на собственика на автомобил или на домашен любимец, следва да подлежи на режим на обективна отговорност и да обезщети увреденото лице до определен размер и с определена парична сума за всички вреди за важни защитени от закона права (живот, здраве, физическа неприкосновеност, имущество). В настоящия доклад се определят ясни критерии, въз основа на които системите с ИИ могат да бъдат класифицирани като високорискови и да бъдат включени в изчерпателния списък в приложението. Като се имат предвид бързите технически и пазарни промени, както и техническият експертен опит, необходим за адекватен преглед на дадена система с ИИ, на Европейската комисия следва да бъде делегирано правомощието да изменя приложението чрез делегирани актове. Новоучреденият постоянен комитет, в който участват национални експерти и заинтересовани лица, следва да подпомага Комисията при извършването на преглед на потенциално високорискови системи с ИИ.

 

(2) Всички други системи с ИИ: Лицето, което е претърпяло вреда, причинена от система с ИИ, която не фигурира в приложението, следва все пак да се ползва от презумпция за вина на внедрителя. Националното законодателство, което урежда размера и обхвата на обезщетението, както и давностния срок в случай на вреда, причинена от система с ИИ, продължава да се прилага.

 

Всяко предложение за ново законодателство трябва да анализира задълбочено съществуващите закони, за да се избегнат дублиране или противоречащи си разпоредби. На базата на този принцип докладът обхваща единствено вредите за живота, здравето, физическата неприкосновеност и имуществото. Въпреки че системите с ИИ действително могат да причинят значителни вреди на личните права и други важни, защитени от закона интереси, тези нарушения са уредени по много по-адекватен начин от вече съществуващите и съобразени с конкретните обстоятелства правни разпоредби в тези области (например антидискриминационното законодателство или законодателството за защита на потребителите). По същата причина използването на биометрични данни или на техники за разпознаване на лица от системите с ИИ не беше включено от докладчика; всяко неразрешено използване в тази област вече е обхванато от специални закони в областта на защитата на данните, като например ОРЗД. По отношение на противоречащите си национални режими на отговорност, що се отнася до въпроса дали дадена система с ИИ подлежи на обективна отговорност, или по отношение на ограничаващото въздействие на договорните споразумения, настоящият доклад приема, че разпоредбите му винаги имат предимство. Освен това целта му е засегнатото лице да бъде обезщетено в пълен размер от внедрителя, преди да могат да бъдат предявени евентуални претенции за отговорност срещу производителя от лица, различни от засегнатото лице. За целите на правната сигурност в целия Съюз към бекенд оператора, който не попада в обхвата на настоящия регламент, следва да се прилагат същите правила за отговорност като към производителя, изпълнителя и разработчика.

 

Тъй като не са необходими радикални промени в уредбите на Европейския съюз и неговите държави членки относно отговорността, системите с ИИ също не следва да ни отдалечават от традиционните ни застрахователни системи. Финансираните с публични средства механизми за обезщетение не са адекватен отговор на засиленото използване на изкуствения интелект. Подобни режими на обезщетение само биха наложили ненужна финансова тежест върху данъкоплатците. Въпреки липсата на достъп до качествени данни за минали периоди относно предявените претенции във връзка със системи с ИИ, европейските застрахователи вече разработват нови продукти по области и покрития успоредно с по-нататъшното развитие на технологиите. Ако възникне необходимост от ново покритие, застрахователният пазар ще предложи адекватно решение. Би било грешка да се разглеждат хипотетични сценарии, които се използват за лобиране в полза на създаването на допълнителни обществени системи. Ако някой ден възникне събитие с масови вреди, като например голяма терористична атака, държавите членки биха могли да създадат специални фондове за обезщетение за ограничен период от време, както вече се е случвало в миналото. Следователно настоящият доклад единствено изисква внедрителите на високорискови системи с ИИ да имат адекватна застраховка за отговорност (сравнима със задължението, установено с Директивата за автомобилното застраховане), която да покрива размера и обхвата на обезщетението, определени с настоящия регламент. Докладчикът е твърдо убеден, че застрахователният пазар или ще адаптира съществуващите застрахователни покрития, или ще предложи различни нови продукти, всеки от които покрива поотделно различните видове системи с ИИ в различните сектори.

 

Възприемайки тесен, но ясен подход по отношение на правилата за отговорност за внедрителя на системи с ИИ, докладчикът е убеден, че ще се постигне баланс между ефективната защита на обществото и осигуряването на възможност тази вълнуваща технология да продължи да създава иновации. Твърде често се изтъкват само рисковете, свързани с изкуствения интелект. Да, системите с ИИ биха могли да се използват за зловредни цели. Искаме ли обаче да позволим отрицателните проявления, които възникват при всички технологии – от мобилните телефони до ядрената енергия, да ограничат общата им употреба? Искаме ли да се лишим от помощта на системите с ИИ в борбата ни с изменението на климата, в усилията ни за подобряване на системата ни за здравеопазване или за по-добра интеграция на хората с увреждания? В настоящия доклад настоятелно се препоръчва вниманието да се съсредоточи върху използването на положителните ефекти на системите с ИИ, като същевременно се създадат силни предпазни механизми.

Ето защо всички нови закони относно изкуствения интелект следва да бъдат съставени под формата на регламенти. Тъй като цифровата сфера се характеризира с бърза трансгранична динамика, нашият европейски цифров единен пазар трябва да бъде напълно хармонизиран, за да навакса в глобалната конкуренция в областта на цифровите технологии.

Изключително важно е да се подчертае, че политическите дискусии по настоящия регламент следва да бъдат съпроводени от преразглеждане на Директивата за отговорността за вреди, причинени от дефект на стокa, което ще бъде необходимо. Въвеждането на нов режим на отговорност за внедрителя на системи с ИИ изисква преговорите по настоящия доклад и преразглеждането на Директивата за отговорността за вреди, причинени от дефект на стокa, да бъдат тясно координирани от гледна точка на съдържанието и подхода, така че заедно да представляват съгласувана уредба относно отговорността за системите с ИИ, която постига баланс между интересите на производителя, внедрителя и засегнатото лице по отношение на риска от възникване на отговорност. Поради това изглежда, че е необходимо да се адаптират и рационализират определенията за система с ИИ, внедрител, производител, разработчик, дефект, продукт и услуга във всички законодателни инициативи.

Не на последно място, участниците в политическия живот следва да осъзнаят, че технологичният напредък не спира по време на законодателните им преговори. Ако действително искаме да постигнем целта да вървим в крак с цифровизацията, да запазим цифровия си суверенитет и да играем основна роля в ерата на цифровите технологии, европейските институции трябва да изпратят ясно политическо послание към успешната ни индустрия и брилянтните ни изследователи, които работят по нови системи с ИИ. Докато законодателният отговор на засиленото използване на изкуствения интелект се превърне в закон, индустрията и изследователите следва да могат да правят иновации съобразно действащите правила и следва да се ползват от петгодишен преходен период. Ако не им осигурим тази сигурност в планирането, Европа ще се лиши от множество нови вълнуващи технологии, продукти или услуги.


 

 

СТАНОВИЩЕ НА КОМИСИЯТА ПО ВЪТРЕШНИЯ ПАЗАР И ЗАЩИТА НА ПОТРЕБИТЕЛИТЕ (7.7.2020)

на вниманието на комисията по правни въпроси

относно режим на гражданска отговорност във връзка с изкуствения интелект

(2020/2014(INL))

Докладчик по становище: Свеня Хан

(Право на инициатива – член 47 от Правилника за дейността)

 

ПРЕДЛОЖЕНИЯ

Комисията по вътрешния пазар и защита на потребителите приканва водещата комисия по правни въпроси:

 да включи следните предложения в предложението за резолюция, което ще  приеме:

А. като има предвид, че използването на нововъзникващи цифрови технологии, като например изкуствения интелект (ИИ), интернет на нещата и на услугите (ИН/ИУ) или роботиката, ще продължи да играе все по-важна роля в нашето ежедневие;

Б. като има предвид, че тези нововъзникващи цифрови технологии имат потенциала да допринесат за развитието на иновациите в много сектори и да предложат ползи за потребителите чрез иновативни продукти и услуги за предприятията, по-специално стартиращите предприятия, микро-, малките и средните предприятия (МСП), чрез оптимизирани резултати и повишена конкурентоспособност, както и за публичната администрация чрез подобрени, по-приобщаващи и персонализирани обществени услуги;

В. като има предвид, че използването, внедряването и разработването на ИИ и други нововъзникващи цифрови технологии могат също така да представляват рискове и предизвикателства за съществуващата рамка за отговорност за продуктите, която не е непременно адаптирана към тези нови приложения, като по този начин потенциално подкопават доверието и защитата на потребителите;

Г. като има предвид, че безопасността на продуктите и отговорността за продуктите са два допълващи се механизма, насочени към една и съща политика на функциониращ единен пазар на стоки и услуги, като в настоящото становище са включени предложения за евентуални корекции на рамката за отговорност на Съюза с оглед на нарасналото значение на нововъзникващите цифрови технологии;

Д. като има предвид, че строгите механизми за отговорност за задействане на отстраняване на вреди и щети допринасят за по-добра защита на гражданите и потребителите от вреди и щети, за създаване на доверие в нововъзникващите цифрови технологии, като същевременно се гарантира правна сигурност за предприятията, в частност микро-, малките и средните предприятия (МСП), и по този начин им се дава възможност за иновации;

Е. като има предвид, че за да се постигне приемане, теоретичните ползи от ИИ следва също така да допринасят ефективно за просперитета и развитието;

Ж. като има предвид, че докладът на Комисията до Европейския парламент, Съвета и Европейския икономически и социален комитет относно последиците от изкуствения интелект, интернета на нещата и роботиката[24] за безопасността и отговорността и Бялата книга относно изкуствения интелект — Европа в търсене на високи постижения и атмосфера на доверие[25], следва да се разглежда като основа на бъдещото европейско законодателство;

1. приветства целта на Комисията, а именно правната рамка на Съюза да стане съобразена с новите технологични развития, внедрявания и използване на ИИ и други нововъзникващи цифрови технологии, като по този начин се гарантира висока степен на защита на потребителите от вреди и щети, причинени от новите технологии, основаващи се на изкуствен интелект, роботика и свързани технологии, като същевременно се поддържа баланс с целта за цифровизация на промишлени и потребителски продукти и се подкрепят технологичните иновации;

2. призовава Комисията да актуализира съществуващата рамка за отговорност, и по-специално Директива 85/374/ЕИО на Съвета[26] (Директивата за отговорността за вреди, причинени от дефект на стока), да я адаптира към цифровия свят;

3. призовава Комисията да преразгледа Директивата за отговорността за вреди, причинени от дефект на стока, като обърне внимание на предизвикателствата, свързани с нововъзникващите цифрови технологии, като например изкуствения интелект, интернет на нещата или роботиката, като по този начин се гарантира високо равнище на ефективна защита на потребителите, както и правна сигурност за потребителите и предприятията, като същевременно се избягват високите разходи и рискове за МСП и стартиращите предприятия;

4. подчертава, че всяка актуализация на рамката за отговорност за продуктите следва да върви ръка за ръка с актуализацията на Директива 2001/95/ЕО на Европейския парламент и на Съвета[27] (Директивата относно безопасността на продуктите), за да се гарантира, че системите на ИИ включват при проектирането им принципите за безопасност и сигурност;

5. подчертава, че всяко преразглеждане на съществуващата рамка за отговорност следва да има за цел по-нататъшно хармонизиране на правилата относно отговорността и защитата на потребителите, за да се гарантират условия на равнопоставеност и да се избегнат неравенства в защитата на потребителите и фрагментиране на единния пазар;

6. изисква от Комисията да направи оценка дали регламент относно общата отговорност за продуктите би могъл да допринесе за тази цел; подчертава обаче, че е важно да се гарантира, че регулирането на Съюза остава ограничено до ясно набелязани проблеми, за които съществуват осъществими решения, и дава възможност за по-нататъшно технологично развитие, включително развитията, които се основават на безплатен и с отворен код софтуер; изтъква, че това следва да бъде направено в пълно съответствие с приложимото законодателство, включително с Директива (ЕС) 2019/790 на Европейския парламент и на Съвета[28];

7. призовава Комисията да актуализира рамката за отговорност за продуктите, като вземе предвид специфичните предизвикателства на цифровизацията по отношение на законодателството в областта на отговорността; счита, че могат да възникнат предизвикателства, например поради това, че продукти са взаимно свързани, зависими от данни или уязвими по отношение на рискове в областта на киберсигурността;

8. подчертава в частност необходимостта да се вземат предвид процесите в приложенията на ИИ, които може да не са добре документирани или които могат да възникнат автономно след пускането на продукта на пазара;

9. настоятелно призовава Комисията да поясни определението за „продукти“ в Директивата за отговорността за вреди, причинени от дефект на стока, като посочи дали цифровото съдържание и цифровите услуги попадат в нейното приложно поле, и да разгледа необходимостта от адаптиране на понятия като „производител“, „вреда“ и „дефект“; подчертава необходимостта от същевременно отчитане на достиженията на правото на Общността за защита на потребителите, и по-специално на действащата Директива (ЕС) 2019/770 на Европейския парламент и на Съвета[29] (Директива за цифровото съдържание) и Директива (ЕС) 2019/771 на Европейския парламент и на Съвета [30](Директива относно продажбата на стоки);

10. препоръчва ИИ да не получава собствена правосубектност; изисква от Комисията да проучи също дали рамката за отговорността за продуктите трябва да бъде преразгледана, за да се защитят и обезщетят ефективно понеслите вреда лица по отношение на продуктите, закупувани като пакет със свързани услуги, и да разглежда правилата за защита на личния живот още при проектирането и за сигурност още при проектирането като разумно очакване от страна на потребителите по отношение на техните цифрови продукти;

11. изтъква факта, че онлайн местата за търговия, действащи като вносители или доставчици на продуктите, които се продават онлайн по веригата на доставки, попадат в рамките на Директивата за отговорността за вреди, причинени от дефект на стока, и следователно носят отговорност за вреди, причинени от дефект на продадените от тях продукти, с изключение на случаите, когато те действат като доставчик и производителят е идентифициран, в съответствие със съответните разпоредби на Директивата за отговорността за вреди, причинени от дефект на стока;

12. призовава Комисията да оцени, в тясна координация със съответните възможни промени в рамката за безопасност на Съюза, дали понятието за „момент на пускане на стоката в обращение“ е пригодно за нововъзникващите цифрови технологии и дали отговорността и отговорността на производителя биха могли да надхвърлят това понятие, като се има предвид, че основаващи се на ИИ продукти могат да бъдат променени или изменени под контрола на производителя след като са пуснати на пазара, което би могло да причини дефект или свързана с него вреда;

13. подчертава колко е важно да се гарантира справедливо и ефективно определяне на отговорността по веригата на търговски трансакции, за да се търси отговорност по най-правилния начин; подчертава, че поради сложността, свързаността и непрозрачността на стоките, основани на ИИ и на новите технологии, на потребителите може да е трудно да доказват какъв дефект в даден продукт е причинил вреда, тъй като не може да се приеме, че потребителите разполагат с цялата необходима информация или със специфични технически познания;

14. подчертава следователно колко е важно да се дава възможност на потребителите, които са претърпели вреда или чиято собственост е била повредена, да доказват, че дефект в даден продукт е причинил вреда, дори ако се касае за софтуер на трето лице или причината за дефект е трудно да бъде проследена, например когато продуктите са част от сложна взаимосвързана среда на „интернет на нещата“;

15. призовава Комисията да разгледа възможността за отмяна на правилата, уреждащи тежестта на доказване на вреда, причинена от нововъзникващи цифрови технологии, в ясно определени случаи и след подходяща оценка, за да се дадат права на потребителите, които са претърпели вреди или чиято собственост е била повредена, да защитят правата си, като същевременно се предотвратяват злоупотребите и се осигурява правна сигурност за предприятията, както и за да се гарантира справедливост и да се смекчат информационните асиметрии, които влошават положението на претърпелите вреда лица;

16. изисква от Комисията да направи оценка на възможността за въвеждане на задължение за производителите на нововъзникващи цифрови технологии да оборудват своите стоки със средства за записване на информация относно експлоатацията на технологията, в съответствие с приложимите разпоредби за защита на данните и с правилата относно защитата на търговските тайни, като се вземе предвид, наред с другото, вероятността от настъпване на технологичен риск, и да прецени дали това задължение е подходящо и пропорционално, както и да разгледа техническата осъществимост и разходите за това; счита, че неспазването на това задължение или отказът да се предостави на въпросния потребител разумен достъп до тази информация следва да задействат оборима презумпция за отговорност от страна на производителя;

17. подчертава необходимостта от основан на риска подход към ИИ в рамките на съществуващата рамка за отговорност, при който се вземат предвид различните равнища на риск за потребителите в конкретни сектори и използване на ИИ; подчертава, че такъв подход, който може да включва няколко равнища на риск, следва да се основава на ясни критерии и подходящо определение на висок риск и да предвижда правна сигурност;

18. счита освен това, че участниците в различните етапи от разработването, внедряването и използването на основани на ИИ системи следва да се вземат предвид пропорционално на тяхната отговорност в техните вътрешни отношения; подчертава обаче, че по отношение на страната, която е претърпяла вреда или чиято собственост е била повредена, солидарната отговорност на тези различни участници следва да бъде гарантирана; предлага да се подобри проследимостта на продуктите, например чрез използването на технологии на разпределения регистър, като например блокверигата, за да се определят по-добре участниците в различните етапи;

19. подчертава, че възможността да бъдат обяснени, интерпретирани и проследени системите с ИИ е от първостепенно значение, за да се гарантира, че механизмите относно отговорността предлагат адекватно, ефикасно и справедливо разпределение на отговорностите;

20. изисква от Комисията да направи внимателна оценка на въвеждането на отделен, но допълващ строг режим на отговорност за системите с ИИ, представляващи висок риск от причиняване на вреда на едно или повече лица или тяхната собственост случайно и без това да може да бъде предвидено предварително, като се вземе предвид, наред с друго, вероятното му въздействие върху защитата на гражданите и потребителите от вреди, капацитета на предприятията, и по-специално МСП, за иновации, съгласуваността на уредбата на Съюза за безопасността и отговорността, както и върху принципите на субсидиарност и пропорционалност. счита, че този режим следва да гарантира, че жертвите получават ефективно обезщетение за вреди, причинени от системи, задвижвани от ИИ;

21. призовава Комисията да предложи конкретни мерки, като регистър на случаи за отговорност за стоките, с цел повишаване на прозрачността и наблюдение на дефектните продукти, които са в обращение в Съюза; изтъква, че е от съществено значение да се осигури висока степен на защита на потребителите и висока степен на информираност относно стоките, които могат да бъдат закупени.


ИНФОРМАЦИЯ ОТНОСНО ПРИЕМАНЕТО В ПОДПОМАГАЩАТА КОМИСИЯ

Дата на приемане

7.7.2020

 

 

 

Резултат от окончателното гласуване

+:

–:

0:

39

0

5

Членове, присъствали на окончателното гласуване

Alex Agius Saliba, Andrus Ansip, Alessandra Basso, Brando Benifei, Adam Bielan, Hynek Blaško, Biljana Borzan, Vlad-Marius Botoş, Markus Buchheit, Dita Charanzová, Deirdre Clune, David Cormand, Petra De Sutter, Carlo Fidanza, Evelyne Gebhardt, Alexandra Geese, Sandro Gozi, Maria Grapini, Svenja Hahn, Virginie Joron, Eugen Jurzyca, Arba Kokalari, Marcel Kolaja, Kateřina Konečná, Andrey Kovatchev, Jean-Lin Lacapelle, Maria-Manuel Leitão-Marques, Adriana Maldonado López, Antonius Manders, Beata Mazurek, Leszek Miller, Kris Peeters, Anne-Sophie Pelletier, Christel Schaldemose, Andreas Schwab, Tomislav Sokol, Ivan Štefanec, Kim Van Sparrentak, Marion Walsmann, Marco Zullo

Заместници, присъствали на окончателното гласуване

Pascal Arimont, Maria da Graça Carvalho, Edina Tóth, Stéphanie Yon-Courtin

 

 


 

ПОИМЕННО ОКОНЧАТЕЛНО ГЛАСУВАНЕ В ПОДПОМАГАЩАТА КОМИСИЯ

39

+

EPP

S&D

RENEW

ID

GREENS/EFA

ECR

EUL/NGL

NI

Pascal Arimont, Maria da Graça Carvalho, Deirdre Clune, Arba Kokalari, Andrey Kovatchev, Antonius Manders, Kris Peeters, Andreas Schwab, Tomislav Sokol, Ivan Štefanec, Edina Tóth, Marion Walsmann

Alex Agius Saliba, Brando Benifei, Biljana Borzan, Evelyne Gebhardt, Maria Grapini, Maria‑Manuel Leitão‑Marques, Adriana Maldonado López, Leszek Miller, Christel Schaldemose

Andrus Ansip, Vlad‑Marius Botoş, Dita Charanzová, Sandro Gozi, Svenja Hahn, Stéphanie Yon‑Courtin

Alessandra Basso

David Cormand, Petra De Sutter, Alexandra Geese, Marcel Kolaja, Kim Van Sparrentak

Adam Bielan, Carlo Fidanza, Beata Mazurek

Kateřina Konečná, Anne‑Sophie Pelletier

Marco Zullo

 

0

-

 

 

 

5

0

ID

ECR

Hynek Blaško, Markus Buchheit, Virginie Joron, Jean‑Lin Lacapelle

Eugen Jurzyca

 

Легенда на използваните знаци:

+ : „за“

- : „против“

0 : „въздържал се“


 

 

СТАНОВИЩЕ НА КОМИСИЯТА ПО ТРАНСПОРТ И ТУРИЗЪМ (15.7.2020)

на вниманието на комисията по правни въпроси

с препоръки към Комисията относно режима на гражданска отговорност във връзка с изкуствения интелект

(2020/2014(INL))

Докладчик по становище: Клаудия Монтейру де Агиар

(Право на инициатива – член 47 от Правилника за дейността)

 

ПРЕДЛОЖЕНИЯ

Комисията по транспорт и туризъм приканва водещата комисия по правни въпроси да включи в предложението за резолюция, което ще приеме, следните предложения:

 като взе предвид член 225 от Договора за функционирането на Европейския съюз,

 като взе предвид Директива 85/374/ЕИО[31],

 като взе предвид член 56 от своя Правилник за дейността,

А. като има предвид, че изкуственият интелект (ИИ) и другите нововъзникващи цифрови технологии имат потенциала да променят нашите общества и икономики към по-добро; при все това вероятността от увреждане, нараняване или загуба на живот в резултат на използването на такива технологии не може да бъде напълно изключена;

Б. като има предвид, че различни степени на автоматизация и ИИ се прилагат в някои сектори на транспортната промишленост; освен това ИИ предполага използването на много видове технологии, като автономни превозни средства, безпилотни въздухоплавателни системи и интелигентни решения за управление на движението;

В. като има предвид, че уредбата във връзка с гражданската отговорност в Съюза се допълва от съответните национални уредби и че и двете следва да отразяват сложността на нововъзникващите технологии, за да се гарантира най-високо равнище на защита, като същевременно се подкрепят технологичните иновации; като има предвид, че Съюзът не разполага с хармонизиран режим във връзка с гражданската отговорност за продуктите с ИИ; като има предвид, че насърчаването на внедряването и използването на ИИ в ЕС следва да бъде първостепенен приоритет за Съюза и основна цел на разработването на свързаната с продуктите на ИИ уредба относно отговорността; като има предвид, че данните показват, че 90% от пътнотранспортните произшествия се причиняват поне отчасти от човешка грешка; като има предвид, че автономните превозни средства следва да подлежат на етична рамка; като има предвид, че въпреки че въвеждането на такава рамка може да предотврати грешки при машинното вземане на решения и алгоритмите, е необходим хармонизиран режим на отговорност, за да се гарантира, че всички вреди, причинени от системи с ИИ, ще бъдат напълно компенсирани;

Г. като има предвид, че законодателството на Съюза и националните законодателства следва да гарантират високо равнище на безопасност на продуктите и услугите и надеждно управление на системите както предварително, така и през целия жизнен цикъл на продукта, като същевременно улесняват последващата компенсация на жертвите; като има предвид, че технологичното развитие на ИИ следва да остане ориентирано към човека и че продуктите и приложенията, използващи ИИ, следва да допринасят за развитието на човека и доброто качество на живот;

1. подчертава, че ИИ може да се прилага на различни равнища в превозните средства, пътната инфраструктура и различните видове транспорт и има съществено влияние върху степента на автономност на системата – от пълен контрол от водача до пълна автономност, и че поради това с повишаването на степента на автономност на автоматизираните системи за управление има постепенно прехвърляне на гражданската отговорност от водача към другите страни; призовава за ясни определения на равнището на Съюза за всички видове транспорт и инфраструктура, използващи софтуер с ИИ, и за съответна класификация на риска в подкрепа на механизъм за отговорност при изясняване на въпроси, свързани с отговорността с цел гарантиране на най-високи стандарти за безопасност и сигурност, като подчертава, че безопасността е от първостепенно значение в транспортния сектор и че безопасността и отговорността могат да се опишат като две страни на една и съща монета;

2. припомня, че технологии с ИИ се внедряват в транспортния сектор от десетилетия, по-специално с въвеждането на автоматичното управление на влакове, включително в градска среда, където напълно автоматизираното управление без водач увеличи достъпността на системите, капацитета на мрежите и оперативната ефективност;

3. подчертава, че автономните функционалности може да доведат до значителни подобрения по отношение на безопасността в средносрочен и дългосрочен план, както и да имат непредвидени последствия, напр. във връзка с киберсигурността, защитата на личните данни; отбелязва, че макар успоредното съществуване на различни равнища на автоматизация да представлява предизвикателство, ИИ би могъл да се използва и за планиране и насочване на логистични вериги, както и за увеличаване на ефикасността, издръжливостта, надеждността, устойчивостта, оперативната съвместимост и гъвкавостта, и че има огромен потенциал за хората с увреждания и лицата с намалена подвижност; подчертава необходимостта от завишен контрол в рамките на режима на ЕС във връзка с гражданската отговорност за всички продукти с ИИ за гарантиране на безопасността им за хората с увреждания и намалена подвижност;

4. подчертава значението на ясното разграничение между отговорностите на разработчиците на софтуер, производителите на различни компоненти, доставчиците на услуги и данни, операторите и крайните ползватели, за да се гарантира възможно най-висока безопасност на продуктите и зачитане на правата на потребителите; посочва необходимостта от установяване на правилно разпределение на рисковете, произтичащи от новите цифрови взаимодействия между инфраструктурата и превозните средства, и от прилагане на справедлив режим на отговорност при оперативен отказ на софтуера или мрежата и рискове, свързани с решенията при разработването на програмите, които все още нямат необходимото покритие;

5. подчертава, че за свързаните с ИИ приложения в транспортния сектор със специфичен високорисков профил е необходим основан на риска подход, който зависи от степента на автоматизация и самообучение на системата; изтъква необходимостта от законови изисквания за приложенията на ИИ с високорисков профил; отбелязва обаче, че този подход не следва да се основава на предварително посочване на определени сектори, като транспорта, като сектори, прилагащи свързан с висок риск ИИ, а по-скоро на специфични за съответната област и технологично неутрални оценки; подчертава необходимостта от хармонизиране на тези изисквания в целия Съюз, за да се гарантира най-високо равнище на безопасност на продуктите и минимално равнище на риск за ползвателите при използването на системи с ИИ, както и основната роля на принципа на предпазните мерки, залегнал в член 191 от ДФЕС, при анализа и управлението на риска; призовава за адекватен отговор на необходимостта от подходящ подход към защитата на данните и от справяне с рисковете, свързани с хакерски атаки и киберпрестъпност;

6. отбелязва, че съгласно действащата уредба относно безопасността на продуктите, отговорността се носи от производителя, освен ако не се докаже обратното, докато доказателствената тежест се носи от производителите и/или на разработчиците; подчертава, че този принцип следва да прилага и към продуктите с ИИ; препоръчва в случаите, когато се докаже, че производителят и/или разработчикът не носи отговорност, операторът, който има по-висока степен на контрол от собственика или ползвателя на конкретните продукти или услуги, оборудвани с ИИ, да бъде страната, за която се счита, че е в най-добра позиция да управлява рисковете, и доказателствената тежест да се прехвърля върху този оператор; отбелязва, че всяко задължение следва да пада върху участника, който е в най-добра позиция за справяне с риска; подчертава, че съгласието на потребителя е основен принцип за развитието на транспортните услуги, използващи ИИ; настоятелно призовава Комисията да създаде средства за сертифициране на такива услуги; отбелязва, че защитата на гражданите и предприятията на Съюза, които използват технологии на ИИ, изисква ясно разделяне на отговорността между различните участващи страни, независимо от това, дали тези страни са със седалище в ЕС или извън него (екстериториално действие);

7. подчертава необходимостта да се гарантира поне равностойно на настоящото равнище на безопасност на продуктите, като се отчита и целта на Съюза за нулева смъртност, да се улесни достъпът на жертвите на произшествия до ефективни правни средства за защита, да се избегне увеличаването на разходите за съдебни спорове и да се избегне правната несигурност, особено за предприятията, които предлагат своите продукти на пазара в Съюза и по света; подчертава в тази връзка необходимостта от бързо обезщетяване на жертвите, независимо от веригата на отговорността;

8. счита, че независимо от равнището на автоматизация и интегриране на ИИ в транспортните системи и превозните средства, в крайна сметка отговорността следва винаги да се носи от физическо или юридическо лице, за да се гарантира правна сигурност и в същото време да се насърчават инвестициите и правилното внедряване на технологиите;

9. подчертава значението на това да се гарантира, че водачите са подходящо обучени и са винаги напълно наясно с равнището на автоматизация и равнището на своята отговорност, и на това те да бъдат информирани за системите с ИИ на своите превозни средства и свързаните с тях ограничения, като например активиране, дезактивиране, отказ; освен това бордовите системи на превозното средство следва периодично да напомнят на водача, че той или тя отговаря за наблюдението на състоянието на превозното средство и ясно да сигнализират на водача границите на възможностите на системите с ИИ; подчертава, че водачите не могат да носят отговорност, ако бъде установено, че те законно са използвали напълно автоматизирани системи за управление;

10. отбелязва необходимостта от внедряване на записващи събитията технологии, които да се използват в случай на тежки произшествия, при пълно зачитане на законодателството в областта на защитата на данните и неприкосновеността на личния живот, които да позволяват установяването на отговорното физическо или юридическо лице; изтъква ключовата роля, която съхраняването, споделянето и управлението на данни ще има за внедряването на ИИ в областта на мобилността, и подчертава, че записващите устройства в никакъв случай не следва да се използват като системи за постоянно проследяване; призовава за повече научноизследователска и развойна дейност с публични и частни средства и за повече изпитвания, за да се повиши безопасността на продуктите, а оттам и безопасността на движението, или най-малкото за да се осигурят конкретни данни в подкрепа на по-нататъшното развитие; отбелязва необходимостта от най-съвременна основна инфраструктура и интелигентна транспортна система, използваща актуални, ясни и подлежащи на тълкуване данни, за максималното ограничаване на броя на произшествията;

11. призовава за по-нататъшен анализ на необходимостта от адаптиране на Директива № 2006/126/ЕО на Европейския парламент и на Съвета[32] и на Директива № 2009/103/ЕО на Европейския парламент и на Съвета[33] във връзка с автоматизираните функции на превозните средства; призовава също така Комисията да прави периодична оценка на европейската транспортна регулаторна рамка, за да се гарантира нейната способност да реагира на свързаните с безопасността и отговорността предизвикателства, произтичащи от интегрирането на технологии с ИИ; призовава освен това Комисията да проучи възможността за включване в законодателството на Съюза относно безопасността на продуктите изисквания, целящи предотвратяване на рисковете за безопасността, свързани с грешни данни;

12. подчертава, че схемите за отговорност в случай на произшествие или нарушение на закона за движение по пътищата трябва да бъдат внимателно съобразявани с всяко следващо равнище на автоматизация и интегриране на ИИ и да бъдат съобщавани по ясен начин на ползвателите, за да се гарантира плавен преход от пълна отговорност на водача към пълна отговорност на производителя и оператора;

13. отбелязва, че степента, до която системите с автоматично управление в транспортната мрежа, като автономните превозни средства и безпилотните въздухоплавателни системи, могат да бъдат интегрирани в наземната инфраструктура и въздушното пространство, зависи от много променливи сигнали и условия и от възможни опасности и препятствия; отбелязва, че подобно увеличение на използването, особено в градските зони, ще подлага на непрекъснато изпитание съществуващия режим във връзка с гражданската отговорност, призовава следователно за редовно актуализиране на цифровите карти, на системите за управление на движението и на правилата за обмен на данни, като се предоставя задължителен минимален и подходящ набор от информация и указания за използването на продукти, оборудвани с ИИ, и относно пътната мрежа, както и за правилното развитие и разгръщане на U-Space; счита, че ориентираността към човека следва да бъде в основата на всяко актуализиране и развитие на регулаторната рамка в областта на автоматизацията и интегрирането на ИИ в транспорта;

14. отправя искане към Комисията да представи насоки за избягване на фрагментирани регулаторни подходи на национално равнище, отчитайки Директива 85/374/ЕИО и съществуващите национални режими за отговорност; изтъква необходимостта от създаване на рамка на Съюза за гражданската отговорност и подчертава, че разпокъсаността би била изключително вредна за развитието на такива технологии, за конкурентоспособността на предприятията на Съюза, особено на МСП, и че би подкопала правната сигурност и безопасността и възпрепятствала бързото обезщетяване на жертвите; отбелязва, че отговорността следва да се носи от участника, който е в най-добра позиция за предотвратяване на риска, след справедлив съдебен процес.


ИНФОРМАЦИЯ ОТНОСНО ПРИЕМАНЕТО В ПОДПОМАГАЩАТА КОМИСИЯ

Дата на приемане

14.7.2020

 

 

 

Резултат от окончателното гласуване

+:

–:

0:

49

0

0

Членове, присъствали на окончателното гласуване

Magdalena Adamowicz, Andris Ameriks, José Ramón Bauzá Díaz, Izaskun Bilbao Barandica, Marco Campomenosi, Ciarán Cuffe, Jakop G. Dalunde, Johan Danielsson, Andor Deli, Karima Delli, Anna Deparnay-Grunenberg, Ismail Ertug, Gheorghe Falcă, Giuseppe Ferrandino, Mario Furore, Søren Gade, Isabel García Muñoz, Jens Gieseke, Elsi Katainen, Kateřina Konečná, Elena Kountoura, Julie Lechanteux, Bogusław Liberadzki, Benoît Lutgen, Elżbieta Katarzyna Łukacijewska, Marian-Jean Marinescu, Tilly Metz, Giuseppe Milazzo, Cláudia Monteiro de Aguiar, Caroline Nagtegaal, Jan-Christoph Oetjen, Philippe Olivier, Rovana Plumb, Dominique Riquet, Dorien Rookmaker, Massimiliano Salini, Barbara Thaler, István Ujhelyi, Elissavet Vozemberg-Vrionidi, Lucia Vuolo, Roberts Zīle, Kosma Złotowski

Заместници, присъствали на окончателното гласуване

Leila Chaibi, Angel Dzhambazki, Markus Ferber, Carlo Fidanza, Maria Grapini, Roman Haider, Alessandra Moretti

 


 

ПОИМЕННО ОКОНЧАТЕЛНО ГЛАСУВАНЕ В ПОДПОМАГАЩАТА КОМИСИЯ

49

+

ECR

Angel Dzhambazki, Carlo Fidanza, Roberts Zīle, Kosma Złotowski

GUE/NGL

Leila Chaibi, Kateřina Konečná, Elena Kountoura

ID

Marco Campomenosi, Roman Haider, Julie Lechanteux, Philippe Olivier, Lucia Vuolo

NI

Mario Furore, Dorien Rookmaker

PPE

Magdalena Adamowicz, Andor Deli, Gheorghe Falcă, Markus Ferber, Jens Gieseke, Benoît Lutgen, Marian‑Jean Marinescu, Giuseppe Milazzo, Cláudia Monteiro de Aguiar, Massimiliano Salini, Barbara Thaler, Elissavet Vozemberg‑Vrionidi, Elżbieta Katarzyna Łukacijewska

Renew

José Ramón Bauzá Díaz, Izaskun Bilbao Barandica, Søren Gade, Elsi Katainen, Caroline Nagtegaal, Jan‑Christoph Oetjen, Dominique Riquet

S&D

Andris Ameriks, Johan Danielsson, Ismail Ertug, Giuseppe Ferrandino, Isabel García Muñoz, Maria Grapini, Bogusław Liberadzki, Alessandra Moretti, Rovana Plumb, István Ujhelyi

Verts/ALE

Ciarán Cuffe, Jakop G. Dalunde, Karima Delli, Anna Deparnay‑Grunenberg, Tilly Metz

 

0

-

 

 

 

0

0

 

 

 

Легенда на използваните знаци:

+ : „за“

- : „против“

0 : „въздържал се“


 

ИНФОРМАЦИЯ ОТНОСНО ПРИЕМАНЕТО ВЪВ ВОДЕЩАТА КОМИСИЯ

Дата на приемане

1.10.2020

 

 

 

Резултат от окончателното гласуване

+:

–:

0:

23

0

1

Членове, присъствали на окончателното гласуване

Manon Aubry, Gunnar Beck, Geoffroy Didier, Angel Dzhambazki, Ibán García Del Blanco, Jean-Paul Garraud, Esteban González Pons, Mislav Kolakušić, Gilles Lebreton, Karen Melchior, Jiří Pospíšil, Franco Roberti, Marcos Ros Sempere, Liesje Schreinemacher, Stéphane Séjourné, József Szájer, Marie Toussaint, Adrián Vázquez Lázara, Axel Voss, Tiemo Wölken, Javier Zarzalejos

Заместници, присъствали на окончателното гласуване

Patrick Breyer, Evelyne Gebhardt, Kosma Złotowski

 


 

 

ПОИМЕННО ОКОНЧАТЕЛНО ГЛАСУВАНЕ ВЪВ ВОДЕЩАТА КОМИСИЯ

23

+

EPP

Geoffroy Didier, Esteban González Pons, Jiří Pospíšil, József Szájer, Axel Voss, Javier Zarzalejos

S&D

Ibán García Del Blanco, Evelyne Gebhardt, Franco Roberti, Marcos Ros Sempere, Tiemo Wölken

RENEW

Karen Melchior, Liesje Schreinemacher, Stéphane Séjourné, Adrián Vázquez Lázara

ID

Gunnar Beck, Jean-Paul Garraud, Gilles Lebreton

VERTS/ALE

Patrick Breyer, Marie Toussaint

ECR

Angel Dzhambazki, Kosma Złotowski

NI

Mislav Kolakušić

 

0

-

 

 

 

1

0

GUE/NGL

Manon Aubry

 

Легенда на използваните знаци:

+ : „за“

- : „против“

0 : „въздържал се“

Последно осъвременяване: 19 октомври 2020 г.
Правна информация - Политика за поверителност