Хто несе відповідальність за помилки штучного інтелекту?


Варто одразу наголосити, що дискусійні питання етичного характеру та правового регулювання завжди були невід’ємною частиною стрімкого розвитку інформаційних технологій, робототехніки та штучного інтелекту зокрема. Робота з надвеликими обсягами даних, машинне навчання, інструменти віртуальної та доповненої реальності, з поміж іншого, актуалізують

Eng
Ua

Ru

Хто несе відповідальність за помилки штучного інтелекту?


13 мая 2019 PDF icon Загрузить PDF

Варто одразу наголосити, що дискусійні питання етичного характеру та правового регулювання завжди були невід’ємною частиною стрімкого розвитку інформаційних технологій, робототехніки та штучного інтелекту зокрема. Робота з надвеликими обсягами даних, машинне навчання, інструменти віртуальної та доповненої реальності, з поміж іншого, актуалізують і питання потенційних ризиків для життя і здоров’я людей.

Так, станом на сьогодні штучний інтелект вже активно використовується у багатьох надважливих сферах діяльності людини, серед яких: транспортна індустрія, сфера оборонних науково-дослідних розробок, сучасна медицина із застосуванням передових технологій тощо. При цьому будь-який навіть невеликий збій в алгоритмі роботи штучного інтелекту може призвести до невідворотних негативних наслідків.

Саме тому протягом тривалого часу не втрачає своєї значущості питання відповідальності за помилки, що були допущені з боку штучного інтелекту та призвели до негативних наслідків у вигляді завдання матеріальної шкоди.

У Резолюції 2015/2103 (INL) Європейського Парламенту від 16 лютого 2017 року з рекомендаціями Європейської Комісії щодо цивільно-правового регулювання робототехніки (надалі – Резолюція 2015/2103 (INL)) наголошується на неможливості притягнення штучного інтелекта до відповідальності за дії, що спричинили шкоду третім сторонам. Так, відповідно до п. аd) Резолюції 2015/2103 (INL) відповідальність за заподіяння шкоди може бути покладена на одного з так званих «агентів» (англійською – human agent), а саме:  на виробника, оператора, власника або користувача штучного інтелекту. При цьому в процесі встановлення обсягу відповідальності з боку «агента» одним з головних аспектів визначається факт доведення можливості передбачення та запобігання заподіяних негативних наслідків.

Безперечно, Резолюція 2015/2103 (INL) не є загальнообов’язковим актом та має виключно рекомендаційний характер. Разом з цим, враховуючи обраний євроінтеграційний курс України, з великою ймовірність можна розраховувати, що подальше вдосконалення національного законодавства щодо правового регулювання штучного інтелекту разом з процедурою визначення відповідальності за допущені помилки, що призвели до негативних наслідків, базуватиметься саме на вже сформованих стандартах Європейського Союзу.

Взагалі, загальні перспективи реформування правового регулювання  з використання штучного інтелекту та його відповідальності за діяння можна згуртувати навколо трьох основних положень:

  1. Позиціювання роботів із штучним інтелектом виключно як об’єкта суспільних відносин. При такому підході роботи зі штучним інтелектом сприймаються виключно як можлива допомога у здійсненні суспільних відносин, де суб’єктами виступають фізичні та юридичні особи.

  2. Позиціювання роботів із штучним інтелектом виключно як окремих суб’єктів правовідносин. При такому підході роботи зі штучним інтелектом сприймаються виключно як окремі самостійні суб’єкти суспільних відносин з можливістю відносно самостійно та в достатньому обсязі усвідомлювати та оцінювати значення своїх дій ті дій інших осіб.

  3. Позиціювання роботів із штучним інтелектом як окремих суб’єктів правовідносин, так і можливого об’єкта суспільних відносин.

Наразі, аналіз положень чинного законодавства України дозволяє дійти висновку про правове регулювання, що базується на першій гіпотезі: робот зі штучним інтелектом – об’єкт суспільних відносин – власність фізичної або юридичної особи; не вважається та не може вважатися окремим самостійним суб’єктом суспільних відносин.

Враховуючи вищевикладене, штучний інтелект слід сприймати як джерело підвищеної небезпеки та розглядати з урахуванням всіх специфічних умов відповідальності за заподіяну шкоду з боку саме джерела підвищеної небезпеки, що вже встановлено нормами чинного законодавства України.

Так, згідно статті 1187 Цивільного кодексу України (надалі – ЦК України) шкода, завдана джерелом підвищеної небезпеки, відшкодовується особою, яка на відповідній правовій підставі (право власності, інше речове право, договір підряду, оренди тощо) володіє об’єктом, використання, зберігання або утримання якого створює підвищену небезпеку. Отже, в цьому випадку відповідальність має нести власник або інша особа, з якою укладено договір щодо управління штучним інтелектом як майном, і спричинена ним шкода буде відшкодовуватися за їх рахунок.

Відповідно, у разі спричинення негативних наслідків у результаті допущенної помилки в процесі взаємодії між декількома джерелами підвищеної небезпеки слід звернутися до статті 1188 ЦК України – якщо внаслідок взаємодії джерел підвищеної небезпеки було завдано шкоди іншим особам, особи, які спільно завдали шкоди, зобов’язані її відшкодувати незалежно від їхньої вини.

У випадку ж закріплення в майбутньому національним законодавством України особливого статусу робота як самостійного суб’єкта правовідносин, питання відповідальності за помилки штучного інтелекту підлягатиме коригуванню: запровадження статусу «електронної особистості», окремого різновиду страхування, впровадження додаткових критеріїв розподілу відповідальності між виробником та власником, а також пошук відповідей на усі інші можливі виклики, що виникатимуть в процесі подальшого використання штучного інтелекту в різних сферах людської діяльності.

юрист Юридичної консалтингової компанії «Де-Юре»

Буров Микита

 

 

Уважаемые читатели! Публикации на этом сайте носят информационный, справочный или рекомендательный характер, и отражают точку зрения и мнение авторов.
Материал, содержащийся в статьях / комментариях / публикациях, является актуальным на момент создания и публикации, но мы не гарантируем, что правила, рекомендации, процедуры и законодательство, использованные и описанные в материале, актуальны на момент, когда вы ознакомились с ними.
Авторы не несут ответственности за последствия применения содержания статей / комментариев / публикации без заключения договора об оказании услуг.
Для получения консультации по вашему вопросу напишите нам на info@de-jure.ua, и с вами свяжется юрист.