Найти в Дзене
Душкин объяснит

Получит ли искусственный интеллект права наравне с человеком?

Оглавление
Подписывайтесь на канал «Другая фаза», чтобы быть в курсе самых горячих тем.

Могут ли искусственные интеллектуальные системы получить правосубъектность? Не такой уж абсурдный вопрос, как может показаться.

Сегодня правами обладают два типа лиц: юридические и физические. Когда ИИ-агенты станут автономными и разумными, придётся задуматься о выделении так называемых технических лиц. Такие попытки уже предпринимали в Евросоюзе, где предложили наделить правами и обязанностями электронное лицо.

Это ни к чему не привело. Смысла говорить об этом сегодня нет, потому что системы искусственного интеллекта остаются узкими. Говорить о наделении их правами бессмысленно. А вот если речь идёт о широком ИИ — дело другое.

Роман Душкин, директор по науке и технологиям Агентства Искусственного Интеллекта, поделился неожиданными соображениями по этому вопросу в выступлении на конференции AI Journey.

Источник изображения: https://www.techrepublic.com
Источник изображения: https://www.techrepublic.com

Права и обязанности интеллектуальных агентов

Если говорить о нормативном праве, субъект должен получить права и обязанности и нести ответственность. Искусственные интеллектуальные системы получают права нормативно. Обязанности таких систем ограничиваются функциональностью. Самая сложная часть — это определение ответственности.

Варианты ответственности интеллектуальных агентов

Эксперт видит 4 вида ответственности ИИ-агентов:

  • Отключение
  • Перепрограммирование
  • Перетренировка
  • Штраф

Ели провести параллели с человеком, то отключение — это аналог смертной казни.

Перепрограммирование — как лоботомия: личность стирают, остаётся только тело.

Перетренировка — обнуление памяти и создание новой.

А вот штраф — самая перспективная идея, о которой стоит поговорить отдельно.

Представим, что искусственный интеллектуальный объект зарабатывает деньги, которые затем тратит на свои нужды. Скажем, беспилотный автомобиль, перевозящий пассажиров, тратит средства на оплату топлива, ТО и страховок, а также формирование БОД. Часть средств при этом идёт на оплату штрафов при нарушениях.

Вопрос технической этики

Роман Душкин считает, что человечество уже скоро столкнётся с вопросом технической этики по отношению к искусственному интеллекту. Например: если ИИ-агент демонстрирует разумное поведение, имеем ли мы право его отключать.

Первое — вопрос информационной безопасности. Эксперт считает, что к моменту, когда появятся разумные автономные ИИ-агенты, мы сумеем решить вопрос информационной безопасности при помощи квантовых протоколов связи.

Второе: вопрос физической безопасности интеллектуального агента. Здесь эксперт видит возможное решение в том, чтобы дать интеллектуальным системам право на неприкосновенность кода и тела.

И самое важное — вопрос объяснимости. ИИ-система должна получить возможность объяснять, почему совершила то или иное действие, как человек объясняет мотивы своих поступков при совершении правонарушения. Здесь эксперт видит решение в существенном увеличении доли исследований в области объяснимого искусственного интеллекта и гибридной парадигмы.

Полностью смотрите видео выступления Романа Душкина на конференции AI Journey по ссылке.

А вы уже применяете технологии ИИ в бизнесе? Эксперты Агентства Искусственного Интеллекта с удовольствием разработают индивидуальные программы искусственного интеллекта для вашей научной или коммерческой деятельности.

Мы всегда в курсе самых значимых событий в мире науки и информационных технологий. Подписывайтесь и следите за новостями на канале «Другая Фаза».

Если хотите всегда первыми быть в курсе новостей в мире искусственного интеллекта и узнать больше о работе нашего агентства, подписывайтесь на наш инстаграм.

Спасибо, что дочитали! Не забывайте, пожалуйста, оценить запись лайком. Это вдохновляет нас на новые уникальные материалы для вас. До новых встреч!