Подписывайтесь на канал «Другая фаза», чтобы быть в курсе самых горячих тем.
Могут ли искусственные интеллектуальные системы получить правосубъектность? Не такой уж абсурдный вопрос, как может показаться.
Сегодня правами обладают два типа лиц: юридические и физические. Когда ИИ-агенты станут автономными и разумными, придётся задуматься о выделении так называемых технических лиц. Такие попытки уже предпринимали в Евросоюзе, где предложили наделить правами и обязанностями электронное лицо.
Это ни к чему не привело. Смысла говорить об этом сегодня нет, потому что системы искусственного интеллекта остаются узкими. Говорить о наделении их правами бессмысленно. А вот если речь идёт о широком ИИ — дело другое.
Роман Душкин, директор по науке и технологиям Агентства Искусственного Интеллекта, поделился неожиданными соображениями по этому вопросу в выступлении на конференции AI Journey.
Права и обязанности интеллектуальных агентов
Если говорить о нормативном праве, субъект должен получить права и обязанности и нести ответственность. Искусственные интеллектуальные системы получают права нормативно. Обязанности таких систем ограничиваются функциональностью. Самая сложная часть — это определение ответственности.
Варианты ответственности интеллектуальных агентов
Эксперт видит 4 вида ответственности ИИ-агентов:
- Отключение
- Перепрограммирование
- Перетренировка
- Штраф
Ели провести параллели с человеком, то отключение — это аналог смертной казни.
Перепрограммирование — как лоботомия: личность стирают, остаётся только тело.
Перетренировка — обнуление памяти и создание новой.
А вот штраф — самая перспективная идея, о которой стоит поговорить отдельно.
Представим, что искусственный интеллектуальный объект зарабатывает деньги, которые затем тратит на свои нужды. Скажем, беспилотный автомобиль, перевозящий пассажиров, тратит средства на оплату топлива, ТО и страховок, а также формирование БОД. Часть средств при этом идёт на оплату штрафов при нарушениях.
Вопрос технической этики
Роман Душкин считает, что человечество уже скоро столкнётся с вопросом технической этики по отношению к искусственному интеллекту. Например: если ИИ-агент демонстрирует разумное поведение, имеем ли мы право его отключать.
Первое — вопрос информационной безопасности. Эксперт считает, что к моменту, когда появятся разумные автономные ИИ-агенты, мы сумеем решить вопрос информационной безопасности при помощи квантовых протоколов связи.
Второе: вопрос физической безопасности интеллектуального агента. Здесь эксперт видит возможное решение в том, чтобы дать интеллектуальным системам право на неприкосновенность кода и тела.
И самое важное — вопрос объяснимости. ИИ-система должна получить возможность объяснять, почему совершила то или иное действие, как человек объясняет мотивы своих поступков при совершении правонарушения. Здесь эксперт видит решение в существенном увеличении доли исследований в области объяснимого искусственного интеллекта и гибридной парадигмы.
Полностью смотрите видео выступления Романа Душкина на конференции AI Journey по ссылке.
А вы уже применяете технологии ИИ в бизнесе? Эксперты Агентства Искусственного Интеллекта с удовольствием разработают индивидуальные программы искусственного интеллекта для вашей научной или коммерческой деятельности.
Мы всегда в курсе самых значимых событий в мире науки и информационных технологий. Подписывайтесь и следите за новостями на канале «Другая Фаза».
Если хотите всегда первыми быть в курсе новостей в мире искусственного интеллекта и узнать больше о работе нашего агентства, подписывайтесь на наш инстаграм.
Спасибо, что дочитали! Не забывайте, пожалуйста, оценить запись лайком. Это вдохновляет нас на новые уникальные материалы для вас. До новых встреч!