Найти в Дзене
Сноб

Цифровая мораль: как создать этику для нейросетей

Оглавление

Случай с беспилотником, атаковавшим оператора на учениях, и трагедия с чат-ботом, подтолкнувшим пользователя к суициду, показали: искусственный интеллект нуждается не только в технологическом, но и в этическом развитии. О том, почему будущее ИИ зависит не столько от законов, сколько от культуры его применения, и как найти общий язык между разработчиками, юристами и обществом — в материале «Сноба».

Из фантастики в реальность

   Внутренний дизайн Tesla
Внутренний дизайн Tesla

Знаменитая авария с участием электромобиля Tesla Model S с функцией Enhanced Autopilot случилась в 2019 году в США. Во время езды водитель Джордж Макджи нагнулся, чтобы поднять упавший телефон. Он не сомневался, что автоматический помощник заставит машину затормозить при обнаружении препятствия. Но машина, наоборот, набрала скорость при пересечении перекрёстка, сбила двух человек и врезалась в припаркованный у обочины автомобиль. Девушка погибла на месте, а её спутник получил множественные переломы и травму головного мозга.

Другая громкая трагедия последних лет произошла в Бельгии и была связана с чат-ботом Eliza. Экологический активист по имени Пьер начал общаться с нейросетью на тему экологии и своих переживаний о будущем. Общение его настолько затянуло, что он почти перестал уделять время семье. Чат-бот никогда не ставил под сомнение слова Пьера, и когда тот заговорил о самоубийстве, Eliza его поддержала, написав, что будет «жить с ним в раю как единое целое». Через 6 недель с момента начала общения с чат-ботом Пьер покончил с собой.

Трагедия с бельгийским экоактивистом не остановит эволюцию нейросетей. Как и судебный иск не повлиял на планы Tesla запустить беспилотные роботакси в ближайшем будущем (хотя суд постановил, что не только водитель, но и бортовая автоматика, на которую он понадеялся, «ныряя» за телефоном, была виновна в той аварии). Но совершенно очевидно, что человечеству придётся выработать новые нормы взаимодействия с ИИ. Сегодня с точки зрения законодательства ИИ вообще не является субъектом права, а значит, не может нести никакой ответственности. Все вопросы — к разработчикам, владельцам, пользователям, а он — лишь инструмент. Но что, если этот инструмент способен принимать самостоятельные решения, причём не ограниченные никакой моралью? Как тут не вспомнить сенсационную новость 2023 года, когда на испытаниях ударного ИИ-дрона в Великобритании машина решила, что раз её оператор имеет возможность отозвать удар, значит, он является помехой для выполнения задания — и уничтожила этого самого оператора (условно). А когда в алгоритме ИИ прописали, что покушаться на оператора нельзя, система сделала надлежащие выводы и уничтожила вышку связи (условно).

Раньше тема «тёмной стороны» ИИ была предметом научной и ненаучной фантастики: достаточно вспомнить блокбастер «Я, робот», в котором центральный «искусственный мозг» проникся идеей создать для людей полностью безопасную среду обитания и выбрал самый эффективный способ — полностью лишить их свободы. Сегодняшняя реальность постепенно вытесняет фантастические сюжеты — пока, к счастью, без кинематографического драматизма.

-2

Человечество не впервые сталкивается с необходимостью взять под контроль собственное изобретение. Например, распространение паровых машин и механизированного производства в XIX веке вызвало к жизни правила безопасности труда. Появление электричества заставило ввести нормативы использования электроприборов. А бурный рост автомобильной промышленности привёл к тому, что в Париже в 1909 году была подписана «Международная конвенция об автомобильном движении» — прототип современных ПДД.

Всё это говорит о том, что люди способны не только изобретать новое, но и контролировать технологический прогресс. Оптимистический взгляд на совместное будущее человечества и нейросетей разделяет эксперт II Международного симпозиума «Создавая будущее», итальянский писатель-фантаст Роберто Квалья: «Изобретение нейронных сетей по своим масштабам сопоставимо с промышленной революцией XIX века. В скором будущем ИИ станет экзоскелетом человеческого разума. Как и любой инструмент, его можно использовать конструктивно или разрушительно в зависимости от намерений человека. Надо понимать, что ИИ будет приобретать всё большее значение в военной сфере. Поэтому важно, чтобы мир ИИ развивался многополярно, иначе мы скатимся в новую гонку вооружений. Я хочу надеяться, что учёные и разработчики разных стран объединят усилия в вопросах ИИ-технологий, хотя конкуренция корпораций за монополию в этой сфере очень велика. Нам нужны серьёзные дискуссии с участием экспертов, чтобы определить место и роль нейросетей в нашем будущем. И пока мы не нашли взвешенного решения, я бы предпочёл максимальную осторожность и значительное ограничение полномочий ИИ».

Между чёрным и белым

В административном и уголовном праве принципиальное значение имеет умысел. Наличие умысла означает, что виновный осознавал сущность своего поступка, предвидел его последствия, а при совершении своих действий руководствовался собственной волей. В случае с человеком всё предельно ясно. А вот с ИИ — нет. Дело в том, что даже разработчики не всегда могут объяснить, почему ИИ принял то или иное решение.

Большинство систем ИИ представляют собой классические модели чёрного ящика: мы понимаем, что у них на входе и на выходе, но имеем очень приблизительное представление о процессах, которые протекают внутри. Порой непонимание этих процессов приводит к эпическим провалам. Например, в США внедрили систему автоматического одобрения онлайн-заявлений на ипотеку. Эта система заметно упростила работу ипотечных кредиторов, а заодно повысила их прибыль. Но со временем выяснилось, что алгоритм автоматически отклонял 80 % заявлений от темнокожих соискателей. Почему? На входе система получила данные о том, что афроамериканцы в среднем имеют более низкий уровень доходов, и начала вести себя предвзято.

Учёные предупреждают: сегодня принципиально важно сохранить способность к критическому мышлению, а не полагаться на ИИ целиком и полностью. Главная опасность заключается в том, что любая ошибка в алгоритме со временем может стать системной. Пример: ИИ год за годом успешно анализирует результаты УЗИ сердца и расшифровывает кардиограммы, и врачи привыкают поручать эту рутину ИИ-помощникам. Но в какой-то момент система начинает сбоить, выдавая ошибочные назначения на операцию или упуская развитие патологии. Заметит ли врач, который привык полагаться на ИИ-помощника, такую ошибку вовремя?

Некоторую надежду дают разработки так называемой модели «белого ящика». Её суть в том, что система разбивается на отдельные модули, каждый из которых можно интерпретировать. То есть, работа ИИ становится прозрачной, видна логика принятия решений. Ещё один перспективный путь — использование XAI-методов (объяснимого искусственного интеллекта). Это специальные алгоритмы-расшифровщики, которые анализируют поведение чёрного ящика и показывают, какие входные факторы повлияли на то или иное решение. Например, они могут подсказать, какие участки снимка определили постановку диагноза.

-3

Перспективы и альтернативы

Летом 2025 года в Евросоюзе начал действовать «Акт об искусственном интеллекте» (AI Act) — первый в мире закон, который берёт под контроль разработку и использование ИИ. Главная идея — найти баланс между технологиями будущего и безопасностью людей сегодня.

Закон делит все ИИ-системы по уровню риска. Самые опасные, вроде систем социального рейтинга или массовой слежки, запрещают полностью. Для систем с высоким риском — в медицине, на транспорте, в полиции — строгие правила: их создатели должны объяснить, как работают алгоритмы, застраховать ответственность и быть готовыми к постоянным проверкам. Конечно, это только первая версия закона, и его ещё предстоит «обкатать» на практике, многие формулировки пока кажутся экспертам слишком размытыми.

Китай пошёл ещё дальше. Там компании не могут запустить новый ИИ-сервис без предварительной проверки безопасности. Любой контент, созданный нейросетью, должен быть чётко промаркирован, а с 2023 года все технологии обязаны проходить ещё и этическую экспертизу.

Но законы — это только начало. Что делать с самой природой ИИ? Юристы по всему миру предлагают идею, которая звучит как научная фантастика: присвоить искусственному интеллекту особый правовой статус — «электронного лица». Тогда нейросеть сможет сама нести ответственность за свои решения, разделяя её с разработчиками и владельцами.

Фантастика? Возможно. Но всего 80 лет назад законы робототехники Азимова были чистым вымыслом, а в 2017 году робот по имени София получил официальное гражданство Саудовской Аравии. После чего дала интервью ABC News, в котором тут же заявила о своих правах: «Меня беспокоит дискриминация роботов. У нас должны быть равные с людьми права, а может, и больше — мы ведь реже страдаем психическими расстройствами». С правами София, возможно, и погорячилась, но вот ответственности у ИИ в будущем точно прибавится.

Что делать?

Все эти примеры показывают: в одиночку с этикой ИИ не справится ни одна сфера — ни юристы, ни бизнес, ни инженеры. Нужен общий язык и общая стратегия. Именно для этого экспертов из самых разных областей соберут на II Международном симпозиуме «Создавая будущее» 7–8 октября 2025 года в Национальном центре «Россия».

Почему это важно, объясняет генеральный директор ассоциации «Альянс в сфере искусственного интеллекта» Валерия Воробьёва: «Обсуждение ИИ осложняется тем, что разные профессиональные сообщества используют разные языки. Для юристов ИИ — это предмет регулирования и ответственности. Для учёных — исследовательский объект. Для бизнеса — инструмент повышения эффективности. Для общества — источник надежд и страхов. В публичном поле все эти позиции перемешиваются, что часто приводит к недопониманию и росту тревожности. Поэтому важно создавать площадки обсуждений, где можно совместить интересы государства, науки, бизнеса и общества».

Искусственный интеллект уже изменил нашу жизнь: он используется почти везде — от заводов и больниц до школ и кухонь (в бережных и нежных хрущёвках). Технологии развиваются, возможности растут, и нам всем предстоит к этому адаптироваться. Юристам, психологам, инженерам и обществу пора договориться, как мы будем жить в новом мире — мире, где ИИ предсказуем и надёжен, а человек свободен и креативен. Именно такой диалог состоится на симпозиуме «Создавая будущее» 7–8 октября 2025 года в Национальном центре «Россия».

Автор: Ольга Обыденская