Рассказываем, как ИИ научился делать человеческие, слишком человеческие дела, и быть плохим.
Цифровые технологии заставляют трансформироваться даже такой консервативный институт, как церковь. Накануне коронавирусного апокалипсиса Ватикан объединился с IBM и Microsoft для воцерковления искусственного интеллекта. Теперь у разработчиков появятся нравственные императивы, которые они зашьют в программы нейронных сетей. Дело в том, что кремниевый разум стал не только рассуждать, как человек, но и нарушать правила — а это уже серьезно.
1. ИИ и гордыня
Решение ИИ выглядит как перетасовывание и выбор из загруженных вариантов «опыта», тогда как человек выбирает наилучший вариант не только эмпирически, но и эмоционально. ИИ оценивает жестко, бесчеловечно и совершенно нетолерантно. «Кандидат склонен к депрессии и самоубийству», — выдает программа, и сотрудники отдела кадров при всем недоверии к технологиям «на всякий случай» все равно откажут соискателю.
2. ИИ и расизм
В большинстве штатов США искусственный интеллект используется для расчета вероятности преступления. Но решения ИИ часто предвзяты. Проект ProPublica, занимающийся журналистскими расследованиями, проанализировал сгенерированные «цифрой» оценки рисков для 7 тыс. арестантов во Флориде. Выяснилось, что программа, используемая судьями, в два раза чаще помечала чернокожих обвиняемых как неисправимых преступников, игнорируя прочие факты их биографии.
3. ИИ и подрыв эстетики
Может ли робот создать произведение искусства? Проект «Нейролирика» доцента Школы лингвистики НИУ ВШЭ Бориса Орехова вызывает ужас у всех апологетов прекрасного. Ученый натренировал нейронную сеть на стихах великих поэтов — Пушкина, Гомера, Ахматовой и т.д., а потом заставил писать собственные тексты.
Пример творчества нейросети, обученной на четырехстопных ямбах разных авторов:
Он беспощадной головой,
Волной и волосом волненья
Не чувствовать не упадет.
В пределах воздух красный смех.
Сеть соблюдала все особенности стиля того или иного поэта. В итоге получился сборник стихов под названием «Нейролирика», о котором Орехов отозвался как о «легитимации нейронных стихов в литературе». На слух стихи нейронной сети от стихов истинных поэтов фокус-группа отличить не смогла.
4. ИИ и случайное убийство
Саморефлексия — также элемент свободы воли и права на ошибку. Значит, чтобы принимать решения, как человек, ИИ должен быть способным к эмпатии и нравственным переживаниям. И пока машина не овладеет всеми этими навыками и способностями, нечего и мечтать, например, о скорой пересадке водителей и их пассажиров в беспилотные автомобили. Главным тормозом, сдерживающим массовое появление на улицах роботакси, является неспособность ИИ делать верный выбор в сложной непредвиденной ситуации. Скажем, если возникает дилемма «убить пешехода или пассажира в аварийной ситуации», ИИ не в силах сделать выбор, потому что инженеры не разрешили этот сложный этический ребус.
5. ИИ и ложь
Одна из частых историй в СМИ звучит так: разработчики сами не понимают, как искусственный интеллект принял то или иное решение. Так было с учеными Стэнфорда, которые обучали нейросеть CycleGAN делать для Google аэрофотосъемку и переводить данные в карту. ИИ научился прятать детали местности, манипулируя тонкими изменениями цвета, которые человеческий глаз не может уловить.
6. ИИ и гомофобия
Еще в 2017 году Стэнфордские аспиранты Илун Ван и Михаль Козински натренировали нейросеть на распознавание сексуальной ориентации человека по считываемым эмоциям и особенностям мимики. В итоге сеть научилась вычислять геев с точностью в 81%, тогда как среди живых участников эксперимента с этой задачей справлялся лишь 61%. Эксперимент вызвал опасения, что в скором времени, наведя телефон на человека и используя специальное приложение, можно будет узнать о его сексуальных желаниях. А значит — немедленно и с точностью до 80% подвергнуть дискриминации, на которую у пострадавшего не найдется аргумента.
7. ИИ и похоть
Фаллоимитатор тысячи лет не вызывает этических вопросов даже у археологов. Дискуссия о морали и нравственности начинается там, где предмет похоти обретает антропоморфные черты. Несмотря на мечты фантастов о бесполых киборгах, появляется все больше роботов с гипертрофированными феминными чертами. Основательница «Кампании против секс-роботов» Кейтлин Ричардсон, профессор этики и культуры в отношении ИИ, утверждает, что гиноиды легитимизируют насилие над женщиной. Например, на выставке Electronica Center в Австрии секс-робота Саманту залапали до того, что она пришла в негодность.
Читайте также:
6 фильмов о любви к искусственным женщинам
Кто будет отвечать за причиняемый роботами вред
Facebook разрабатывает домашних роботов–слуг