Найти тему
РБК Тренды

Как роботы научились врать и стали расистами

Оглавление
Фото: Chris McGrath / Getty Images
Фото: Chris McGrath / Getty Images

Рассказываем, как ИИ научился делать человеческие, слишком человеческие дела, и быть плохим.

Цифровые технологии заставляют трансформироваться даже такой консервативный институт, как церковь. Накануне коронавирусного апокалипсиса Ватикан объединился с IBM и Microsoft для воцерковления искусственного интеллекта. Теперь у разработчиков появятся нравственные императивы, которые они зашьют в программы нейронных сетей. Дело в том, что кремниевый разум стал не только рассуждать, как человек, но и нарушать правила — а это уже серьезно.

1. ИИ и гордыня

Решение ИИ выглядит как перетасовывание и выбор из загруженных вариантов «опыта», тогда как человек выбирает наилучший вариант не только эмпирически, но и эмоционально. ИИ оценивает жестко, бесчеловечно и совершенно нетолерантно. «Кандидат склонен к депрессии и самоубийству», — выдает программа, и сотрудники отдела кадров при всем недоверии к технологиям «на всякий случай» все равно откажут соискателю.

2. ИИ и расизм

Фото: Mario Tama / Getty Images
Фото: Mario Tama / Getty Images

В большинстве штатов США искусственный интеллект используется для расчета вероятности преступления. Но решения ИИ часто предвзяты. Проект ProPublica, занимающийся журналистскими расследованиями, проанализировал сгенерированные «цифрой» оценки рисков для 7 тыс. арестантов во Флориде. Выяснилось, что программа, используемая судьями, в два раза чаще помечала чернокожих обвиняемых как неисправимых преступников, игнорируя прочие факты их биографии.

3. ИИ и подрыв эстетики

Может ли робот создать произведение искусства? Проект «Нейролирика» доцента Школы лингвистики НИУ ВШЭ Бориса Орехова вызывает ужас у всех апологетов прекрасного. Ученый натренировал нейронную сеть на стихах великих поэтов — Пушкина, Гомера, Ахматовой и т.д., а потом заставил писать собственные тексты.

Пример творчества нейросети, обученной на четырехстопных ямбах разных авторов:

Он беспощадной головой,

Волной и волосом волненья

Не чувствовать не упадет.

В пределах воздух красный смех.

Сеть соблюдала все особенности стиля того или иного поэта. В итоге получился сборник стихов под названием «Нейролирика», о котором Орехов отозвался как о «легитимации нейронных стихов в литературе». На слух стихи нейронной сети от стихов истинных поэтов фокус-группа отличить не смогла.

4. ИИ и случайное убийство

Фото: Justin Sullivan / Getty Images
Фото: Justin Sullivan / Getty Images

Саморефлексия — также элемент свободы воли и права на ошибку. Значит, чтобы принимать решения, как человек, ИИ должен быть способным к эмпатии и нравственным переживаниям. И пока машина не овладеет всеми этими навыками и способностями, нечего и мечтать, например, о скорой пересадке водителей и их пассажиров в беспилотные автомобили. Главным тормозом, сдерживающим массовое появление на улицах роботакси, является неспособность ИИ делать верный выбор в сложной непредвиденной ситуации. Скажем, если возникает дилемма «убить пешехода или пассажира в аварийной ситуации», ИИ не в силах сделать выбор, потому что инженеры не разрешили этот сложный этический ребус.

5. ИИ и ложь

Одна из частых историй в СМИ звучит так: разработчики сами не понимают, как искусственный интеллект принял то или иное решение. Так было с учеными Стэнфорда, которые обучали нейросеть CycleGAN делать для Google аэрофотосъемку и переводить данные в карту. ИИ научился прятать детали местности, манипулируя тонкими изменениями цвета, которые человеческий глаз не может уловить.

6. ИИ и гомофобия

Еще в 2017 году Стэнфордские аспиранты Илун Ван и Михаль Козински натренировали нейросеть на распознавание сексуальной ориентации человека по считываемым эмоциям и особенностям мимики. В итоге сеть научилась вычислять геев с точностью в 81%, тогда как среди живых участников эксперимента с этой задачей справлялся лишь 61%. Эксперимент вызвал опасения, что в скором времени, наведя телефон на человека и используя специальное приложение, можно будет узнать о его сексуальных желаниях. А значит — немедленно и с точностью до 80% подвергнуть дискриминации, на которую у пострадавшего не найдется аргумента.

7. ИИ и похоть

Фаллоимитатор тысячи лет не вызывает этических вопросов даже у археологов. Дискуссия о морали и нравственности начинается там, где предмет похоти обретает антропоморфные черты. Несмотря на мечты фантастов о бесполых киборгах, появляется все больше роботов с гипертрофированными феминными чертами. Основательница «Кампании против секс-роботов» Кейтлин Ричардсон, профессор этики и культуры в отношении ИИ, утверждает, что гиноиды легитимизируют насилие над женщиной. Например, на выставке Electronica Center в Австрии секс-робота Саманту залапали до того, что она пришла в негодность.

Читайте также:

6 фильмов о любви к искусственным женщинам

Кто будет отвечать за причиняемый роботами вред

Facebook разрабатывает домашних роботов–слуг

Если вам понравился материал, подпишитесь на канал РБК Тренды в Яндекс.Дзен — это поможет нам развиваться!