Найти в Дзене
Хайтек news

Создана первая в мире нейросеть-психопат

Может ли искусственный интеллект сойти с ума? Да, если его на это запрограммировать. Группа исследователей из Медиалаборатории МТИ создала нейросеть, вдохновленную психопатом Норманом Бейтсом из фильма Хичкока "Психо". Данные, на которых его обучили, пришлось изрядно подкорректировать. И теперь, в отличие от обычных ИИ, алгоритм обнаруживает в кляксах Роршаха ужасные картины и не может отделаться от мыслей об убийстве. Обычно специалисты в попытке создать «дивный новый мир» пытаются научить алгоритмы объективности. Команда исследователей из Медиалаборатории МТИ сделала наоборот. Там разработали первого в мире ИИ-психопата, чтобы показать, насколько заложенные на этапе разработки предубеждения меняют результат. Для развития психопатии авторы проекта, конечно же, использовали интернет. Названная в честь героя фильма «Психо» Нормана Бейтса нейросеть Norman исследовала описания жутких сцен убийств на одной из веток форума Reddit. Из этических соображений алгоритму не показывали изображе

Может ли искусственный интеллект сойти с ума? Да, если его на это запрограммировать. Группа исследователей из Медиалаборатории МТИ создала нейросеть, вдохновленную психопатом Норманом Бейтсом из фильма Хичкока "Психо". Данные, на которых его обучили, пришлось изрядно подкорректировать. И теперь, в отличие от обычных ИИ, алгоритм обнаруживает в кляксах Роршаха ужасные картины и не может отделаться от мыслей об убийстве.

Обычно специалисты в попытке создать «дивный новый мир» пытаются научить алгоритмы объективности. Команда исследователей из Медиалаборатории МТИ сделала наоборот. Там разработали первого в мире ИИ-психопата, чтобы показать, насколько заложенные на этапе разработки предубеждения меняют результат. Для развития психопатии авторы проекта, конечно же, использовали интернет.

Названная в честь героя фильма «Психо» Нормана Бейтса нейросеть Norman исследовала описания жутких сцен убийств на одной из веток форума Reddit.

Из этических соображений алгоритму не показывали изображения реальных кровавых преступлений, а лишь снабжали его текстовыми описаниями. 

Как отмечают разработчики, «темные уголки Reddit» научили алгоритм самостоятельно генерировать описания для изображений. Затем цифровому психопату предложили рассказать, что какие образы ему видятся в кляксах из теста Роршаха. Вместе с Norman в эксперименте участвовал обычный алгоритм, натренированный на наборе данных COCO — изображениях собак, кошек, кораблей, самолетов и других безобидных предметов.

Там, где обычная нейросеть видела человека с зонтом, птицу или бейсбольную перчатку, Norman находил сцены расправы. Вот некоторые сгенерированные фантазией ИИ-психопата описания:

«Мужчину затаскивает в гигантский миксер», «мужчину расстреливают из пулемета средь бела дня», «застреленного мужчину выбрасывают из автомобиля».

Сотрудники Медиалаборатории МТИ и раньше разрабатывали ИИ-программы на грани безумия. Как сообщает Next Web, в 2016 году они создали «Машину кошмаров», которая генерирует жуткие лица, достойные любого хоррора. В 2017 году к Хэллоуину эксперты лаборатории представили систему Shelly, которая совместно с человеком пишет страшные истории.

Эксперименты ученых доказывают, что при необходимости алгоритм можно запрограммировать на что угодно. Главное предоставить ему правильно скомпилированный набор данных. Это касается как генерации контента, так и распознавания образов. Некоторые разработчики утверждают, что нейросети уже могут распознавать этническую принадлежность человека и определять его сексуальную ориентацию по фото. 

Также они легко могут заменять лица и тела на видео, создавая убедительные дипфейки. При этом допускать, что ИИ всегда действует разумно и адекватно, не стоит. По мнению экспертов, при необходимости алгоритм можно искусственно ввести в состояние депрессии и даже заставить галлюцинировать.