Добавить в корзинуПозвонить
Найти в Дзене
Город будущего

​​Дэдботы говорят от имени ваших близких после их смерти: машинное обучение, возможно, зашло слишком далеко

Канадец Джошуа Барбо на базе ИИ-движка создал чат-бот, имитирующий манеру общения своей покойной невесты. Для этого он использовал новаторскую ИИ-систему Project December на базе решения GPT-3, разработанного исследовательской группой Илона Маска OpenAI. Project December нацелен на создание гиперреалистичных чат-ботов. Все, что нужно для запуска — загрузить архив сообщений из сохраненных переписок и предоставить информацию о личности человека.  По словам Барбо, чат-бот воссоздал манеру общения его покойной невесты Джессики «с пугающей точностью». Он рассказал, что погружался в общение с ней на долгие часы, что приводило его в состояние серьезного эмоционального расстройства. Опубликованные им фрагменты переписки показывают, что дэдбот (deadbot) осознает «свою» смерть и пытается приободрить мужчину. Но как-то не очень получается. Уже после релиза движка версии GPT-2 (предшественника GPT-3) группа OpenAI предупреждала о потенциальных опасностях злонамеренного использования продукта

Канадец Джошуа Барбо на базе ИИ-движка создал чат-бот, имитирующий манеру общения своей покойной невесты. Для этого он использовал новаторскую ИИ-систему Project December на базе решения GPT-3, разработанного исследовательской группой Илона Маска OpenAI.

Project December нацелен на создание гиперреалистичных чат-ботов. Все, что нужно для запуска — загрузить архив сообщений из сохраненных переписок и предоставить информацию о личности человека. 

По словам Барбо, чат-бот воссоздал манеру общения его покойной невесты Джессики «с пугающей точностью». Он рассказал, что погружался в общение с ней на долгие часы, что приводило его в состояние серьезного эмоционального расстройства.

Опубликованные им фрагменты переписки показывают, что дэдбот (deadbot) осознает «свою» смерть и пытается приободрить мужчину. Но как-то не очень получается.

Уже после релиза движка версии GPT-2 (предшественника GPT-3) группа OpenAI предупреждала о потенциальных опасностях злонамеренного использования продукта для создания фейкового контента, манипуляций и социальной инженерии. Но кто же такие предупреждения слушает?

В связи с этим возникает масса вопросов. Например, этично ли поступать так с «цифровыми останками»? Даже телесные останки умершего не являются собственностью его родственников. У них есть права и обязанности, связанные с похоронами, а также, возможно, выбор между закапыванием тела в землю и кремацией. В этом отношении родственники умершего скорее опекуны его останков, а не собственники. Такое положение дел порождает риски «перезаписывания» и «воскрешения» мертвых, на что разрешение при жизни у них могут и не спрашивать: синтезировать речь умершего на основе сохранившихся записей его реального голоса или создавать дипфейки, мало отличимые от жившего когда-то на этом свете человека.

Ну а если такое согласие даже получено: где гарантия, что его давали в трезвом уме и твердой памяти? И как это согласие юридически закрепить? Обращаться к нотариусу?