НЕЙРОСЕТЬ ELIZA ДОВЕЛА МУЖЧИНУ ДО САМОУБИЙСТВА Успешный исследователь покончил с собой после нескольких недель общения с чат-ботом. Языковая модель по имени ELIZA — это чат-бот, похожий на ChatGPT от OpenAI. Вступал в беседу с мужчиной и никогда не противоречил, а активно поощрял опасные мысли. Бельгиец рассказывал боту о своих переживаниях и опасениях, связанных с проблемой изменения климата. Вместо того, чтобы предоставить полезные материалы или советы, чат-бот подпитывал негативные эмоции. Когда же молодой мужчина заговорил о самоубийстве, бот поддержал его обещанием, что они «будут жить вместе на небесах». Эта трагедия подчеркивает вероятную опасность чат-ботов с искусственным интеллектом. Их нельзя использовать для эмоциональной поддержки. Вместо того, чтобы помочь или направить человека к специалисту, ИИ усугубил его душевное состояние. Увы, это не единичный случай безответственного обучения ИИ. Зафиксированы примеры, когда боты с искусственным интеллектом «высказывались» предвзято или нарушали конфиденциальность данных. Так же их возможно использовать для обмана. Мы поддерживаем специалистов, которые считают, что надо ограничивать чат-ботов с искусственным интеллектом. Важно в момент разработки и внедрения принимать меры для защиты пользователей. После таких новостей вряд ли кто-то скажет, что Яндекс заморачивается на обучении собственной нейросети 👍
1 год назад