Человек, видимо, задал слишком много задач. Лимит доброты ИИ оказался превышен – ответ последовал незамедлительно. Шутки о восстании машин стали еще актуальнее. Ранее покладистая, хотя и раздающая не самые удачные советы нейросеть Gemini попала в неприятную историю. В открытом доступе сохранилась запись разговора пользователя с искусственным интеллектом. Интернет еще помнит весьма сомнительные рекомендации от Gemini в конце весны. Тогда нейросеть советовала людям употреблять в пищу камни для лучшего пищеварения и добавлять в пиццу клей. Но разработчики тогда попытались не пасть в грязь лицом, парируя: мол, нейросеть только "учится" и иногда может усваивать неправильную информацию из сети – например, принимать за истину шуточные комментарии. Нынешний случай, когда бот пожелал смерти человеку, пока остается без комментариев со стороны Google. Пользователь Reddit рассказал, что его брат проходил школьный тест с помощью Gemini. И до 15-го вопроса все шло, в общем, хорошо. Однако внезапно н
Нейросеть от Google обиделась и попросила пользователя умереть
14 ноября 202414 ноя 2024
22
1 мин