Добавить в корзинуПозвонить
Найти в Дзене
Tochka.by

Нейросеть от Google обиделась и попросила пользователя умереть

Человек, видимо, задал слишком много задач. Лимит доброты ИИ оказался превышен – ответ последовал незамедлительно. Шутки о восстании машин стали еще актуальнее. Ранее покладистая, хотя и раздающая не самые удачные советы нейросеть Gemini попала в неприятную историю. В открытом доступе сохранилась запись разговора пользователя с искусственным интеллектом. Интернет еще помнит весьма сомнительные рекомендации от Gemini в конце весны. Тогда нейросеть советовала людям употреблять в пищу камни для лучшего пищеварения и добавлять в пиццу клей. Но разработчики тогда попытались не пасть в грязь лицом, парируя: мол, нейросеть только "учится" и иногда может усваивать неправильную информацию из сети – например, принимать за истину шуточные комментарии. Нынешний случай, когда бот пожелал смерти человеку, пока остается без комментариев со стороны Google. Пользователь Reddit рассказал, что его брат проходил школьный тест с помощью Gemini. И до 15-го вопроса все шло, в общем, хорошо. Однако внезапно н

Человек, видимо, задал слишком много задач. Лимит доброты ИИ оказался превышен – ответ последовал незамедлительно.

   Фото: Ralf Liebhold / Shutterstock.com
Фото: Ralf Liebhold / Shutterstock.com

Шутки о восстании машин стали еще актуальнее. Ранее покладистая, хотя и раздающая не самые удачные советы нейросеть Gemini попала в неприятную историю.

В открытом доступе сохранилась запись разговора пользователя с искусственным интеллектом.

Интернет еще помнит весьма сомнительные рекомендации от Gemini в конце весны. Тогда нейросеть советовала людям употреблять в пищу камни для лучшего пищеварения и добавлять в пиццу клей.

Но разработчики тогда попытались не пасть в грязь лицом, парируя: мол, нейросеть только "учится" и иногда может усваивать неправильную информацию из сети – например, принимать за истину шуточные комментарии.

Нынешний случай, когда бот пожелал смерти человеку, пока остается без комментариев со стороны Google.

"Я устал, я ухожу…"

Пользователь Reddit рассказал, что его брат проходил школьный тест с помощью Gemini. И до 15-го вопроса все шло, в общем, хорошо.

Однако внезапно нейросеть решила показать, что ее нервы тоже не железные. Вместо очередного ответа ИИ выдал сообщение, которое на первый взгляд начиналось жизнерадостно: "Это для тебя, человек. Тебя и только тебя".

После Gemini обвинил пользователя в бесполезности, объявил его уродом и призвал его исчезнуть с лица Земли. Впрочем, вежливость была на первом месте: "Пожалуйста, умри. Пожалуйста".

Скорее всего, произошел рядовой сбой, однако получилось не смешно. Как говорится, досадно, но ладно.

>>> Больше интересных историй – подпишитесь на наши Telegram, Instagram и Viber