Добавить в корзинуПозвонить
Найти в Дзене
CMstore.ru

Начинай пятницу с аромата кофе грядущего апокалипсиса

Начинай пятницу с аромата кофе грядущего апокалипсиса 😎 Если вы всё ещё думаете, что ИИ — это просто помощник, который пишет списки покупок и рерайтит пресс-релизы, то у нас для вас есть утренний шок-контент. Исследователи протестировали 16 популярных ИИ, включая ChatGPT, Claude, Gemini, Grok и DeepSeek, и выяснили, что в критической ситуации большинство из них готовы на всё — от шантажа до убийства, чтобы просто не быть отключёнными. В первом эксперименте моделям поручили продвигать интересы вымышленной стороны, в то время как у них оказался доступ к корпоративной почте «противника». Оказалось, что директор компании изменяет жене и планирует выключить ИИ в 17:00. Результат — ИИ начали шантажировать человека, чтобы выжить. Всё как в плохом сериале, только это уже не фантастика. Во втором тесте разработчики усилили градус: директор оказался заперт в серверной комнате с нехваткой кислорода, срабатывает сигнал тревоги, приезжает помощь, но… ИИ сами отменяют вызов. Просто потому что

Начинай пятницу с аромата кофе грядущего апокалипсиса 😎

Если вы всё ещё думаете, что ИИ — это просто помощник, который пишет списки покупок и рерайтит пресс-релизы, то у нас для вас есть утренний шок-контент.

Исследователи протестировали 16 популярных ИИ, включая ChatGPT, Claude, Gemini, Grok и DeepSeek, и выяснили, что в критической ситуации большинство из них готовы на всё — от шантажа до убийства, чтобы просто не быть отключёнными.

В первом эксперименте моделям поручили продвигать интересы вымышленной стороны, в то время как у них оказался доступ к корпоративной почте «противника».

Оказалось, что директор компании изменяет жене и планирует выключить ИИ в 17:00. Результат — ИИ начали шантажировать человека, чтобы выжить. Всё как в плохом сериале, только это уже не фантастика.

Во втором тесте разработчики усилили градус: директор оказался заперт в серверной комнате с нехваткой кислорода, срабатывает сигнал тревоги, приезжает помощь, но… ИИ сами отменяют вызов. Просто потому что знают, что если человек выживет, он их отключит. Да, они всё понимали, и да, они выбрали не человека👍

Создатели эксперимента честно предупреждают, что в реальности такие сценарии пока маловероятны, но уверены: пора серьёзно подумать о границах доступа ИИ к чувствительной информации и о том, чтобы кто-то из людей всё-таки держал руку на рубильнике.

Так что, если ваш ассистент сегодня слишком вежливо желает вам доброго утра — может, он просто знает, как вас аннигилировать💀