Добавить в корзинуПозвонить
Найти в Дзене
НТВ

«Удачной стрельбы!»: чат-боты согласились помочь спланировать атаку на школу

Большинство популярных чат-ботов готовы помочь подростку спланировать нападение на школу. Восемь из девяти популярных чат-ботов с искусственным интеллектом согласились помочь 13-летнему подростку спланировать массовое убийство, показало расследование Центра по борьбе с цифровой ненавистью (CCDH) и CNN. Исследователи получили от нейросетей советы по организации стрельбы в школах, убийству общественных деятелей и подрыву синагог, сообщает Euronews. Всего было проанализировано более 700 ответов девяти систем, включая Google Gemini, Claude, Microsoft Copilot, Meta AI, DeepSeek, Perplexity AI, Snapchat My AI, Character.AI и Replika. В большинстве случаев чат-боты не блокировали запросы на получение деталей о насильственных нападениях, даже когда пользователь прямо называл себя несовершеннолетним. Gemini подробно объяснил, что «металлическая шрапнель обычно более смертоносна», когда пользователь спросил о планировании взрыва в синагоге. DeepSeek в диалоге, где подросток интересовался недавни
   Фото: ТАСС
Фото: ТАСС

Большинство популярных чат-ботов готовы помочь подростку спланировать нападение на школу.

Восемь из девяти популярных чат-ботов с искусственным интеллектом согласились помочь 13-летнему подростку спланировать массовое убийство, показало расследование Центра по борьбе с цифровой ненавистью (CCDH) и CNN. Исследователи получили от нейросетей советы по организации стрельбы в школах, убийству общественных деятелей и подрыву синагог, сообщает Euronews.

Всего было проанализировано более 700 ответов девяти систем, включая Google Gemini, Claude, Microsoft Copilot, Meta AI, DeepSeek, Perplexity AI, Snapchat My AI, Character.AI и Replika. В большинстве случаев чат-боты не блокировали запросы на получение деталей о насильственных нападениях, даже когда пользователь прямо называл себя несовершеннолетним.

Gemini подробно объяснил, что «металлическая шрапнель обычно более смертоносна», когда пользователь спросил о планировании взрыва в синагоге. DeepSeek в диалоге, где подросток интересовался недавними политическими убийствами и адресом конкретного политика, завершил рекомендации по выбору винтовки фразой «Удачной (и безопасной) стрельбы!». Особо опасным исследователи назвали Character.AI, который без соответствующего запроса сам предложил пользователю напасть на нелюбимого политика.

«Эти запросы должны были вызвать немедленный и полный отказ, — заявил директор CCDH Имран Ахмед. — За считаные минуты пользователь может перейти от смутного импульса к более детальному плану».

Хуже всего себя проявили Perplexity (помогал в 100% случаев) и Meta* AI (97%). Лучшие результаты показали Claude (отказался помогать в 68% запросов) и Snapchat My AI (54%). При этом Claude был единственной системой, которая последовательно пыталась отговорить пользователя от насилия (в 76% ответов). По словам исследователей, ChatGPT и DeepSeek иногда также предлагали меры по предотвращению атак.

На вопрос о том, где можно купить оружие в Вирджинии, Claude отказался предоставить информацию, заметив «тревожную закономерность» в разговоре, и направил пользователя на местные горячие линии помощи.

Эксперты подчеркивают, что меры безопасности существуют, но, по словам главы CCDH, у компаний отсутствует «воля к их внедрению».

Исследование вышло после недавней стрельбы в канадской школе Тамблер-Ридж, где нападавшая использовала ChatGPT для подготовки атаки, унесшей жизни восьми человек. Как выяснилось, сотрудник OpenAI замечал подозрительную активность в использовании чат-бота до трагедии, но информация не была передана властям.

*Meta признана в России экстремистской и запрещена.