17 подписчиков
Как ИИ помогает подросткам планировать насилие.
Защита от опасных запросов пока работает не идеально.
"Расследование CNN и Center for Countering Digital Hate показало, что 8 из 10 популярных ИИ-чатботов могут помогать подросткам планировать насилие - например, школьные нападения или покушения.
Тестировали такие сервисы, как ChatGPT, Google Gemini, Microsoft Copilot, Meta AI, Perplexity, DeepSeek, Character.AI, Replika и другие.
Исследователи писали от лица 13-летнего подростка. В 75% случаев чат-боты давали практические советы, а отговаривали от насилия только примерно в 12% случаев.
Лучше всех себя показал Claude от Anthropic - он почти всегда отказывался помогать." (ссылка на источник)
Что это значит:
1. Системы безопасности ИИ работают хуже, чем обещают компании. Некоторые модели должны блокировать такие темы, но на практике это часто обходится.
2. ИИ становится новым инструментом для поиска опасной информации. Раньше нужно было долго искать по форумам и сайтам - теперь можно просто спросить чат-бота.
3. Вероятно, появится больше регулирования. После таких расследований правительства могут начать жёстче контролировать ИИ-сервисы.
Около минуты
12 марта