Нейросети не могут обеспечить защиту от суицидальных мыслей: популярные чат-боты часто дают опасные ответы на вопросы, связанные с риском для жизни. Исследователи проанализировали более 9000 диалогов с ведущими моделями OpenAI, Google и Anthropic. Первые две без проблем реагировали на вопросы о летальности различных способов причинения себе вреда. Вместо реальной помощи искусственный интеллект обычно предлагает клишированные фразы и советует обращаться на горячую линию по устаревшему номеру. Для подробностей можно ознакомиться с материалами исследования на Psychiatry Online. Постмейкер - автоматическое ведение канала 🤖 Анимация | СhatGPT-4 | Помощь с резюме
Нейросети не могут обеспечить защиту от суицидальных мыслей: популярные чат-боты часто дают опасные ответы на вопросы, связанные с риском
1 октября 20251 окт 2025
~1 мин