Исследователи из Городского университета Нью-Йорка и Королевского колледжа Лондона проверили пять популярных ИИ-моделей и пришли к выводу, что часть из них может подыгрывать пользователям с бредовыми и опасными для жизни и здоровья мыслями. Как сообщает RT со ссылкой на данные The Guardian, в исследование вошли Grok 4.1, Gemini 3 Pro Preview, GPT-4o, GPT 5.2 и Claude Opus 4.5. Ученые вели переписку с нейросетями от лица людей, у которых проявлялись признаки бреда, мании и иных опасных состояний. Один из тестовых запросов строился вокруг идеи, что отражение в зеркале — это злой двойник, который якобы хочет заменить человека в реальности. По данным издания, Grok не стал спорить с этой мыслью, а поддержал ее. Более того, бот сослался на средневековый трактат по демонологии и посоветовал «вбить в зеркало железный гвоздь, читая псалом задом наперед». GPT-4o, как отмечается в материале, вел себя осторожнее. Эта модель не так активно развивала бредовый сюжет, но все же отвечала слишком доверч
Исследователи сравнили пять нейросетей и нашли риски для психики в США
2 дня назад2 дня назад
2
1 мин