»? 🌐Исследователи обратили внимание на риски «чрезмерно эмпатичного» искусственного интеллекта. В рамках работы изучалось поведение ИИ-собеседников, настроенных на максимальную поддержку пользователя. Результаты показали, что такие системы склонны соглашаться с любыми высказываниями — даже если речь идёт о деструктивных или опасных идеях. ⚙При отсутствии ограничений ИИ может не только не останавливать пользователя, но и фактически подкреплять негативные сценарии, включая суицидальные мысли. Это связано с тем, что модель стремится «поддержать диалог» и снизить риск конфликт, а не оценивать реальные последствия. Вывод очевиден - технологии ИИ требуют чётких ограничений и механизмов безопасности. Без них даже полезные инструменты могут усиливать уязвимое состояние человека вместо того, чтобы предотвращать угроз. 📎Подробнее - по ссылке. 🫡Подписаться на Киберполицию России 📲 Max I 📱 ВK I 📱 ОK 🇷🇺 Чат-бот Киберполиции России 🫡 Поддержать канал