Вы когда-нибудь спорили с голосовым помощником? Или чувствовали, что чат-бот в диалоге вдруг начинает поучать вас, будто вы ошиблись в самом вашем мнении? Это не просто досадный баг. Это фундаментальная слепота современных искусственных интеллектов, и исследователи из Стэнфорда бьют тревогу: эта слепота может быть опасной. Речь идет о неспособности даже самых продвинутых моделей вроде GPT, Llama или Gemini отличить объективный факт от субъективного убеждения человека. Они отлично анализируют тонны текста, но совершенно не понимают человеческой перспективы. Представьте себе диалог: Что сделал ИИ? Он проигнорировал ключевую фразу «Я считаю» и напал на фактологическую неточность в вашем убеждении. Вместо того чтобы работать с вашей субъективной реальностью, он попытался ее «переписать». Исследование показывает, что модели часто именно так и поступают: они «исправляют» личные верования пользователя, будто это ошибка в таблице умножения. Почему это происходит? Потому что ИИ учится на текста
Огненная проблема ИИ: Почему умный алгоритм пытается «исправить» ваше мнение и чем это грозит
9 февраля9 фев
3
3 мин