Новое исследование показало, что даже самые продвинутые системы искусственного интеллекта зачастую не способны признать простую вещь — человек может искренне верить в то, что на самом деле неправда. Казалось бы, это мелочь. Но представьте ситуацию: вы говорите нейросетевому помощнику: «Я считаю, что люди используют только десять процентов мозга». Вместо того чтобы принять это как вашу точку зрения и работать с ней, система начинает вас поправлять или вовсе отрицает, что вы так думаете. Для простенького чат-бота, который используется в основном в развлекательных целях это не критично, но что если речь идет, например, о медицинской консультации, когда человек может сообщать о своих субьективных ощущениях, которые порой могут звучать очень необычно? «Большие языковые модели все чаще используются для обучения, консультирования, медицинских и юридических советов и даже для общения», — объясняет соавтор исследования Джеймс Зоу из Стэнфордского университета. — «В таких ситуациях критически ва
Нейросети не различают факты и убеждения: пугающие выводы ученых
14 декабря 202514 дек 2025
496
2 мин