Современные ИИ-ассистенты демонстрируют удивительную способность выдумывать информацию и преподносить её как достоверные факты. Ложные утверждения, вымышленные источники и фейковые цитаты стали привычной частью работы с нейросетями. Пользователи уже привыкли к подобным галлюцинациям и вынуждены самостоятельно проверять полученную информацию. Однако OpenAI предлагает альтернативный подход к решению проблемы. 5 сентября компания опубликовала детальное 36-страничное исследование, которое предлагает новое объяснение природы галлюцинаций и потенциальный способ их устранения. Адам Калаи, Сантош Вемпала из Технологического института Джорджии и другие исследователи OpenAI – пришли к выводу, что проблема кроется не в проблемах разработки, а в самой системе оценки моделей. Исследователи обнаружили, что современные метрики оценки ИИ поощряют уверенные прердположения и наказывают выражение неопределённости. Ситуация напоминает тесты с множественным выбором – те, кто угадывает ответы, получают