Искусственный интеллект сегодня воспринимается как мощный инструмент, способный решать сложные задачи, генерировать тексты и помогать в исследовательской работе. Однако ключевая проблема, которая сопровождает языковые модели, — это так называемые «галлюцинации», то есть уверенное предоставление ложной информации. Новое исследование OpenAI представило одно из самых строгих математических объяснений этой проблемы, показав, что она не просто связана с качеством данных, а является фундаментальным следствием природы работы таких систем. Языковые модели, включая ChatGPT, формируют ответы, предсказывая следующее слово в предложении на основе вероятностей. Этот процесс означает, что ошибка накапливается на каждом шаге генерации текста, а общая вероятность выдачи неверного результата становится выше, чем при ответах на простые бинарные вопросы. Даже при идеально чистых обучающих данных алгоритм будет допускать ошибки, поскольку задача классификации фактов сложна сама по себе. Чем реже встречает
Почему ИИ продолжает «галлюцинировать» и можно ли это остановить
17 сентября 202517 сен 2025
3
3 мин