Галлюцинации ИИ не лечатся: OpenAI признала — обман встроен в саму математику OpenAI представила новое исследование на arXiv, которое разрушает надежды на полное избавление ИИ от так называемых «галлюцинаций» — убедительных, но ложных ответов. Авторы работы математически доказали: даже если обучать большие языковые модели (LLM) на идеальных, безошибочных данных и использовать самые передовые инженерные методы, вероятность ошибок остаётся ненулевой. Причина — в самой статистической природе моделей. Учёные объясняют: в ситуации неопределённости большие модели действуют, как студенты на экзамене с трудным вопросом — пытаются «догадаться», выдавая правдоподобную, но неверную информацию, вместо того чтобы признать, что не знают ответа. Это фундаментальное свойство вероятностных систем: им некуда «сложить руки», когда данных недостаточно. Авторы выделили три математических фактора, из-за которых галлюцинации неустранимы: • когнитивная неопределённость — когда в данных просто нет всей не
Галлюцинации ИИ не лечатся: OpenAI признала — обман встроен в саму математику
22 сентября 202522 сен 2025
1 мин