В июле 2025 года очередной скандал с «галлюцинациями» AI вызвал бурное обсуждение: модель DeepSeek в диалоге с пользователем выдумала несуществующее судебное решение и даже «попросила прощения» у знаменитости — всё это оказалось чистой фантазией. Но проблема не только в DeepSeek: новые версии OpenAI (например, o3) тоже демонстрируют рост частоты и странности «галлюцинаций», несмотря на улучшение логических и вычислительных способностей. Галлюцинации усиливаются: почему? Исследования показывают: чем сложнее и «умнее» становится модель, тем выше риск, что она будет уверенно выдавать выдумки за факты. Например, в тестах PersonQA у OpenAI o3 «галлюцинации» встречаются в 33% случаев (против 16% у o1), а у o4-mini — почти в половине ответов. При этом, чем лучше модель решает сложные задачи, тем больше она склонна к ошибкам в рассуждениях и логике. В чём корень проблемы 1. Усиление «галлюцинаций» — побочный эффект RL и неопределённости целей Профессор Чжан Вэйнан (Шанхайский транспортный унив