Галлюцинации нейросетей объяснили на пальцах OpenAI выпустили новую исследовательскую статью, в которой пытаются системно объяснить феномен галлюцинаций в LLM. Главная мысль проста: это не баг мистического характера, а закономерный результат статистической природы моделей и способов их обучения. Почему возникают галлюцинации: – На этапе предобучения модель всегда обязана предлагать продолжение текста. Варианта «я не знаю» у неё нет, а штрафов за выдумку мы тоже не вводим. – Даже при идеально чистых данных (что невозможно) ошибки неизбежны: многие факты в мире уникальны и случайны, закономерностей для их предсказания не существует. – Пост-обучение не решает проблему, потому что бенчмарки устроены бинарно: за правильный ответ — балл, за «не знаю» или неверный — ноль. В такой системе выгоднее угадать, чем промолчать. – Дополнительный фактор — GIGO: ошибки в исходных данных порождают ошибки на выходе. В результате модель уверенно генерирует ложь, потому что статистически так выгоднее.