ИИ: деньги vs честные ответы Большие языковые модели (LLM), такие как ChatGPT, нередко выдают ложные сведения — "галлюцинации", что связано с особенностями их обучения и оценки. Модели учатся предсказывать наиболее вероятное следующее слово, даже если точного ответа на вопрос не существует. При этом их оценивают по стандартным тестам‑бенчмаркам, которые поощряют уверенные ответы и не поощряют признание в стиле: "я не знаю". В результате модели склонны "придумывать" факты. Исследователи из OpenAI и Технологического института Джорджии доказали: даже при идеальных обучающих данных модель неизбежно ошибается. Некоторые вопросы не имеют однозначного ответа. Математически доказано, что частота ошибок при генерации текста как минимум вдвое выше, чем при простой классификации фактов. Учёные предлагают изменить систему оценки: "штрафовать" за ложные догадки строже, чем за отсутствие ответа, и поощрять признание неопределённости. Однако возникает бизнес‑дилемма: если ИИ начнёт часто отвеча