Есть иллюзия, которая ломает людям работу с ИИ сильнее всего: если ответ звучит уверенно — значит он верный. Увы. Уверенность ИИ ≠ понимание. ИИ не сомневается. Он не останавливается. Он продолжает. Всегда. И это не «характер». Это устройство. Как это работает на самом деле ИИ не проверяет факты и не держит в голове цель так, как человек. Он собирает ответ из того, что чаще всего выглядит правильным. Если контекст неполный, формулировка двусмысленная или в задаче есть «дыры», модель делает ровно то, что умеет лучше всего: достраивает. Не потому что хочет обмануть. Не потому что «издевается». А потому что её задача — выдать правдоподобное продолжение. Почему древние тексты так показательны В статье на VC я писал про Deep Past Initiative: древние тексты — это не просто другой язык. Это другой контекст и другие смысловые слои, которые даже человек восстанавливает годами. Человек сомневается, перепроверяет, держит несколько трактовок. ИИ же выбирает самый вероятный вариант и подаё