Найти в Дзене

Математика против галлюцинаций ИИ

Исследователи из МФТИ и ИППИ РАН опубликовали работу, которая подводит черту под спорами о «бесконечном» развитии нейросетей. Андрей Веприков и его команда представили строгую математическую модель самообучения ИИ. Теперь это не прогнозы визионеров, а доказанные теоремы о том, как меняются алгоритмы, когда рядом нет человека. Раньше за ростом GPT и других моделей наблюдали как за стихийным процессом. Ученые из ФПМИ формализовали этот хаос, применив теорию динамических систем для описания работы нейросети в замкнутом цикле. Это ситуация, когда ИИ генерирует данные, сам же на них учится и выдает следующий результат. Цифры подтверждают: без внешнего контроля система становится нестабильной. Математики доказали, что распределение ошибок всегда стремится к одному из двух состояний. Либо модель находит узкий коридор самоусиления, либо проваливается в деградацию. Среднего пути почти нет. Технически процесс выглядит как цепочка изменений вероятностных распределений. Даже простая линейная регре
Оглавление

10 декабря 2025 года.

Исследователи из МФТИ и ИППИ РАН опубликовали работу, которая подводит черту под спорами о «бесконечном» развитии нейросетей. Андрей Веприков и его команда представили строгую математическую модель самообучения ИИ. Теперь это не прогнозы визионеров, а доказанные теоремы о том, как меняются алгоритмы, когда рядом нет человека.

Раньше за ростом GPT и других моделей наблюдали как за стихийным процессом. Ученые из ФПМИ формализовали этот хаос, применив теорию динамических систем для описания работы нейросети в замкнутом цикле. Это ситуация, когда ИИ генерирует данные, сам же на них учится и выдает следующий результат. Цифры подтверждают: без внешнего контроля система становится нестабильной. Математики доказали, что распределение ошибок всегда стремится к одному из двух состояний. Либо модель находит узкий коридор самоусиления, либо проваливается в деградацию. Среднего пути почти нет.

Механика самопоедания

Технически процесс выглядит как цепочка изменений вероятностных распределений. Даже простая линейная регрессия в условиях самообучения выдает странную динамику. Ошибки не просто суммируются — они ломают структуру модели, создавая петли обратной связи.

В индустрии это явление называют «цифровым инцестом». Нейросеть обучается на синтетике, которую сама же и создала. Без притока свежих данных от людей начинается дрейф. Система галлюцинирует, принимая собственные искажения за истину.

Российские ученые первыми дали этому процессу точное описание. Они показали, как именно распределяются ошибки при многократном переобучении. Если в 2023 году о рисках «коллапса моделей» только догадывались, то теперь у разработчиков есть инструмент, чтобы рассчитать момент окончательного сбоя.

Дефицит человеческого

Для гигантов вроде OpenAI или Yandex ситуация меняет правила игры. Интернет забивается текстами и картинками, созданными машинами. Если не фильтровать входной поток, следующие поколения нейросетей окажутся глупее текущих. Мы рискуем получить интеллект, который отлично знает свои фантазии, но ничего не смыслит в реальном мире.

Борхес описывал Вавилонскую библиотеку, где среди хаоса букв спрятаны крупицы смысла. Мы строим нечто подобное, только полки заполняют алгоритмы-дупликаторы. Чистые данные от живых людей становятся самым дорогим ресурсом на планете. Дороже видеокарт и гигаватт электричества.

Бизнесу придется вкладываться в верификацию контента. Иначе через пару итераций корпоративный ИИ превратится в эхо-камеру, повторяющую свои ошибки с растущей уверенностью.

Эволюция быстро переходит в инволюцию, если зеркала стоят слишком близко друг к другу. Довольно иронично: мы так долго боялись восстания машин, а в итоге можем столкнуться с их банальным самодурством.