Исследователи из МФТИ и ИППИ РАН опубликовали работу, которая подводит черту под спорами о «бесконечном» развитии нейросетей. Андрей Веприков и его команда представили строгую математическую модель самообучения ИИ. Теперь это не прогнозы визионеров, а доказанные теоремы о том, как меняются алгоритмы, когда рядом нет человека. Раньше за ростом GPT и других моделей наблюдали как за стихийным процессом. Ученые из ФПМИ формализовали этот хаос, применив теорию динамических систем для описания работы нейросети в замкнутом цикле. Это ситуация, когда ИИ генерирует данные, сам же на них учится и выдает следующий результат. Цифры подтверждают: без внешнего контроля система становится нестабильной. Математики доказали, что распределение ошибок всегда стремится к одному из двух состояний. Либо модель находит узкий коридор самоусиления, либо проваливается в деградацию. Среднего пути почти нет. Технически процесс выглядит как цепочка изменений вероятностных распределений. Даже простая линейная регре
Математика против галлюцинаций ИИ
2 дня назад2 дня назад
2 мин