Исследователи из Массачусетского технологического института (MIT) разработали и открыли исходный код метода SEAL (Self-Adapting LLM) — технологии, позволяющей большим языковым моделям (LLM) самостоятельно совершенствоваться, создавая синтетические данные для своей же тонкой настройки. Метод, впервые представленный летом 2025 года и недавно обновлённый на конференции NeurIPS 2025, вызвал новый всплеск интереса в ИИ-сообществе. Код SEAL доступен на GitHub под лицензией MIT, разрешающей коммерческое использование. Что делает SEAL особенным В отличие от традиционных моделей, которые обучаются на статичных данных и требуют ручной донастройки, SEAL позволяет языковым моделям автономно генерировать собственные обучающие примеры и стратегии оптимизации. По сути, модель «учится учиться» — анализируя собственные ошибки и создавая уточняющие версии данных, на которых затем себя же обучает. Эта система сочетает два контура: Алгоритм обучения основан на ReSTEM, который сохраняет только те самоизмен
Самообучающиеся языковые модели становятся реальностью: MIT представил открытую методику SEAL
15 октября 202515 окт 2025
6
3 мин