Добавить в корзинуПозвонить
Найти в Дзене
The Symbol Post

Интеллектуальный прорыв российского IT

С 24 по 28 апреля в Сингапуре проходит международная конференция по обучению представлениям (ICRL 2025). Масштаб мероприятия поражает воображение, поскольку данная конференция является узкоспециализированной платформой для профессионалов в сфере ИТ. Так приведём немного цифр: • В конференции приняло участие более 10 тыс. человек • 12 тыс. поданных работ • Принято более 3 тыс. статей • Основные темы: LLM, Diffusion Models, RL и бенчмарки. Российские учёные из T-Bank AI Research добились значительного прорыва в области искусственного интеллекта, разработав метод обучения крупных языковых моделей (LLM), который увеличивает точность их работы до 15%. Новый подход основан на улучшенных методах Trust Region, которые позволяют адаптивно регулировать процесс обучения нейросетей. Методика обеспечивает повышение качества ответов ИИ по пяти ключевым показателям: • точность • связность • стиль • логическая аргументация • информативность текстов При тестировании на метриках Alpaca Eval 2.0 и Arena

С 24 по 28 апреля в Сингапуре проходит международная конференция по обучению представлениям (ICRL 2025). Масштаб мероприятия поражает воображение, поскольку данная конференция является узкоспециализированной платформой для профессионалов в сфере ИТ. Так приведём немного цифр:

• В конференции приняло участие более 10 тыс. человек

• 12 тыс. поданных работ

• Принято более 3 тыс. статей

• Основные темы: LLM, Diffusion Models, RL и бенчмарки.

Российские учёные из T-Bank AI Research добились значительного прорыва в области искусственного интеллекта, разработав метод обучения крупных языковых моделей (LLM), который увеличивает точность их работы до 15%. Новый подход основан на улучшенных методах Trust Region, которые позволяют адаптивно регулировать процесс обучения нейросетей.

Методика обеспечивает повышение качества ответов ИИ по пяти ключевым показателям:

• точность

• связность

• стиль

• логическая аргументация

• информативность текстов

При тестировании на метриках Alpaca Eval 2.0 и Arena Hard наблюдается улучшение качества ответов с 2,3 до 15,1%, а также снижение эффекта избыточной оптимизации и случайных ошибок.

Метод, представленный российскими программистами, заключается в периодическом обновлении «настроек по умолчанию» языковой модели через мягкие изменения на каждом этапе обучения или жёсткое обновление с определённой периодичностью. Это позволяет модели сохранять баланс между способностью решать узкоспециализированные задачи и общим пониманием картины мира. Такой подход открывает возможности для создания более гибких и адаптивных систем, что является важным шагом в развитии ИИ.

Разработка уже протестирована в различных областях, включая медицину, образование и создание виртуальных помощников. В частности, модели, обученные с использованием новой методики, на 10–15% лучше справляются с задачами сокращения длинных текстов и точнее следуют инструкциям пользователей.

Прорывная российская инновация после презентации на конференции была размещена в открытой библиотеке T-банка Turbo Alignment, что делает её доступной для внедрения и дальнейших исследований. Российские разработчики подчёркивают, что данный подход имеет значительный потенциал для совершенствования языковых моделей и закладывает фундамент для новой парадигмы в развитии искусственного интеллекта.