Исследователи НИУ ВШЭ представили метод адаптации языковых моделей для работы с российской научной терминологией, повысив скорость их работы в 2,7 раза. Отечественные исследователи разработали инновационный подход к обучению больших языковых моделей, который позволяет им эффективнее работать с российской научной терминологией. Внедрение методики позволило оптимизировать вычислительные ресурсы: адаптированная система функционирует в 2,7 раза быстрее и потребляет на 73% меньше оперативной памяти по сравнению с базовыми моделями. Ведущий эксперт Центра стратегической аналитики и больших данных Института статистических исследований и экономики знаний Анастасия Малашина рассказала, что универсальные алгоритмы зачастую обладают поверхностными знаниями. По её словам, целью разработки было создание модели, способной «мыслить в категориях предметной области», понимать сложные взаимосвязи между понятиями и корректно интерпретировать запросы российских инженеров и ученых. Необходимость создания с
Отечественные ученые научили нейросети корректной работе с данными на русском языке
2 дня назад2 дня назад
8
1 мин