Добавить в корзинуПозвонить
Найти в Дзене

Учёные ускорили сжатие нейросетей в 500 раз методом из физики

Учёные Высшей школы экономики в Санкт-Петербурге разработали метод, который ускоряет оптимизацию нейронных сетей до 500 раз. В основе подхода лежат законы статистической физики, сообщили «Жуковский.Life» в пресс-службе НИУ ВШЭ. Исследователи под руководством Сергея Кольцова научились сжимать нейросети быстро и без потери качества. Это особенно актуально для банков, медицинских учреждений и госорганов, где данные нельзя передавать в облака и нужны компактные решения для локального оборудования. «Наша точка зрения позволяет посмотреть на нейронную сеть как на статистическую систему. Это раздел науки, изучающий поведение объектов с огромным числом элементов: от молекул газа до магнитных материалов. Нейронная сеть с миллиардами параметров оказалась похожа на такие структуры», — рассказал профессор департамента информатики НИУ ВШЭ — Санкт-Петербург Сергей Кольцов. Проблема в том, что крупные модели вроде GPT содержат сотни миллиардов параметров и требуют гигабайты памяти. Классические метод
   Фото: Анастасия Сибирякова
Фото: Анастасия Сибирякова

Учёные Высшей школы экономики в Санкт-Петербурге разработали метод, который ускоряет оптимизацию нейронных сетей до 500 раз. В основе подхода лежат законы статистической физики, сообщили «Жуковский.Life» в пресс-службе НИУ ВШЭ.

Исследователи под руководством Сергея Кольцова научились сжимать нейросети быстро и без потери качества. Это особенно актуально для банков, медицинских учреждений и госорганов, где данные нельзя передавать в облака и нужны компактные решения для локального оборудования.

«Наша точка зрения позволяет посмотреть на нейронную сеть как на статистическую систему. Это раздел науки, изучающий поведение объектов с огромным числом элементов: от молекул газа до магнитных материалов. Нейронная сеть с миллиардами параметров оказалась похожа на такие структуры», — рассказал профессор департамента информатики НИУ ВШЭ — Санкт-Петербург Сергей Кольцов.

Проблема в том, что крупные модели вроде GPT содержат сотни миллиардов параметров и требуют гигабайты памяти. Классические методы сжатия требуют множества долгих экспериментов. Новый метод, проверенный на моделях от 7 до 10 миллиардов параметров, позволяет находить оптимальный размер нейросети в сотни раз быстрее.

Ранее учёные из Университета Лафборо создали так называемый транснейрон — единый искусственный нейрон, способный имитировать работу разных областей мозга, включая зрение, движение и планирование. Это открытие считается важным шагом на пути к созданию роботов, обладающих человеческим восприятием и способных более гибко взаимодействовать с окружающим миром.

Наука
7 млн интересуются