На гэтым тыдні ў Новым Арлеане праходзіць сёмае выданне ICLR (Міжнароднай канферэнцыі па навучанні прадстаўніцтву), адной з найвялікшых сусветных навуковых мерапрыемстваў вакол штучнага інтэлекту. Выдатным аспектам гэтага выдання стала адна з узнагароджаных навуковых прац у ім.
Аўтар Майкл Карбін і Джонатан Фрэнкль, абодва даследчыкі MIT, ствараюць радыкальную адпраўную кропку: увесь гэты час мы выкарыстоўваем нейронныя сеткі значна большыя, чым трэба, у некаторых выпадках у 10 і 100 разоў больш. І гэта прывяло да таго, што іх навучанне было значна даражэйшае, чым неабходна, з пункту гледжання часу і вылічальнай магутнасці.
Карын і Фрэнклі абараняюць тое, што ўнутры кожнай нейроннай сеткі існуе значна меншая падмноства, якое можна навучыць дасягненню тых жа паказчыкаў, што і тыя, якія мы атрымліваем у цэлым.
Але як працуе нейронавая сетка? Нейронныя сеткі звычайна прадстаўлены ў выглядзе складаных слаёў камп'ютэрных вузлоў, злучаных адзін з адным для таго, каб вылічыць шаблоны дад