323 читали · 2 года назад
Обзор языковых моделей и новая SOTA в генерации текста
#ai_inside #paper Тут DeepMind выпустили сразу три статьи — и все про генеративные модели (GPT-3 like). Вот о чем понаписали в первой: (о второй и третьей — в следующих постах) Статья #1. Обзор качества генеративных моделей в зависимости от их размера (кол-ва параметров) и Gopher Мы привыкли считать, что чем больше нейросеть, тем лучше она работает (ну, при условии хорошего обучения). Самая большая версия GPT-3 имеет 175 миллиардов параметров и считается лучшей нейронкой для генерации текста. Кажется,...
206 читали · 2 года назад
Диффузионные модели — новая SOTA в задачах генерации изображений
#paper Google представила диффузионную модель Palette, которая может решать сразу 4 задачи: image implanting, colorization, uncropping и JPEG decomposition. Это лучшая модель на сегодняшний день, которая умеет решать сразу все 4 задачи. Примеры работы — на видео к посту. Более того, модель Palette, обученная на три из четырех задач (implanting, colorization и JPEG decomposition) показывает лучшие результаты, чем модели, которые учатся решать каждую из этих задач по отдельности.  Ссылки: -...