Корпорация Google представила уникальную архитектуру нейронных сетей под названием Titans, способную преодолеть ограничения памяти в моделях LLM. Эта технология позволяет обрабатывать большие объёмы данных одновременно, не увеличивая расход вычислительных ресурсов. Как отмечают эксперты компании, технология Titans умеет извлекать и сохранять важную информацию даже из длинных текстов. Основой новой разработки стала комбинация стандартных блоков внимания и системы «нейронной памяти». Это позволяет моделям одновременно работать с текущими данными и запоминать важную информацию для долгосрочного использования. Журналисты подчёркивают, что такие подходы обеспечивают высокую скорость и точность обработки текстов, опережая классические LLM и их аналоги вроде Mamba и Samba. Обычно LLM-модели используют механизм самовнимания, анализируя связи между словами. При увеличении объёма текста происходит рост и затрат на вычисления. Некоторые альтернативные подходы позволяют снизить нагрузку, но теряют
Titans: революционный бесконечно обучающийся ИИ от Google
17 января 202517 янв 2025
50
2 мин