Найти тему
ОБАЙТИ

TTT vs Трансформеры: новый этап в развитии искусственного интеллекта. Или нет?

Оглавление

Приветствую всех, кто следит за новинками в мире технологий! Сегодня у нас на повестке дня тема, которая волнует не только гиков и техноэнтузиастов, но и всех, кто хоть раз интересовался искусственным интеллектом. Мы поговорим о новейшей архитектуре в ИИ — моделях TTT (Test-Time Training). Итак, заварите себе чашечку кофе, устраивайтесь поудобнее и погрузитесь в мир будущего ИИ вместе со мной.

Трансформеры: колоссы на глиняных ногах?

Трансформеры — это те самые монстры, которые лежат в основе моделей генерации текста, таких как GPT-4 от OpenAI, Claude от Anthropic и Gemini от Google. Они также отвечают за генерацию видео в модели OpenAI Sora. Однако, несмотря на их мощь, трансформеры начинают сталкиваться с серьезными проблемами.

«Трансформеры не особенно эффективны при обработке и анализе огромных объемов данных, по крайней мере, работая на готовом оборудовании», — говорят эксперты.

Представьте себе: ИИ, который требует все больше и больше энергии, превращаясь в ненасытного монстра. И это не просто метафора. Расширение инфраструктуры для поддержки трансформеров ведет к резкому росту потребления электроэнергии.

TTT: Новая надежда или очередная иллюзия?

На этом фоне появляется новый герой — модели TTT. Разработанные исследователями из Стэнфорда, Калифорнийского университета в Сан-Диего, Беркли и компании Meta, эти модели обещают решить многие проблемы трансформеров. Но давайте разберемся, что это за зверь такой.

В чём суть TTT?

В отличие от трансформеров, которые используют «скрытое состояние» (по сути, длинный список данных), модели TTT используют внутреннюю модель машинного обучения.

«Если вы думаете о трансформере как о разумной сущности, то таблица поиска — его "скрытое состояние" — это мозг трансформера», — объясняет Ю Сун, один из разработчиков TTT.

Представьте себе, что вместо того, чтобы хранить всю информацию в памяти, модель TTT учится на ходу, постоянно обновляя свои «знания». Это похоже на работу человеческого мозга, который не хранит все прочитанные книги, но запоминает их суть.

Преимущества TTT

  1. Эффективность: Модели TTT могут обрабатывать значительно больше данных, чем трансформеры, при этом потребляя меньше вычислительной мощности.
  2. Масштабируемость: Размер внутренней модели TTT не увеличивается с ростом объема обрабатываемых данных.
  3. Универсальность: Потенциально TTT сможет работать с различными типами данных — от текста до видео.

Будущее ИИ: TTT vs Трансформеры

Конечно, возникает вопрос: смогут ли модели TTT в конечном итоге заменить трансформеры? Пока рано делать окончательные выводы.

«Я думаю, что это очень интересная инновация, и если данные подкрепляют утверждения о том, что она обеспечивает повышение эффективности, то это отличная новость, но я не могу сказать вам, лучше ли она существующих архитектур или нет», — комментирует Майк Кук из Королевского колледжа Лондона.

Стоит отметить, что модели TTT — не единственная альтернатива трансформерам. Модели пространства состояний (SSM) также показывают многообещающие результаты. Компании вроде Mistral, AI21 Labs и Cartesia активно работают над развитием этой технологии.

Заключение

Мир искусственного интеллекта продолжает стремительно развиваться, и мы становимся свидетелями захватывающей гонки технологий. Модели TTT, наряду с другими инновациями, могут сделать генеративный ИИ еще более доступным и распространенным.

Как человек, который старается лично протестировать каждую из доступных LLM, я с нетерпением жду возможности опробовать модели TTT в действии. Будут ли они действительно революционными или останутся лишь интересным экспериментом? Время покажет. А пока мы можем лишь наблюдать за этим увлекательным соревнованием и ждать новых прорывов в мире ИИ.

Обязательно Подписывайтесь и читайте прошлую статью, если пропустили: