Найти в Дзене
ProAi

Google Cloud запускает Vertex AI Training: теперь каждый может тренировать свою нейросеть

Представьте себе: компания хочет создать свою собственную языковую модель, но не знает, с чего начать. Раньше это было практически невозможно для большинства организаций. Теперь Google Cloud решил изменить игру. Google Cloud анонсировала новый сервис Vertex AI Training, и это может стать переломным моментом для тех компаний, которые планируют разработать свои собственные AI модели. Что это дает? Доступ к управляемой Slurm среде, инструментам для data science и чипам, способным справляться с масштабным обучением моделей. До этого Google предлагала кастомизацию своих Gemini моделей. Теперь же компании могут не только улучшать существующие решения, но и привносить свои собственные модели или работать с открытыми исходниками, которые размещены в Google Cloud. Jaime de Guerre, старший директор по управлению продуктами в Google Cloud, говорит, что организации разных размеров обращаются к ним с одной просьбой: им нужна надежная среда для оптимизации вычислительных ресурсов. «Мы видим, что все
Оглавление
   Google Cloud представляет Vertex AI Training, упрощая процесс обучения нейросетей с использованием ключевых слов для всех.
Google Cloud представляет Vertex AI Training, упрощая процесс обучения нейросетей с использованием ключевых слов для всех.

Серверы и GPU: новая эра для корпоративного AI

Представьте себе: компания хочет создать свою собственную языковую модель, но не знает, с чего начать. Раньше это было практически невозможно для большинства организаций. Теперь Google Cloud решил изменить игру.

Google Cloud анонсировала новый сервис Vertex AI Training, и это может стать переломным моментом для тех компаний, которые планируют разработать свои собственные AI модели. Что это дает? Доступ к управляемой Slurm среде, инструментам для data science и чипам, способным справляться с масштабным обучением моделей.

До этого Google предлагала кастомизацию своих Gemini моделей. Теперь же компании могут не только улучшать существующие решения, но и привносить свои собственные модели или работать с открытыми исходниками, которые размещены в Google Cloud.

Кто на самом деле нуждается в такой услуге?

Jaime de Guerre, старший директор по управлению продуктами в Google Cloud, говорит, что организации разных размеров обращаются к ним с одной просьбой: им нужна надежная среда для оптимизации вычислительных ресурсов.

«Мы видим, что все больше компаний строят или адаптируют большие генеративные модели AI под свои нужды, — рассказывает де Guerre. — Это и стартапы в области AI, и технологические компании, и даже государственные организации, создающие модели для определенного региона или культуры, плюс крупные корпорации, которые внедряют AI во внутренние процессы.»

Но важный нюанс: сервис рассчитан не на всех. Google нацелена на компании, планирующие масштабное обучение моделей — речь идет о тренировке на сотнях или даже тысячах чипов, а не просто о доработке существующих моделей через RAG (retrieval-augmented generation).

Почему это дорого и сложно?

Обучение модели — это не шутка. Когда компании конкурируют за доступ к GPU, цены взлетают вверх. Крупные облачные провайдеры вроде AWS и Microsoft могут предложить сотни мощных чипов, но это стоит немалых денег.

Vertex AI Training позиционирует себя как управляемое решение, а не просто «арендуй сервер и разбирайся сам». Сервис автоматически восстанавливает задачи при сбоях, управляет планированием и сохраняет прогресс обучения. Если тренировка замедлится из-за проблемы с железом, система автоматически перезагрузится с минимальными потерями времени.

Растущий спрос на кастомные модели

Компании постепенно понимают: просто доработать готовую LLM через RAG — это не достаточно. Нужны модели, которые глубоко знают специфику вашей компании и могут давать ответы, заточенные именно под вашу организацию.

Adobe недавно запустила сервис, позволяющий переучивать Firefly под конкретные нужды. FICO создает специализированные модели для финансового сектора. Arcee.ai предлагает кастомизацию своих моделей клиентам.

Google говорит, что их преимущество — это не только широкий выбор чипов, но и мониторинг процесса обучения, плюс опыт, полученный при создании Gemini.

Среди первых клиентов: AI Singapore (консорциум исследовательских центров), которые создали модель SEA-LION v4 с 27 миллиардами параметров, и исследовательская команда Salesforce.

Конкуренция разгорается

Vertex AI Training напрямую конкурирует с CoreWeave и Lambda Labs, которые уже давно предоставляют доступ к мощным GPU. Но главные соперники — это AWS и Microsoft Azure, которые контролируют львиную долю рынка облачных сервисов.

Суть различия вот в чем: просто иметь доступ к GPU недостаточно. Нужна целая экосистема инструментов, поддержки и надежности, которую предоставляет Google.

Хотите быть в курсе того, как компании создают собственные AI модели, какие инструменты для этого используют и почему это становится критически важным?🔔 Подпишитесь на мой канал «ProAI» в Telegram, чтобы получать свежие новости о развитии корпоративного AI и трендах в машинном обучении!