На прошлой неделе прошла Google I/O 2025 — флагманская конференция, где Google традиционно показывает всё самое свежее из мира технологий.
В этом году всё крутилось вокруг искусственного интеллекта: от новых языковых моделей до генерации кино, музыки и даже живого общения с поиском через камеру.
👉 Кажется, Google превращает каждый из своих сервисов в ИИ-помощника. Что особенно интересно — многое доступно уже сейчас или появится в течение ближайших месяцев.
На связи Тимур Казанцев, автор тг-канала "Нейронки для всего" (забери бесплатный урок по созданию цифровых аватаров на основе нейросетей)
I/O 2025: Google ускорил эру искусственного интеллекта
Уже на самой презентации Google I/O 2025 CEO Сундар Пичаи отметил, что только за год объём обрабатываемых Google токенов вырос с 9,7 до 480 триллионов – в 50 раз . За этим прогрессом стоит новая «шестое поколение» TPU Ironwood (с 10× производительнее старого) , на котором и тренируются лучшие модели Google.
AI в поиске Google
Google активно внедряет ИИ прямо в поиск. Появляется AI Mode – новый режим в Google Search (для США, через Labs или сразу) . Там доступен Deep Search для «глубинных» ответов, а летом запустят Search Live (Project Astra) – диалоги с поиском через камеру в реальном времени . В AI Mode скоро будет анализ данных – построение графиков и диаграмм по запросам в финансах и спорте .
Оригинальные идеи: виртуальная примерка одежды (загрузил фото – увидел, как вещь сидит на тебе) , а также «умный» чекаут: выставил бюджет – Google сам отслеживает скидки на товар. В поиске уже 1.5 млрд пользователей видят AI-обзоры (AI Overviews) – это +10% эффективности в США и Индии . А в AI Mode/Overviews теперь встроен Gemini 2.5 – новейшая модель Google .
Новые возможности Gemini
Gemini 2.5 – теперь флагман: Pro версия лидирует на бенчмарках LMArena и WebDev Arena , а Flash (быстрая версия) улучшена в логике и коде . Добавлен режим «Deep Think» – усиленное мышление для сложных вычислений . Оба варианта теперь лучше защищены от хакерских «внедрений» в запросы, что делает их самыми безопасными моделями Google .
Gemini API получил поддержку agentic-запросов (Project Mariner – автозадачи), а также «сводки рассуждений» (model’s thoughts) – модель структурирует свои шаги в ответы . Появились thinking budgets – настройка числа «мыслительных» токенов для контроля задержки и стоимости.
Наконец, Gemini идёт везде: в этом году 7 млн разработчиков используют его (в 5× больше, чем год назад) , а её приложение на телефонах теперь набрало 400 млн активных пользователей в месяц . Новые фишки в приложении: создание интерактивных викторин «на лету», загрузка своих PDF/картинок в Deep Research , интеграция с Google Drive/Gmail, динамические инфографики и даже «подкастические» обзоры знаний на 45 языках через Canvas . На подходе Agent Mode – просишь модель «разобраться с делом» и она сама всё делает (пока в экспериментах у подписчиков Ultra) .
Генеративные медиа: видео, картинки и музыка
Google продолжает «давать кисть» креативщикам. Появился Veo 3 – нейросеть, генерирующая видео с нативным звуком. Судя по анонсу, теперь можно сгенерировать кино с диалогами без дополнительной озвучки . Уже выпущен в приложении Gemini для подписчиков AI Ultra и в облачной Vertex AI. Для любителей Veo 2 – добавили новые режимы: вырезание/добавление объектов, расширение сцены (outpainting) и пр .
Новая версия Imagen 4 умеет выводить сверхдетализированные изображения (шерсть, кожа, текстуры) в высоких разрешениях (до 2K) . В ней усилили поддержку набора текста, что удобно для плакатов и комиксов. Скоро обещают «Fast»-версию Imagen 4, работающую в 10× быстрее прежней.
Представлен и Flow – новый инструмент AI-режиссуры. Он позволяет создавать кино, управлять персонажами, сценами и стилями силой мысли (точнее – текстовых подсказок) . Пока Flow дают подписчикам Pro/Ultra в США. Также расширен Music AI: Lyria 2 теперь доступна авторам через YouTube Shorts и облако Google , а Lyria RealTime (реальное время) – любой может генерировать музыку с голосом или инструментами напрямую в студии AI .
Google Beam и перевод в Meet
Проект Starline (голографическая видео-связь) трансформируется в Google Beam – 3D-коммуникации для бизнеса. Новые Beam-устройства (HP и Zoom) с шестью камерами скоро появятся у корпоративных клиентов . С Beam разговоры становятся «как вживую»: perfect tracking головы с миллиметровой точностью и 60 FPS.
Кроме того, в Google Meet вышла мгновенная речь-перевод: на слух распознаётся и синтезируется голос собеседника (пока англ⇄испанский), сохраняя его тон и интонации . Это почти как живое общение без языкового барьера.
AR/VR и Android
Показали первые Android XR очки от Samsung (Project Moohan) и прототипы «умных» очков с Google Gemini. На них можно общаться, водить маршрут, делать фото и даже переводить разговор в реальном времени между двумя людьми . Обещают, что очки получат потребительский дизайн (партнёрства с Gentle Monster/Warby Parker) и выйдут в этом году.
В сегменте носимых устройств Wear OS 6 для разработчиков: Material 3 Expressive, обновлённые медиаконтролы, менеджер учётных данных для авторизации . Также анонсировали «Journeys в Android Studio» (автотестирование сценариев через текстовые запросы), Agent Upgrade (автообновление библиотек) и новые фичи Google Pay API для бесшовных платежей.
Итоги и выводы
Google I/O 2025 показал: мы движемся к тому, что ИИ “вездесущ” – в поиск, на смартфон, на экран очков и даже в виде студенческих проектов. Gemini 2.5 укрепляет позиции Google в гонке LLM , а новые инструменты вроде Veo 3 и Flow позволяют каждому стать креатором. При этом число пользователей ИИ растёт взрывными темпами (7 млн разработчиков, 400 млн юзеров Gemini, 480 трлн токенов в месяц) – кажется, будущее ближе, чем когда-либо.
Интересно, какие из этих технологий быстро станут повседневными у вас? Делитесь мнением и обязательно посмотрите полную трансляцию Google I/O 2025 на YouTube!
👉 Ну и загляните в мой Telegram — там я делюсь кейсами, схемами и нейросетями, которые не попадают в статьи!
И не забудьте про бесплатный урок по созданию цифровых аватаров на основе нейросетей, чтобы создавать рилзы и видеоконтент на автомате!
Увидимся в будущем, которое уже наступило!