Добавить в корзинуПозвонить
Найти в Дзене
File Energy

Google выпустила Deep Research и Deep Research Max и заявила претензию на роль главной платформы корпоративных ИИ-исследований

Двадцать первого апреля 2026 года Google представила два новых автономных агента в Gemini API - Deep Research и Deep Research Max. Оба построены на модели Gemini 3.1 Pro и доступны через Interactions API. Сундар Пичаи, глава Google, описал суть запуска одной фразой - используйте Deep Research, когда нужны скорость и эффективность, и Max, когда нужно максимальное качество сбора контекста и синтеза с расширенными вычислениями на этапе рассуждения. За этой формулировкой стоит нечто большее, чем очередное обновление модели. Google впервые предложила инструмент, способный за один API-вызов объединить открытый веб с закрытыми корпоративными источниками и выдать аналитический отчёт со встроенными графиками. Картина рынка ИИ-агентов после этого запуска заметно перерисовывается. Декабрь 2025 года Google встретил первой публичной версией Deep Research, доступной через API. Тогда это была сильная демонстрация концепции, но больше похожая на продвинутый суммаризатор веб-страниц. За четыре месяца в
Оглавление

Двадцать первого апреля 2026 года Google представила два новых автономных агента в Gemini API - Deep Research и Deep Research Max. Оба построены на модели Gemini 3.1 Pro и доступны через Interactions API. Сундар Пичаи, глава Google, описал суть запуска одной фразой - используйте Deep Research, когда нужны скорость и эффективность, и Max, когда нужно максимальное качество сбора контекста и синтеза с расширенными вычислениями на этапе рассуждения. За этой формулировкой стоит нечто большее, чем очередное обновление модели. Google впервые предложила инструмент, способный за один API-вызов объединить открытый веб с закрытыми корпоративными источниками и выдать аналитический отчёт со встроенными графиками. Картина рынка ИИ-агентов после этого запуска заметно перерисовывается.

Что нового по сравнению с декабрьской превью-версией и почему это не косметическое обновление

Декабрь 2025 года Google встретил первой публичной версией Deep Research, доступной через API. Тогда это была сильная демонстрация концепции, но больше похожая на продвинутый суммаризатор веб-страниц. За четыре месяца вышло следующее поколение, и разница оказалась не количественной, а качественной. На бенчмарке DeepSearchQA новая версия Max набрала 93,3 процента, тогда как декабрьский предшественник показывал 66,1. На Humanity's Last Exam, тесте, проверяющем способность модели справляться с задачами уровня экспертов в разных дисциплинах, прирост с 46,4 до 54,6 процента. Цифры выглядят сухими, но за ними прячется качественный скачок в способности агента рассуждать о найденной информации, а не просто её сжимать.

Главное архитектурное изменение - поддержка протокола Model Context Protocol. Это значит, что агент теперь умеет выходить за пределы открытого веба и работать с закрытыми корпоративными источниками. Хедж-фонд может направить Deep Research одновременно на свою внутреннюю базу сделок и на внешний финансовый терминал, а затем попросить агента синтезировать выводы из обоих источников вместе с публичной информацией. До недавнего времени для такой задачи требовалась серьёзная инженерная разработка с нуля. С добавлением MCP всё это сводится к одному конфигурационному шагу. Google сообщила, что активно сотрудничает с FactSet, S&P Global и PitchBook над их MCP-серверами, и это сразу даёт понять, на каких рынках компания собирается закрепиться в первую очередь.

Различие между двумя версиями агента и какие задачи они решают по разному

Архитектура с двумя ярусами отражает фундаментальный компромисс в дизайне ИИ-агентов между скоростью и тщательностью. Deep Research стандартного класса заменяет декабрьскую превью-версию и оптимизирован под низкую задержку и интерактивные сценарии. Идеальная роль для него - стриминг результатов в клиентский интерфейс, когда пользователь ждёт ответа в режиме разговора и не готов отходить от экрана надолго. Дешевле, быстрее, для случаев, когда отчёт нужен прямо сейчас.

Deep Research Max устроен иначе. Он использует расширенные вычисления на этапе вывода, итеративно рассуждает, возвращается к источникам, проверяет промежуточные предположения, уточняет финальный отчёт. Время выполнения может растягиваться до часа, а в некоторых случаях упирается в шестидесятиминутный таймаут платформы. Типичный сценарий применения - асинхронные фоновые процессы, ночной cron-job, готовящий аналитикам к утру набор подробных отчётов. По внутренним замерам Google, Max консультируется со значительно большим числом источников и точнее взвешивает противоречивые свидетельства, чем предшественник. Все отчёты сопровождаются ссылками - от документов SEC до открытых рецензируемых журналов.

Интересно, что в качественных оценках экспертов внутри Google новая версия Max выиграла у декабрьского аналога почти по всем критериям, кроме внутренней согласованности и фактической верности. Это редкий случай, когда производитель сам открыто признаёт, что прирост по охвату и глубине не везде идёт без потерь. Старая версия в каких-то узких сценариях остаётся более точной. Понимание этой особенности важно для тех, кто будет внедрять агента в продакшен. Не каждая задача требует Max-режима. Иногда простая Deep Research даёт более устойчивый результат при значительно меньшей цене.

Как устроен набор инструментов агента и что значит универсальный подход к источникам данных

Список инструментов, которые можно включать одновременно, выглядит впечатляюще. Google Search для широкого охвата открытого веба, URL Context для глубокой работы с конкретными ссылками, Code Execution для запуска кода и проверки гипотез на лету, File Search для собственных загруженных документов и произвольные удалённые MCP-серверы для подключения корпоративных систем. Все эти инструменты работают в одном вызове, и агент сам решает, какой из них применить на каждом этапе рассуждения. Опционально веб можно отключить полностью - тогда поиск пойдёт только по пользовательским данным, что критично для отраслей с требованиями конфиденциальности.

Многомодальное обоснование данных тоже сделано серьёзно. В качестве входного контекста принимаются PDF, CSV, изображения, аудио и видео. Финансовый аналитик может загрузить квартальный отчёт компании, аудиозапись звонка с инвесторами и графики рынка, а агент свяжет всё это в единое исследование. Учёный из биотех-сектора - набор статей, экспериментальные данные в CSV и микроскопические снимки. Агент строит логику обоснования прямо из этих материалов, а не пытается переобозначить их через свои собственные представления о теме.

Особое внимание заслуживает нативная генерация графиков и инфографики прямо в теле отчёта. Это первый раз, когда Deep Research в Gemini API не только пишет текст, но и создаёт высококачественные визуализации. Доступны два режима - HTML с таблицами, SVG-диаграммами и структурированными лейаутами, идеально подходящими для встраивания в веб-дашборды, и Nano Banana, генератор растровых изображений, встроенный в Gemini, для стилизованной инфографики и презентаций. Параметр visualization auto позволяет агенту самому решать, когда и как вставлять графики, или пользователь может задать конкретный режим вручную.

Совместное планирование, стриминг и другие новые элементы интерфейса работы с агентом

Появилась функция совместного планирования. План исследования можно просмотреть и скорректировать до того, как агент начнёт его выполнять. Это решение неочевидное, но очень важное в контексте корпоративного применения. Когда агент запускается на длительную задачу, занимающую десятки минут вычислений, никому не хочется получить через час отчёт, идущий не туда. Возможность проверить и подкорректировать план перед запуском экономит вычислительные ресурсы и нервы заказчика.

Стриминг промежуточных рассуждений и результатов в режиме реального времени - ещё одна полезная находка. Для интерактивных интерфейсов, где пользователь сидит перед экраном и ждёт результат, важно видеть, что агент не завис, а реально работает. Поток мыслительных шагов с живыми сводками и постепенно появляющимися фрагментами текста и изображений делает взаимодействие осязаемым. Особенно когда речь идёт о Max-версии, где общее время выполнения может превышать многие минуты, и без обратной связи ожидание становится невыносимым.

Технически вызов агента выглядит просто. Через Interactions API задаётся имя агента (deep-research-preview-04-2026 или deep-research-max-preview-04-2026), параметр background true для асинхронного выполнения, набор инструментов и сам запрос. Дальше клиентский код опрашивает идентификатор задачи и получает результаты по мере готовности. Привычным разработчикам, имеющим опыт работы с Gemini API, переход потребует минимальных изменений в существующем коде.

Целевая аудитория и какие отрасли Google хочет завоевать в первую очередь

Google не скрывает, что метит в две конкретные индустрии - финансы и науки о жизни. Партнёрства с FactSet, S&P Global и PitchBook закрывают сектор финансовой аналитики. Хедж-фонды, инвестиционные банки, аналитические агентства получают возможность встроить Deep Research в свои существующие пайплайны через стандартизированный протокол, не теряя контроля над собственными данными. Чувствительная информация остаётся в исходной среде, а агент просто запрашивает её через MCP-сервер с нужной авторизацией.

В науках о жизни сценарии похожи, но материал другой. Учёный, готовящий обзор по новому соединению с потенциальным терапевтическим применением, может направить агента одновременно на свежую литературу из открытых журналов, на внутренние результаты экспериментов и на специализированные базы данных по белковым структурам. Раньше такая работа занимала дни, иногда недели человеческого времени высококвалифицированного специалиста. Теперь она превращается в задачу на несколько часов с финальным отчётом, готовым к редактуре.

Помимо двух флагманских отраслей, на горизонте видны рыночные исследования, юриспруденция, аудит, академическая работа. Везде, где задача сводится к сбору информации из множества источников, её сравнению и синтезу выводов с обязательной атрибуцией ссылок, Deep Research получает естественное преимущество. Цена в 2 доллара за миллион токенов на входе и 12 долларов за миллион токенов на выходе при контекстном окне в миллион токенов делает применение экономически осмысленным для большинства корпоративных пайплайнов. Разница в шесть раз между чтением и генерацией ощутима, но в контексте задач, где итоговый отчёт обычно занимает заметно меньше места, чем исходный материал для анализа, общая стоимость одного исследования остаётся приемлемой.

Нюансы, ограничения и риски, о которых Google говорит сдержанно

Не всё в запуске идеально. Несколько пользователей обратили внимание, что новые агенты доступны только через API, но не в потребительском приложении Gemini. Подписчики Gemini App Pro почувствовали себя обделёнными и достаточно громко высказались на этот счёт. Google пока не комментирует, когда и в каком виде новинки появятся для конечных пользователей. Зато в ближайшее время оба агента появятся в Google Cloud для корпоративных клиентов, что подтверждает корпоративный фокус всей инициативы.

Преview означает превью. Соглашения об уровне обслуживания пока ограниченные, квоты могут меняться, и для критических продакшен-нагрузок без резервного варианта режим использовать не стоит. Шестидесятиминутные таймауты реальны. Слишком широкие запросы могут упереться в лимит и вернуть частичный отчёт. Конспект рассуждений потребляет токены - если включить сводку мыслительных шагов, за неё тоже платится как за выходные токены.

Особое внимание стоит уделить безопасности при работе с MCP. Девятого апреля 2026 года были раскрыты критические уязвимости в этом протоколе, которые подвергли двести тысяч серверов риску удалённого выполнения кода. До того как подключать Deep Research к собственным MCP-серверам, имеет смысл убедиться, что они пропатчены. История с уязвимостями MCP параллельно отозвалась в инцидентах с моделью Mythos от Anthropic, и общий вывод индустрии один - протокол мощный, но требует аккуратного обращения.

Как Deep Research встраивается в общий ландшафт автономных исследовательских агентов

Рынок ИИ-агентов становится всё плотнее. У Anthropic есть свой подход через Claude и продвинутую интеграцию с MCP. У OpenAI - Deep Research в составе ChatGPT. У Perplexity - быстрый поиск с прозрачной атрибуцией источников. Google вступает в эту толпу с уникальной комбинацией - своя поисковая инфраструктура планетарного масштаба и стандартизированный протокол подключения корпоративных источников через MCP. Никто из конкурентов сейчас не предлагает агента, который мог бы одновременно опрашивать открытый веб в масштабе Google Search и навигировать проприетарные репозитории через стандартный протокол.

Это положение даёт Google стратегический козырь, особенно в корпоративном сегменте, где вопрос интеграции с существующими данными часто оказывается более важным, чем сами интеллектуальные способности модели. Хедж-фонды и фармацевтические компании выбирают инструменты не по бенчмаркам, а по тому, насколько органично они вписываются в действующие процессы. Поддержка MCP с FactSet и S&P Global из коробки - аргумент, который для финансовой аналитики весит больше, чем процентные пункты в DeepSearchQA.

В долгосрочной перспективе запуск Deep Research и Deep Research Max выглядит частью более широкого движения индустрии в сторону агентных систем, способных выполнять многоэтапные задачи без постоянного вмешательства человека. Каждое крупное поколение моделей всё больше времени тратит на собственное рассуждение перед ответом, всё активнее использует инструменты, всё чаще работает в фоновом режиме часами, а не отвечает в режиме чата секундами. Двадцать первое апреля 2026 года показало, что Google готов к этой новой реальности и собирается стать одной из её опорных платформ.