Найти в Дзене

«Responses API» 2.0: как сегодняшний апдейт OpenAI меняет рынок агентов-помощников

Что случилось Шаг к «рабочему ИИ». Responses API уже обрабатывает триллионы токенов; после апдейта агент может не только искать, но и действовать (добавить товар в корзину, отчитаться в CRM). Это выводит LLM-сервисы из категории «чат» в категорию «RPA-2.0».
Куда всё движется: OpenAI ясно показывает: будущее — в «многоинструментальных» моделях, которые сами пишут код, ходят в сервисы и завершают задачу от А до Я. Google отвечает ставкой на поисковую аудиторию и дорогой VIP-пакет, но Responses API даёт разработчикам свободу за старую цену. TL;DR: если вы хотите, чтобы ваш контент-бот сам оформлял покупки, строил графики и рендерил арты — сегодняшний апдейт делает это реальностью. Протестируйте демо-скрипт, а результаты (и баг-репорты!) присылайте в комментарии: устроим краш-тест новой эры агентного ИИ прямо в нашем гараже.
21 мая 2025 г.

Когда утром вышел патч к Responses API, многие разработчики ещё не успели осознать, что получили «коробку с лего» для сборки собственных GPT-агентов. OpenAI добавила сразу три крупных блока функциональности — и это самый заметный апгрейд экосистемы с момента запуска Responses в марте 2025 г.
21 мая 2025 г. Когда утром вышел патч к Responses API, многие разработчики ещё не успели осознать, что получили «коробку с лего» для сборки собственных GPT-агентов. OpenAI добавила сразу три крупных блока функциональности — и это самый заметный апгрейд экосистемы с момента запуска Responses в марте 2025 г.


Что случилось

  • Поддержка удалённых MCP-серверов. Теперь модель может «ходить» в любой внешний инструмент, подписанный по открытому протоколу Model Context Protocol: от Stripe до Twilio, — буквально двумя строками кода.OpenAI
  • Нативная генерация изображений gpt-image-1 и интеграция Code Interpreter. То, что раньше было эксклюзивом ChatGPT, стало частью API: агент может нарисовать картинку, тут же проанализировать csv-файл и вернуть результат одной цепочкой.OpenAI
  • Улучшенный file search + new enterprise-фичи: асинхронный background mode, «reasoning summaries» для дебага логики и шифрованные reasoning-items для клиентов Zero Data Retention.
-2

Почему это важно

  1. Агенты вместо ботов-одиночек. До сих пор большинству продуктов приходилось стыковать LLM, базу знаний и платёжку вручную. MCP + встроенные инструменты превращают Responses API в центральную шину: модель в течение одного диалога пишет код, читает файлы, пингует Shopify и шлёт SMS-уведомление.
  2. Ответ OpenAI на Google I/O 2025. Вчера Google открыл “AI mode” в поиске и объявил дорогой тариф AI Ultra ($249/мес) с режимом Deep Think для Gemini 2.5 Pro.Investopediablog.google OpenAI делает ход симметрично — но сохраняет прежние цены (например, $0.03 за сессию Code Interpreter).VentureBeat

Шаг к «рабочему ИИ». Responses API уже обрабатывает триллионы токенов; после апдейта агент может не только искать, но и действовать (добавить товар в корзину, отчитаться в CRM). Это выводит LLM-сервисы из категории «чат» в категорию «RPA-2.0».

Куда всё движется:

OpenAI ясно показывает: будущее — в «многоинструментальных» моделях, которые сами пишут код, ходят в сервисы и завершают задачу от А до Я. Google отвечает ставкой на поисковую аудиторию и дорогой VIP-пакет, но Responses API даёт разработчикам свободу за старую цену.

TL;DR: если вы хотите, чтобы ваш контент-бот сам оформлял покупки, строил графики и рендерил арты — сегодняшний апдейт делает это реальностью. Протестируйте демо-скрипт, а результаты (и баг-репорты!) присылайте в комментарии: устроим краш-тест новой эры агентного ИИ прямо в нашем гараже.