Масштабный релиз для ChatGPT и API
21 апреля 2026 года OpenAI запустила ChatGPT Images 2.0 внутри ChatGPT и вывела модель gpt-image-2 в API. В release notes компания указала, что новый генератор доступен на всех планах ChatGPT. На странице для разработчиков OpenAI описывает gpt-image-2 как флагманскую модель для генерации и редактирования изображений высокого качества.
Для OpenAI этот запуск закрывает важный этап развития визуальных моделей. Генерация изображений теперь оформлена как отдельный продуктовый слой со своими сценариями применения, правилами безопасности и понятной интеграцией для разработчиков. В анонсе компания показывает прикладные форматы: рекламные макеты, инфографику, постеры, комиксы, печатные материалы и карточки товаров.
Почему релиз привлёк столько внимания
Рынок давно ждал модель, которая уверенно работает с текстом внутри изображения. Красивые сцены нейросети научились собирать давно, а вот с подписями, плотной версткой, несколькими смысловыми блоками в одном макете и повторяемостью между кадрами проблемы сохранялись. OpenAI в новом релизе делает ставку именно на эти сценарии.
В официальном анонсе показаны учебные схемы, многоязычные плакаты, журнальные развороты, манга-страницы, рекламные брошюры, инфографика и печатные макеты с производственными полями. Такой набор примеров задаёт понятный вектор: компания продвигает модель в рабочие задачи, где ценятся аккуратная структура, читаемый текст и предсказуемый результат.
Что изменилось в качестве генерации
OpenAI прямо указывает на три крупных улучшения: более точный рендеринг текста, более сильную многоязычную поддержку и лучший контроль сложных сцен. На странице модели сказано, что gpt-image-2 умеет работать с гибкими размерами изображения и поддерживает high-fidelity image inputs. Это расширяет круг задач: модель подходит для генерации новых изображений, правок существующих визуалов и подготовки нескольких версий одного макета.
Отдельно заметен прогресс в композиции. OpenAI показывает сцены с несколькими персонажами, наборы связанных кадров, крупные плакатные формы и визуалы с большим количеством информационных элементов. Для дизайна, образования, маркетинга и контент-команд это одно из самых заметных улучшений: модель лучше удерживает структуру страницы и реже разваливает макет на случайный набор деталей.
Thinking-режим и новая логика генерации
Вместе с Images 2.0 OpenAI запустила images with thinking. В release notes компания пишет, что в этом режиме системе даётся больше времени на обдумывание задачи, после чего она планирует и уточняет изображение перед генерацией. В system card сказано подробнее: thinking-режим использует рассуждение и инструменты, включая веб-поиск, работу с пользовательскими файлами и выпуск нескольких изображений по одному запросу.
По сути, OpenAI меняет сам процесс работы с генератором. Пользователь может задать короткую задачу, а система соберёт контекст, выстроит логику сцены, распределит текстовые блоки и затем перейдёт к отрисовке. Для сложной инфографики, раскадровок, брендовых материалов и редакционных иллюстраций такой подход выглядит заметно практичнее традиционной схемы с длинным и перегруженным промптом.
Работа с языками
OpenAI подчёркивает, что модель лучше справляется с несколькими письменностями. В демонстрациях фигурируют латиница, кириллица, японский, корейский, китайский, деванагари, бенгальский и греческий. Для глобального рынка это важный шаг: генерация баннеров, упаковки, меню, карточек товаров и учебных материалов больше не завязана жёстко на английский язык.
Первые тесты прессы добавляют важную оговорку. Wired пишет, что качество в других языках выросло, однако стабильность остаётся неравномерной, и в части примеров встречаются псевдосимволы или смешение письменностей. Это показывает реальную картину без лишнего оптимизма: прогресс есть, но результат по-прежнему зависит от сложности задачи, длины текста и конкретного языка.
Что получает разработчик через API
На странице модели OpenAI указывает, что gpt-image-2 поддерживает два интерфейса: v1/responses и v1/chat/completions. Вход у модели может быть текстовым, изображения принимаются на вход и возвращаются на выходе, а видео и аудио для неё не заявлены. Такой набор делает GPT Image 2 удобной базой для редакторов, конструкторов креативов, маркетинговых платформ и внутренних корпоративных сервисов, где нужны генерация, редактирование, вариативность и высокая скорость выпуска контента.
OpenAI также подчёркивает пригодность модели для production workflows. Компания явно продвигает gpt-image-2 в прикладную плоскость: карточки товаров, презентационная графика, баннеры для разных форматов, визуалы для соцсетей, инфографика, комиксы, печатные материалы и локализованные версии одного макета.
Форматы, разрешение и серийные изображения
По данным The Verge, новая версия умеет выпускать до восьми согласованных изображений по одному запросу. Издание также пишет о поддержке форматов от 3:1 до 1:3 и о разрешении до 2K. Эти параметры важны для практики: один и тот же сюжет можно сразу адаптировать под баннер, мобильный экран, постер и вертикальный сторис-формат.
Для контент-команд это сокращает объём ручной доработки. Для дизайнеров даёт более удобную стартовую заготовку. Для продуктовых команд открывает путь к многоверсионным визуальным пайплайнам, когда один запрос сразу даёт набор согласованных креативов.
Сколько стоит GPT Image 2
На официальной странице pricing OpenAI указаны такие базовые ставки для gpt-image-2: 8 долларов за 1 млн image input tokens, 30 долларов за 1 млн output tokens и 5 долларов за 1 млн text input tokens. На странице API pricing OpenAI также показывает cached inputs для image и text, а для расчёта стоимости конкретной генерации отсылает к image generation calculator.
Для разработчиков здесь важна предсказуемая экономика сервиса. Генерация изображений оформлена как отдельный тарифицируемый слой, который можно закладывать в стоимость продукта и масштабировать под массовые сценарии. Такой подход особенно важен для сервисов, где счёт идёт на тысячи и десятки тысяч изображений в месяц.
Безопасность стала частью самого продукта
System card для ChatGPT Images 2.0 вышла почти одновременно с запуском, и по тону документа видно, насколько серьёзно OpenAI оценивает риски. Компания пишет о значительно усиленных знаниях о мире, о более точном следовании инструкциям и о способности генерировать сложные детали, включая плотный текст. Чем выше качество изображения, тем шире и поле для злоупотреблений.
OpenAI описывает многоступенчатую схему защиты: анализ запроса до генерации, проверку входных изображений и оценку готового результата перед показом пользователю. В документе приводятся показатели safe output на специально подготовленных тестах: 99,1 процента для обычного режима и 99,2 процента для thinking-режима. Эти цифры относятся к стресс-наборам с обходными запросами, а не к бытовому пользовательскому трафику.
Дипфейки, документы и биориски
По мере роста фотореализма у OpenAI меняется и перечень угроз. В system card компания прямо пишет, что без ограничений модель могла бы облегчить выпуск убедительных подделок с реальными людьми, событиями и документами. Поэтому в релиз встроены ограничения на чувствительные сценарии, а также меры по распознаванию происхождения контента.
Самая серьёзная часть документа касается биорисков. OpenAI сообщает, что в редких случаях отдельные визуальные материалы оказались достаточно точными, чтобы потенциально помочь новичку в опасных задачах на стыке биологии и химии. Из-за этого компания применила к Images 2.0 отдельные image-specific safeguards и усилила политику для таких сценариев. Для визуальной модели это показательная веха: её рассматривают уже как источник процедурного знания.
Маркировка и происхождение изображения
OpenAI продолжает использовать C2PA metadata и внедряет устойчивый невидимый watermark вместе с внутренними инструментами верификации. На фоне всё более правдоподобных изображений это превращается в важную часть инфраструктуры доверия. Для редакций, брендов, платформ и маркетинговых команд вопрос происхождения картинки становится одним из ключевых.
Если такой подход закрепится на уровне индустрии, рынок получит более внятные правила обращения с синтетическими изображениями. Процесс ещё далёк от завершения, однако OpenAI уже показывает: выпуск мощной image-модели без маркировки, происхождения и инструментов верификации больше не выглядит приемлемым вариантом.
Значение релиза для рынка
GPT Image 2 показывает направление, в котором движется визуальный ИИ в 2026 году. Первая волна строилась вокруг эффекта новизны. Следующий этап был связан с контролем над стилем и деталями. Текущий релиз смещает центр тяжести в сторону прикладного результата. Модель должна понимать задачу, собирать контекст, держать структуру макета, работать с текстом, учитывать формат площадки и выпускать материал, который можно быстро отправить в работу.
Для дизайнеров это более короткий путь от идеи до чернового макета. Для разработчиков — сильная image-модель с понятным API. Для бизнеса — возможность автоматизировать часть визуального производства без потери контроля над шаблонами и локализацией. Именно поэтому апрельский запуск OpenAI оказался таким заметным: компания показала генератор, который претендует на место в ежедневном рабочем процессе.
Главное по итогам
У GPT Image 2 есть все признаки большого продуктового релиза: единая связка ChatGPT и API, заметный скачок в работе с текстом, режим с предварительным рассуждением, выход в прикладные форматы и жёстко встроенный слой безопасности. По первым материалам видно и другое: OpenAI не ограничилась громким анонсом. Компания сразу публикует system card, обсуждает ограничения и признаёт слабые места в многоязычных сценариях.
Сейчас главный вопрос связан уже не с тем, умеет ли модель собирать выразительные картинки. Куда важнее, сможет ли она закрепиться как надёжный инструмент для реальной работы с графикой. По набору возможностей GPT Image 2 выглядит как самая серьёзная попытка OpenAI решить эту задачу за всё время развития своей визуальной линейки.