Найти в Дзене
PythonTalk

Claude Opus 4.6 и GPT-5.3-Codex вышли в один день

🤖 Пока вы спали, гиганты индустрии решили устроить перестрелку релизами. Разбираем, что нового выпустили Anthropic и OpenAI . 1️⃣ Claude Opus 4.6: контекстный монстр Anthropic продолжает давить на "умную безопасность" и работу с огромными объемами данных. 🟣1M Token Context: Воти догнали Gemini. Вы можете скормить модели всю документацию проекта, пару книг по архитектуре и логи за неделю. Они заявляют, что решили проблему "Context Rot" (когда модель тупеет к концу контекста) — 76% точности поиска "иголки в стоге сена" против 18.5% у Sonnet 4.5. 🟣Adaptive Thinking: Появился параметр /effort. Модель сама решает, когда нужно «подумать подольше» над сложной архитектурной задачей, а когда — быстро накидать бойлерплейт. 🟣Agentic Focus: В CLI теперь можно собирать команды агентов. Один пишет тесты, другой фиксит баги, третий делает ревью. Параллельно. 2️⃣ GPT-5.3-Codex: контроль над ОС OpenAI пошли по пути скорости и тотального контроля над окружением. 🔴Self-Creation: Прямым текстом

Claude Opus 4.6 и GPT-5.3-Codex вышли в один день 🤖

Пока вы спали, гиганты индустрии решили устроить перестрелку релизами. Разбираем, что нового выпустили Anthropic и OpenAI .

1️⃣ Claude Opus 4.6: контекстный монстр

Anthropic продолжает давить на "умную безопасность" и работу с огромными объемами данных.

🟣1M Token Context: Воти догнали Gemini. Вы можете скормить модели всю документацию проекта, пару книг по архитектуре и логи за неделю. Они заявляют, что решили проблему "Context Rot" (когда модель тупеет к концу контекста) — 76% точности поиска "иголки в стоге сена" против 18.5% у Sonnet 4.5.

🟣Adaptive Thinking: Появился параметр /effort. Модель сама решает, когда нужно «подумать подольше» над сложной архитектурной задачей, а когда — быстро накидать бойлерплейт.

🟣Agentic Focus: В CLI теперь можно собирать команды агентов. Один пишет тесты, другой фиксит баги, третий делает ревью. Параллельно.

2️⃣ GPT-5.3-Codex: контроль над ОС

OpenAI пошли по пути скорости и тотального контроля над окружением.

🔴Self-Creation: Прямым текстом: "GPT-5.3-Codex is our first model that was instrumental in creating itself". Модель дебажила свои же тренировочные прогоны и предлагала фиксы инфраструктуры. Это та самая петля обратной связи, о которой предупреждали теоретики ИИ. Теперь это просто рабочий тикет в OpenAI.

🔴Full Computer Operation: Модель теперь полноценно оперирует десктопом: понимает визуальный интерфейс, двигает окна, взаимодействует с софтом как человек. Точность в таких задачах подскочила до 64.7% (у людей — 72%).

🔴Cybersecurity High Capability: Впервые модель получила статус "High capability" в кибербезе. Она умеет искать уязвимости (и, очевидно, эксплуатировать их, хотя в пресс-релизе об этом говорят обтекаемо).

Новости почти уже выглядят так:

Сегодня вышло 3 SOTA-модели! Но пока вы это читали, они уже устарели!

Ну а в общем уже нет смысла обсуждать, какая модель лучше пишет код. Они все уже его пишут лучше тебя, username.

Сейчас разговор про то, какие модели лучше автономно и качественно решают задачи.

-2