Заставить ИИ написать калькулятор — давно не удивительно.
Заставить его сверстать лендинг — тоже.
Но заставить три актуальные флагманские модели создать трёхмерный браузерный Counter-Strike с мультиплеером, да ещё и за семь промптов, — это уже другая лига.
Автор эксперимента из InstantDB дал Codex Max 5.1, Claude Opus 4.5 и Gemini 3 Pro минимальные инструкции и наблюдал, что произойдет.
Без ручного кода.
Без подсказок по архитектуре.
Только последовательные шаги — и чистая агентность моделей.
Результат оказался куда любопытнее, чем «ИИ сделал игрушку». Он задел основы того, как модели будущего будут писать сложные программы без программистов.
🎮 Лобби открыто: три ИИ создают Counter-Strike на Three.js и InstantDB
Требования были максимально жёсткими:
- 🟦 3D-клиент на Three.js
- 🟩 механика стрельбы, урона, моделей игроков
- 🟧 мультиплеер с синхронизацией позиций
- 🟪 хранилище для комнат, переключение карт
И всё это модели собирали:
- автоматически
- непрерывно рефакторя свой же код
- без участия человека, кроме копирования ошибок обратно в чат
После примерно семи итераций каждая модель выдала:
играбельный шутер от первого лица, работающий в браузере.
И это — важный момент.
Не просто кусок кода.
А законченная система, в которой взаимодействуют фронтенд, бэкенд, сетевой слой и визуализация.
🏆 Кто справился лучше: сравнение моделей
🔵 Claude Opus 4.5 — лучший художник и фронтендер
Claude сделал:
- 🎨 наиболее красивую карту
- 🧍 человеческих персонажей, похожих на Minecraft
- 🔫 реалистичный POV-пистолет
- 🎭 лучшие анимации смерти
Но… споткнулся о React hooks.
useEffect, множественные canvas, двойные анимации — прям классика человеческих ошибок.
И это делает модель удивительно «человечной».
🟢 Gemini 3 Pro — лучший инженер-мультиплеерщик
Gemini единственный:
- 🌍 сразу подключил InstantDB presence
- 🔐 корректно сохранил комнаты
- 🔄 справился с рефакторингом на многокартность
- 🏗 постоянно запускал npm run build, валидируя проект
Gemini — единственная модель, которая вела себя «как настоящий senior engineer»:
читал доки, запускал билд, ловил ошибки, фиксировал.
🟡 Codex Max 5.1 — стабильный середнячок
Codex:
- 🧱 делал карты попроще, но работоспособные
- 🔍 активно пользовался introspection API
- 🧪 нередко исправлял ошибки собственным анализом типов
Он был не лучшим в дизайне и не лучшим в бэкенде, но удивительно надёжным.
Если бы это был человек, он был бы «универсальный джуниор, который всё делает на уровне 4/5».
🧩 Интересные технические детали, которые раскрылись в ходе эксперимента
🎯 1. Модели по-разному «думают»
Хотя формально все — LLM, их подходы различаются:
- Codex → introspection: заглядывает в типы, функции, модули
- Claude → документация: читает и переосмысляет
- Gemini → гибрид: и читает, и тестирует, и дебажит
Получается три разных инженерных архетипа.
🔔 2. Модели ошиблись одинаково в вопросе анимаций смерти
Фраза «animate deaths» была воспринята одинаково всеми ИИ как
«сделать визуальную анимацию смерти персонажа»,
хотя подразумевалось «звук при смерти».
Это редкий случай коллективного «семантического искажения».
🚪 3. Проблема React hooks оказалась самой сложной
Claude «застрял» не на трёхмерной графике и даже не на мультиплеере,
а на типичных ловушках React:
- множественное выполнение useEffect
- повторная инициализация канваса
- дублирующиеся анимации
Это сигнал: фреймворки с побочными эффектами — решающий барьер для ИИ-разработки.
🔄 4. Gemini — единственный, кто осознанно компилировал проект
Он буквально:
- делал правку
- собирал
- ловил ошибку
- правил дальше
Это прям поведение робота-программиста, который знает:
билд — единственный объективный судья.
🚀 Почему это важнее, чем кажется
Этот эксперимент доказывает:
⭐ 1. Модели способны создавать сложные системы по цепочке абстракций
По сути, семь промптов = небольшой ТЗ → рабочий продукт.
⭐ 2. Будущее разработки — это агентный цикл: генерируй → тестируй → исправляй
И Gemini показал, что уже понимает эту логику.
⭐ 3. LLM по-разному подходят к решению реальных задач
И это открывает путь к многомодельным пайплайнам, где:
- одна модель рисует
- другая пишет сеть
- третья рефакторит
- четвёртая тестирует
⭐ 4. Порог входа в программирование будет стремиться к нулю
Но React-подобные ловушки пока слишком сложны для не-программистов.
Нужны новые DX-инструменты — «код без багов по умолчанию».
🎮 Итог: ИИ впервые выступил как полноценный геймдев-отдел
Каждая модель:
- создала 3D-сцену
- построила персонажей
- добавила стрельбу, анимации, звук
- подключила мультиплеер
- синхронизировала позиции
- сохранила карты
- реализовала выбор комнаты
И всё это — без единой строчки кода от человека.
Это уже не «поиграться».
Это первый публичный сигнал, что ИИ смог:
💡 понять задачу уровня junior–middle full-stack геймдев-инженера и выполнить её от начала до конца.
📎 Источники
- Исходная статья:
https://www.instantdb.com/essays/agents_building_counterstrike - Демки игр, собранных моделями:
Codex Max 5.1 → https://cscodex.vercel.app
Claude Opus 4.5 → https://csclaude.vercel.app
Gemini 3 Pro → https://csgemini.vercel.app