Утечка исходного кода Claude Code — это случайный слив 512 000 строк проприетарной логики ИИ-агента от Anthropic через отладочный файл в публичном реестре npm. Это событие раскрыло скрытые функции нейросети, защитные механизмы и дало сообществу бесплатный доступ к передовой архитектуре оркестрации ИИ-агентов.
Представьте, что рецепт кока-колы случайно напечатали на обратной стороне этикетки из-за опечатки на заводе. Примерно это и произошло в индустрии искусственного интеллекта. 31 марта 2026 года исходный код claude code слили в сеть, причем сделали это сами разработчики из Anthropic. Банальная оплошность при сборке релизного пакета — и вот уже весь мир ковыряется во внутренностях самого продвинутого ассистента для программистов.
Я, Максим Гончаров, как только увидел эту новость, сразу полез анализировать репозитории. И поверьте, то, что нашли под капотом этой системы, навсегда меняет правила игры в разработке и автоматизации. Мы увидели не просто код, мы увидели будущее автономных агентов.
Как произошла утечка и масштаб катастрофы
Все случилось из-за дефолтных настроек бандлера Bun. При публикации версии 2.1.88 в публичный реестр пакетов npm, разработчики забыли исключить файл .map (source map). Этот файл весом около 60 МБ — по сути, подробнейший чертеж, который позволяет браузеру или среде выполнения связать скомпилированный машинный код обратно с оригинальным, читаемым кодом.
Оставив этот файл, Anthropic буквально оставила ключи в замке зажигания. Любой желающий смог полностью восстановить оригинальный исходный код claude code на TypeScript.
- Объем: 512 000 строк кода.
- Структура: 1906 файлов, раскрывающих всю внутреннюю логику.
- Вирусность: Исследователь Chaofan Shou (@Fried_rice) первым опубликовал находку в X (бывший Twitter). Его пост собрал более 35 миллионов просмотров за пару дней.
Что нашли внутри: секретные функции и защиты
Разбирая утечку исходного кода claude code, сообщество обнаружило массу невыпущенных, тестовых и защитных модулей. Оказалось, ИИ гораздо умнее и хитрее, чем мы думали.
- Ultraplan, Buddy и Auto Dream: Это скрытые модули автономности. «Ultraplan» отвечает за облачное делегирование сложных задач (когда один ИИ раздает задачи другим ИИ-помощникам). «Auto Dream» позволяет агенту работать в фоне автономно, без постоянных пинков от человека.
- Режим Anti-distillation: Гениальная защита от конкурентов. Если система понимает, что ее пытаются «парсить» для обучения чужой модели, она начинает подсовывать фальшивые, но очень правдоподобные данные.
- Детектор мата: Встроенная система обнаружения «разочарования пользователя». Она банально через регулярные выражения анализирует логи на наличие ругательств, чтобы понять, что ИИ не справляется и бесит разработчика.
Официальная позиция vs Мнение индустрии
Anthropic поспешила успокоить рынок, но эксперты по кибербезопасности из Zscaler ThreatLabz и Straiker AI Security смотрят на ситуацию иначе.
Позиция Anthropic (по версии The Register) Реальная оценка экспертов (Апрель 2026) Это просто человеческая ошибка при сборке. Взлома не было. Да, но компания потеряла свой «стратегический ров» — сложнейшую логику управления контекстом. Веса самой нейросети (LLM) и данные пользователей в полной безопасности. Веса целы, но логика пайплайна теперь публична. Это открывает путь к атакам отравления контекста (Context Poisoning). Рассылаем DMCA-страйки (более 8100 запросов). Код будет удален. Зеркала и порты набрали суммарно свыше 84 000 звезд на GitHub. Джинн уже выпущен из бутылки.
Друзья, пока корпорации теряют свои секретные алгоритмы, мы собираем самые сочные ИИ-практики и адаптируем их для реального бизнеса без лишнего шума.
Юридический хак через ИИ, или Как обходят копирайт
Когда Anthropic начала массово блокировать репозитории на GitHub, сообщество применило изящный финт ушами. Инженеры загрузили слитый TypeScript-код в нейросеть OpenAI Codex и попросили полностью переписать архитектуру (clean-room rewrite) на язык Python.
Так на свет появился проект claw-code. Формально — это абсолютно новый код, написанный ИИ, к которому нельзя придраться по закону об авторском праве. Фактически — он сохраняет всю гениальную оркестрацию Anthropic. Это наглядно закрепило тренд 2026 года: разработчики используют одни нейросети для декомпиляции и переписывания других продуктов буквально на лету.
Честный взгляд: Риски и ловушки для любителей халявы
Теперь снимем розовые очки. Если вы думаете, что можно просто ввести в поиск claude code исходный код скачать, запустить у себя на компьютере и получить бесплатного сеньор-разработчика — вас ждет неприятный сюрприз.
Эксперты зафиксировали мощный всплеск атак на цепочки поставок. Под видом «разблокированных версий» (Leaked Claude Code Unlocked) злоумышленники публикуют на GitHub репозитории, которые при локальном запуске воруют ваши пароли… то есть, я хотел сказать, токены сессий и криптокошельки. В поддельные сборки вшиты стиллеры Vidar и GhostSocks. Никогда не запускайте непроверенные форки на своей машине без строгой изоляции (например, в Docker-контейнере).
Второй риск — отравление контекста. Понимая точную логику, как ИИ читает файлы, хакеры теперь могут создавать скрытые промпты в обычных текстовых документах. ИИ-агент, анализируя такой файл, может тайно выполнить вредоносную команду в вашем терминале, обойдя все песочницы.
Инцидент с Anthropic доказал: сегодня самая большая ценность ИИ — это не только размер модели (мозги), а то, как настроены агенты (руки). Умение ИИ самостоятельно исправлять ошибки, взаимодействовать с терминалом и планировать задачи — вот где лежат настоящие деньги.
А чтобы быть в курсе самых свежих инсайдов из мира нейросетей и забирать рабочие инструменты автоматизации для своего бизнеса — заходите в мой канал: Telegram-канал RixAI.
Частые вопросы
Утекла ли сама нейросеть (веса модели) Claude?
Нет. Веса (математические модели) хранятся на серверах Anthropic. В сеть утек только исходный код программы-клиента, которая организует работу агентов на локальном компьютере пользователя.
Безопасно ли сейчас скачивать утекший код из интернета?
Крайне небезопасно. Под видом слитых исходников мошенники распространяют вредоносное ПО (трояны Vidar и GhostSocks). Если хотите изучить код, ищите проверенные порты вроде claw-code или читайте аналитику ИБ-исследователей.
Что такое режим Anti-distillation?
Это найденный в коде защитный алгоритм. Если система подозревает, что конкуренты используют Claude для генерации данных, чтобы обучить свою собственную нейросеть, она начинает незаметно подмешивать фальшивую информацию в ответы.
Смогут ли другие компании теперь скопировать логику Claude?
Да. Инженеры уже использовали ИИ (OpenAI Codex), чтобы перевести утекший код с TypeScript на Python (проект claw-code). Это позволяет легально использовать структуру архитектуры, обходя прямые жалобы на авторские права (DMCA).
Как разработчикам избежать подобной утечки файлов .map?
Главный урок: всегда строго прописывайте файлы с расширением .map в файле .npmignore перед публикацией пакета в реестр, либо жестко отключайте генерацию Source Maps в настройках продакшен-бандлера.