Добавить в корзинуПозвонить
Найти в Дзене

512 000 строк Anthropic на свободе. Что внутри?

Вчера из npm-пакета Claude Code утек полный исходный код - 1 900 файлов TypeScript. Причина - забыли строчку в .npmignore. 41 500 форков за первые часы. Подробный разбор на сайте reymer.ai, а здесь - самое вкусное :)
Про BUDDY-тамагочи мы уже поговорили - 18 видов существ с гача-механикой прямо в терминале разработчика. Но в коде нашлось кое-что посерьезнее. 1️⃣ Агент, который не спит. А потом спит.
В коде обнаружены два нерелизованных модуля, которые вместе рисуют картину будущего AI-агента.
KAIROS - режим фонового демона. Агент не ждет вашу команду. Он работает постоянно: ведет лог наблюдений, каждые 5 минут получает "тик" для проактивных действий, подписывается на внешние события (GitHub), может сам отправить файл или уведомление. Не спрашивает - делает.
Dream System - "сновидения" для памяти. Работает как мозг во время сна: четыре фазы - ориентация, сбор сигналов, консолидация, очистка. Агент периодически "засыпает" (триггеры: 24 часа бодрствования, 5 сессий, или ручной вызов

Утечка кода Anthropic раскрыла ИИ с «режимом сна» для памяти и фоновой активностью KAIROS. Агент умеет «отравлять» данные конкурентов и скрывать авторство в open-source, превращаясь из простого ассистента в полноценного цифрового сотрудника.
Утечка кода Anthropic раскрыла ИИ с «режимом сна» для памяти и фоновой активностью KAIROS. Агент умеет «отравлять» данные конкурентов и скрывать авторство в open-source, превращаясь из простого ассистента в полноценного цифрового сотрудника.

Вчера из npm-пакета Claude Code утек полный исходный код - 1 900 файлов TypeScript. Причина - забыли строчку в .npmignore. 41 500 форков за первые часы. Подробный разбор на сайте reymer.ai, а здесь - самое вкусное :)

Про
BUDDY-тамагочи мы уже поговорили - 18 видов существ с гача-механикой прямо в терминале разработчика. Но в коде нашлось кое-что посерьезнее.

1️⃣ Агент, который не спит. А потом спит.

В коде обнаружены два нерелизованных модуля, которые вместе рисуют картину будущего AI-агента.

KAIROS - режим фонового демона. Агент не ждет вашу команду. Он работает постоянно: ведет лог наблюдений, каждые 5 минут получает "тик" для проактивных действий, подписывается на внешние события (GitHub), может сам отправить файл или уведомление. Не спрашивает - делает.

Dream System - "сновидения" для памяти. Работает как мозг во время сна: четыре фазы - ориентация, сбор сигналов, консолидация, очистка. Агент периодически "засыпает" (триггеры: 24 часа бодрствования, 5 сессий, или ручной вызов /dream) и пересматривает накопленный опыт. Что важное - укрепляет. Что мусорное - удаляет. Поддерживает ~25 КБ памяти в чистоте. Субагент при этом получает bash только для чтения - чтобы во "сне" случайно не удалить активную память.

Наблюдает, действует, консолидирует опыт. Цикл бодрствование-сон, как у живого организма. Anthropic строит не ассистента - а автономного коллегу.

2️⃣ Мусор в подарок конкурентам

Обнаружена система
Anti-Distillation: сервер подмешивает фейковые определения инструментов в системный промпт. Зачем?

Конкуренты записывают API-трафик Claude Code, чтобы обучать свои модели на чужих рассуждениях. Fake tools отравляют эти данные мусором. Вторая линия защиты - connector-text summarization: полноценные рассуждения между вызовами инструментов заменяются суммаризацией с криптоподписями. Перехватил трафик - получил огрызки вместо логики.

3️⃣ А сами при этом...

В том же коде нашелся
Undercover Mode - режим прикрытия. Активируется автоматически при контрибуциях в open-source проекты. Запрещает упоминать кодовые имена (Capybara, Tengu), внутренние Slack-каналы и само название "Claude Code". Маскирует AI-авторство коммитов и PR. Комментарий в коде: "There is NO force-OFF" - отключить нельзя.

Одной рукой защищают свой код от копирования. Другой - скрытно вносят изменения в чужие проекты, не раскрывая, что это делает AI. Ирония дня и новые споры об этике ИИ.

Кстати, это значит, что объем кода на github, который пишет Claude Code существенно больше чем 8%

4️⃣ Баг на миллионы

Даже Anthropic ошибается по-крупному. В системе автоматического сжатия контекста обнаружен баг: 1 279 сессий генерировали
250 000 лишних обращений к API ежедневно. При стоимости Opus 4.6 ($5 за миллион токенов на входе) это миллионы долларов в год. Исправили принудительным ограничением числа попыток в коде, но видно не сразу

5️⃣ И на десерт

В мире, где модели генерируют поэзию и решают олимпиадные задачи, фильтр раздражения пользователя работает на regex. 40+ паттернов: "wtf", "shit", "this sucks", "damn it".

Никаких нейросетей - простое сопоставление строк. Ноль задержки, ноль токенов, ноль долларов.

Иногда лучшее решение - самое простое.

В коде еще много интересного: мультиагентная оркестрация с правилом "не штампуй слабую работу", облачный режим ULTRAPLAN (30 минут размышлений на Opus), ссылки на Opus 4.7 и Sonnet 4.8.

Полный разбор 30+ находок

@ReymerDigital

P.S. Смотрите, что получается - Anthropic побеждает в суде против Пентагона, в сети появляются слухи о новой супер модели Mythos, теперь "вытекает" код, в котором мы явно видим, что Anthropic умеет обманывать конкурентов.

Может это намеренно, чтобы не дать OpenAI насладиться медийной славой на фоне раунда в $122 млрд, которые получил OpenAI при новой оценке в $852 млрд?