Добавить в корзинуПозвонить
Найти в Дзене
Чат с AI

Они создали AI, который находит уязвимости быстрее людей. И решили его не выпускать

Если коротко — произошло что-то довольно необычное. Компания сделала новую версию своего AI. И… не стала выкладывать её в открытый доступ. Не потому что она “сырая”. А потому что она оказалась слишком мощной. Речь про компанию Anthropic. Если совсем просто: 👉 это те же люди, которые делают аналоги ChatGPT У них есть свой AI — он называется Claude. Это примерно как: 👉 разные компании, но суть одна: они делают нейросети, с которыми ты можешь общаться. И вот здесь появляется Mythos. Mythos — это не отдельный “приложение для людей”. Это экспериментальная версия их AI. Если упростить: 👉 это тот же самый “мозг”, но обученный на другой задаче Не только писать тексты.
Не только отвечать на вопросы и писать код. А искать слабые места в системах. И вот здесь становится интересно. Этот AI может: Причём не просто “подсказать”. А реально находить то, что люди могли не замечать. 👉 примерно как специалист по кибербезопасности
только быстрее и без усталости Потому что такая штука работает в обе
Оглавление
Обновление Mythos от кампании Anthropic
Обновление Mythos от кампании Anthropic

Если коротко — произошло что-то довольно необычное.

Компания сделала новую версию своего AI.

И… не стала выкладывать её в открытый доступ.

Не потому что она “сырая”.

А потому что она оказалась слишком мощной.

Сначала — кто вообще это сделал

Речь про компанию Anthropic.

Если совсем просто:

👉 это те же люди, которые делают аналоги ChatGPT

У них есть свой AI — он называется Claude.

Это примерно как:

  • ChatGPT от OpenAI
  • Claude от Anthropic
  • Gemini от Google

👉 разные компании, но суть одна:

они делают нейросети, с которыми ты можешь общаться.

И вот здесь появляется Mythos.

Mythos — это не отдельный “приложение для людей”.

Это экспериментальная версия их AI.

Если упростить:

👉 это тот же самый “мозг”, но обученный на другой задаче

Не только писать тексты.

Не только отвечать на вопросы и писать код.

А искать слабые места в системах.

Что он умеет

И вот здесь становится интересно.

Этот AI может:

  • анализировать код
  • находить ошибки
  • видеть уязвимости

Причём не просто “подсказать”.

А реально находить то, что люди могли не замечать.

👉 примерно как специалист по кибербезопасности

только быстрее и без усталости

Почему его не выпустили

Потому что такая штука работает в обе стороны.

Ты можешь:

👉 защищать системы

Но точно так же можно:

👉 использовать это для атак

И граница между этим очень тонкая.

Поэтому компания решила:

👉 не давать доступ всем подряд

А оставить модель только для ограниченного круга.

И вот здесь начинается самое важное

Раньше AI воспринимался как помощник.

Написать текст.

Ответить на вопрос.

Помочь с кодом.

Теперь ситуация меняется.

👉 AI начинает находить слабые места сам

И это уже другой уровень.

Почему это важно даже обычным людям

Потому что речь не только про “хакеров”.

Такие технологии влияют на:

  • безопасность сервисов
  • приложения, которыми ты пользуешься
  • сайты, где у тебя аккаунты

И если AI ускоряет поиск уязвимостей —

👉 он ускоряет всё

И хорошее, и плохое.

Но есть и другая сторона

Некоторые говорят, что это просто хайп.

Что:

  • похожие инструменты уже были
  • просто теперь это сделали на базе AI

И в этом есть доля правды.

Но сигнал уже есть

Самое важное — не сама модель.

А то, что её не выпустили.

Это значит:

👉 компании начинают бояться своих же технологий

И это происходит впервые так явно.

Итог

Мы привыкли думать, что AI — это “что-то, что пишет тексты”.

Но это уже не совсем так.

AI начинает делать вещи, которые раньше требовали людей.

И вопрос уже не в том, “насколько он умный”.

А в том:

👉 где проходит граница, после которой его лучше не выпускать

Вопрос

Как думаешь, такие технологии нужно открывать всем — или лучше держать под контролем?