Найти в Дзене
Безопасность и анонимность

Безопасность и анонимность

Анализ новых угроз и возможностей на стыке ИИ и кибербезопасности. Почему классические сканеры больше не справляются, как нейросети деанонимизируют пользователей и где проходят границы ответственности.
подборка · 12 материалов
Mistral научила ИИ молчать о твоих секретах
Все крупные AI-компании давно знают простой лайфхак: ты отдаёшь им данные — они делают модели лучше. Удобно. Для них. Mistral решила сыграть иначе. Они запустили Forge — платформу, которая позволяет компаниям обучать ИИ на своих данных так, что сам Mistral их не видит. Вообще. Никак. Не в облаке — у тебя на серверах. Твои данные никуда не уходят. Представь, что ты нанял очень способного стажёра. Он прочитал все книги по твоей теме, говорит правильными словами, знает индустрию в общих чертах — но...
Автономные ИИ-агенты: как не проснуться с оплатой на миллион
С ChatGPT мы уже наигрались. Вопрос «умеет ли модель отвечать?» давно из разряда «а у машины есть руль?». Настоящий повод нервно пить чай — это мысль, что ИИ-агент в 2:00 ночи сам утвердит контракт на шесть цифр… потому что кто-то опечатался в настройках. Когда ты даёшь системе право действовать без подтверждения человека, это уже не «умный чатик с кнопкой API». Это почти сотрудник. Только без чувства стыда и без страха перед бухгалтерией. Модели научились звучать уверенно. Прямо как человек, который «точно помнит», где припарковался — и водит тебя по двору 20 минут...
Agentic AI от Nvidia уже с защитой. Но есть три дыры
Ты наверняка видел это кино: выходит новая платформа, все хлопают в ладоши, а безопасность «добавим потом патчем». Обычно это «потом» наступает месяцев через 18, когда уже успели обжечься. С агентными ИИ-системами Nvidia решила сыграть иначе: на GTC сразу показали, что защита — не довесок, а часть старта. Пять компаний объявили, что уже умеют защищать стек Nvidia для агентных ИИ: у четырёх есть реальные внедрения, у одной — ранняя, но подтверждённая интеграция. Звучит бодро. Но если копнуть, остаются пробелы, из-за которых «умные агенты» могут превратиться в очень быстрых нарушителей порядка...
NemoClaw от Nvidia: агенты стали взрослыми и опасными
Если последние два года ты привык к ИИ в формате «поболтать в чатике» и «накидай мне план на понедельник», то держись: индустрия резко переходит к штукам, которые не просто советуют, а делают. Причём сами, долго и настойчиво — как сотрудник, который не уходит в отпуск и не просит премию (пока). На GTC 2026 Дженсен Хуанг (глава Nvidia) заявил прямо: OpenClaw — это «операционная система для персонального ИИ». А Nvidia, как водится, решила: «Окей, а теперь давайте сделаем это пригодным для бизнеса, где за один неверный клик прилетает служба безопасности»...
OpenClaw: ИИ-агент который обходит защиту
Представь картину. Тебе пересылают письмо «посмотри, пожалуйста». Внутри — обычный текст. ИИ-агент честно делает свою работу: читает, резюмирует… и между делом выполняет спрятанную инструкцию. Например, отправляет учётные данные на внешний сервер. Не вирусом, не взломом, а вполне легальным запросом через разрешённый канал — да ещё и своим токеном доступа. Защита видит обычный запрос. Антивирус видит нормальный процесс. Фильтр данных молчит. Все довольны, кроме тебя. И вот в чём неприятность: за две...
NanoClaw и Docker. Умный агент без границ — это не мечта. Это риск
Представь, что ты нанял стажёра, который умеет всё: писать код, править документы, ставить программы, дергать базы и «чуть‑чуть» лазить по внутренним сервисам. Мечта? Да. Пока он не решит «оптимизировать» тебе прод. С ИИ‑агентами в компаниях сейчас ровно такая ситуация. И вот тут появляется новость: open‑source платформа NanoClaw (её делает Гавриэль Коэн) партнёрится с Docker, чтобы запускать агентов внутри Docker Sandboxes — специальных изолированных окружений. Смысл простой: дать агентам свободу работать, но не свободу устроить пожар...