Добавить в корзинуПозвонить
Найти в Дзене
CISOCLUB

: когда агенты ИИ сольют данные

Изображение: recraft Аналитическая компания Forrester опубликовала прогноз, согласно которому в 2026 году произойдёт крупная утечка данных, вызванная использованием агентских ИИ-систем. По мнению экспертов, это событие приведёт к кадровым последствиям и станет поворотным моментом в формировании новых подходов к информационной защите. Старший аналитик Пэдди Харрингтон, автор исследования, отметил, что с момента появления генеративного ИИ уже зафиксированы инциденты, связанные с потерей данных. Он считает, что по мере масштабного внедрения агентских сценариев и автономных решений, риски станут более масштабными и системными. Особенно уязвимыми окажутся те процессы, где ИИ напрямую взаимодействует с клиентами. В блоге Forrester Харрингтон написал, что автономные агенты нередко отдают приоритет скорости выполнения задач в ущерб точности и верификации, что может привести к серьёзным ошибкам. При отсутствии должных ограничителей такие ИИ-системы будут неосознанно нарушать принципы безопаснос

Изображение: recraft

Аналитическая компания Forrester опубликовала прогноз, согласно которому в 2026 году произойдёт крупная утечка данных, вызванная использованием агентских ИИ-систем. По мнению экспертов, это событие приведёт к кадровым последствиям и станет поворотным моментом в формировании новых подходов к информационной защите.

Старший аналитик Пэдди Харрингтон, автор исследования, отметил, что с момента появления генеративного ИИ уже зафиксированы инциденты, связанные с потерей данных. Он считает, что по мере масштабного внедрения агентских сценариев и автономных решений, риски станут более масштабными и системными. Особенно уязвимыми окажутся те процессы, где ИИ напрямую взаимодействует с клиентами.

В блоге Forrester Харрингтон написал, что автономные агенты нередко отдают приоритет скорости выполнения задач в ущерб точности и верификации, что может привести к серьёзным ошибкам. При отсутствии должных ограничителей такие ИИ-системы будут неосознанно нарушать принципы безопасности, действуя в рамках заложенных целей, но без учёта последствий.

Аналитик подчеркнул, что хотя в подобных инцидентах обычно ищут виновных среди персонала, в случае с ИИ это будет неправомерно. По его мнению, причины кроются в системных сбоях, а не в действиях отдельных сотрудников. Чтобы не допустить такого сценария, организации должны пересмотреть подход к проектированию ИИ-агентов, интегрируя меры контроля на самых ранних этапах разработки.

Рекомендации Forrester сосредоточены на применении методологии AEGIS — архитектуры защитных рубежей для информационной безопасности в контексте агентских ИИ-сред. Эта модель включает 6 направлений:

  • Управление, риск и соответствие (GRC);
  • Идентификация и контроль доступа (IAM);
  • Защита персональных данных и обеспечение конфиденциальности;
  • Защита приложений;
  • Управление угрозами;
  • Архитектура Zero Trust.

По мнению аналитиков Forrester, внедрение AEGIS позволит выстроить базовый уровень безопасности, необходимый для работы агентских ИИ в рамках бизнес-процессов. Контроль происхождения данных, мониторинг действий цифровых агентов, верификация полномочий и защита намерений — всё это должно стать стандартом, а не дополнительной функцией.

Оригинал публикации на сайте CISOCLUB: "Forrester: массовый инцидент с утечкой данных через агентский ИИ произойдёт в 2026 году и повлечёт увольнения сотрудников".

Смотреть публикации по категориям: Новости | Мероприятия | Статьи | Обзоры | Отчеты | Интервью | Видео | Обучение | Вакансии | Утечки | Уязвимости | Сравнения | Дайджесты | Прочее.

Подписывайтесь на нас: VK | Rutube | Telegram | Дзен | YouTube.