Найти в Дзене
Наталья Касперская

Интервью «Агенту будущего» про ИИ в кибербезопасности

«Российская газета» ведет спецпроект «Агент будущего» — он посвящен реальному опыту внедрения ИИ-агентов в разные сферы и перспективы ближайших лет. В рамках проекта мы с Олегом Капрановым поговорили о перспективах использования ИИ-агентов в кибербезопасности. Если говорить о перспективах применения ИИ в кибербезопасности, то все зависит от задач и места ИИ-агента в контуре. Его использование в качестве помощника или подсказчика в некритических задачах разумно. Именно так ИИ применяется в InfoWatch — наш внутренний агент закрытый, он дает подсказки пользователю: помогает разобраться с функциональностью продукта, отвечает на вопросы о том, как он работает. Однако полное доверие, делегирование ИИ важных прав, например, выписки штрафов, принятии решений о приеме на работу или об увольнении сотрудника — это недопустимо, потому что речь здесь идет о судьбоносных для человека решениях. Применяемые большие языковые модели (LLM) — это вероятностная технология, которая периодически «бредит». С
Интервью «Агенту будущего» про ИИ в кибербезопасности
Интервью «Агенту будущего» про ИИ в кибербезопасности

«Российская газета» ведет спецпроект «Агент будущего» — он посвящен реальному опыту внедрения ИИ-агентов в разные сферы и перспективы ближайших лет. В рамках проекта мы с Олегом Капрановым поговорили о перспективах использования ИИ-агентов в кибербезопасности.

Если говорить о перспективах применения ИИ в кибербезопасности, то все зависит от задач и места ИИ-агента в контуре. Его использование в качестве помощника или подсказчика в некритических задачах разумно. Именно так ИИ применяется в InfoWatch — наш внутренний агент закрытый, он дает подсказки пользователю: помогает разобраться с функциональностью продукта, отвечает на вопросы о том, как он работает.

Однако полное доверие, делегирование ИИ важных прав, например, выписки штрафов, принятии решений о приеме на работу или об увольнении сотрудника — это недопустимо, потому что речь здесь идет о судьбоносных для человека решениях.

Применяемые большие языковые модели (LLM) — это вероятностная технология, которая периодически «бредит». Со временем ситуация становится только хуже — качество работы LLM ухудшается, потому что модели дообучаются на собственных текстах, сгенерированных ими с ошибками, а не на выверенных человеком.

Меня пугают безальтернативные требования по внедрению «генеративного ИИ». Мы сейчас находимся на пике ИИ-хайпа, как это было с блокчейном: его вписали в госпрограммы, а когда интерес ушел, пришлось аккуратно и тихо «отползать» от внедрения.

Лучше дать другим поэкспериментировать и ошибиться, а потом учесть эти ошибки, чем очароваться технологией на пике хайпа, а потом разочароваться.