Найти в Дзене
The IT in Finance
Подписаться

Внедрение ИИ в финсекторе зачастую происходит более успешно, чем в других областях

Никита Андреянов, технический директор Crosstech Solutions Group

Насколько успешно используется или будет использоваться ИИ в сфере кибербезопасности финансового сектора?

Традиционно в финансовом секторе особое внимание уделяется достоверности и актуальности данных, именно поэтому ИИ здесь чувствует себя наиболее комфортно. Ведь для алгоритмов машинного обучения ключевым аспектом является не столько сам алгоритм ИИ, а полнота и релевантность данных, на которых происходит обучение модели. Благодаря этому внедрение ИИ в финсекторе зачастую происходит более успешно, чем в других областях, где к данным предъявляются менее строгие требования. Поэтому такие кейсы как формирование продвинутого риск-скоринга, умные чат-боты, многочисленные антифрод сценарии, наподобие AML-контроля – это уже скорее сложившийся тренд в финтехе, а не какое-то новшество.

В то же время финтех накладывает дополнительные ограничения в части времени отработки модели, ведь речь идет о работе с транзакционными данными. И здесь критически важным является фиксация даты и времени, поэтому если модель будет недостаточно оптимизирована и будет запаздывать за реальными бизнес-процессами, то мы как следствие – получим запоздалое реагирование на кибератаки и угрозы ИБ. Стоит понимать, что ИИ не является новым СЗИ сам по себе, он скорее дополняет и усиливает уже имеющиеся практики и инструменты. Поэтому, однозначно можно сказать, что ИИ в ближайшее перспективе не сможет вытеснить традиционные инструменты в кибербезе, но дать новый vision и посмотреть на уже известную проблему под другим ракурсом – запросто. А это в свою очередь дополнительный индикатор при проведении комплексного расследования, который может в рамках root cause анализа указать на первопричину инцидента и своевременно принять организационные и технические меры по обеспечению ИБ.


Может ли ИИ сам выступать как угроза информационной безопасности и как с этим бороться?


Несмотря на преимущества использования ИИ в качестве инструмента по усилению кибербеза, стоит помнить и про обратную сторону медали. А именно то, что злоумышленники также совершенствуют свои атаки за счет продвинутых алгоритмов машинного обучения и нейронных сетей. Одно из наиболее очевидных и распространенных на сегодня явлений - это дипфейки, когда с помощью нейросети подменяют изображение и голос другого человека. Это может быть использовано как в качестве обхода биометрических авторизаций, так и как элемент социальной инженерии. Помимо этого, есть множество других примеров использования ИИ в злонамеренных целях - это может быть и автоматизация формирования фишинговых писем, и модернизированные алгоритмы брутфорса, и многое другое. А что самое интересное, становятся все актуальнее атаки типа "отравление данных для обучения", когда алгоритму ИИ на стороне кибербезопасников подкладывают заведомо ложные данные, чтобы испортить имеющийся алгоритм и сделать его не то, что бесполезным, а контрпродуктивным. Так, например, можно заставить алгоритм ИИ считать вредоносными критически важные АС, например 1С или тот же межсетевой экран. Именно поэтому ИИ нельзя на 100% доверять ключевые задачи в области информационной безопасности, а использовать его в качестве помощника и дополнительного инструмента.

The IT in Finance (https://t.me/itinfinance)