Федеральная служба по техническому и экспортному контролю (ФСТЭК) России приняла важное решение, которое стало новшеством в сфере кибербезопасности. В декабре 2025 года было официально признано, что технологии искусственного интеллекта (ИИ) представляют собой угрозу для кибербезопасности, особенно для критической информационной инфраструктуры страны. Это решение не просто заявление в прессе – оно обязывает всех разработчиков программного обеспечения, работающих с государственными структурами и критически важной информационной системой, учитывать эти угрозы.
Подпишись на наш телеграм, чтобы быть в курсе событий: https://t.me/astralot_ai
Вспоминая начало девяностых, можно вспомнить, как интернет казался чем-то далеким и нереальным. Люди не верили, что он станет частью повседневной жизни. Теперь же мы наблюдаем аналогичный процесс с искусственным интеллектом: только вчера он воспринимался как полезный инструмент, а сегодня его официально признали источником серьезных угроз для национальной безопасности. Это своего рода маркер, указывающий на серьезность ситуации.
ФСТЭК обозначил ряд конкретных угроз, связанных с применением ИИ. В обновленном банке данных угроз можно найти информацию о различных компонентах технологий, которые могут стать жертвой злоумышленников. В первую очередь это — модели машинного обучения. Это весь тот механизм, который отвечает за принятие решений и генерацию ответов на запросы. Также под угрозу попадают обучающие данные, или датасеты, которые содержат конфиденциальную информацию и на которых базируются модели.
Кроме того, ФСТЭК отметил подход Retrieval Augmented Generation (RAG), который позволяет моделям генерировать ответы на основе внешних данных. Наконец, важной частью являются LoRA-адаптеры, которые помогают адаптировать модели под задачи конкретных организаций. Все эти компоненты имеют свои уязвимости, что делает их потенциальными мишенями для киберпреступников.
Угрозы, связанные с искусственным интеллектом
Четыре основных вектора атак были прописаны ФСТЭК. Во-первых, это использование уязвимостей в ИИ-фреймворках. Как и любое программное обеспечение, инструменты для разработки ИИ могут иметь ошибки и недочеты в коде, которые преступники могут использовать для получения доступа к системам или кражи данных.
Во-вторых, модификация инструкций и конфигураций агентов – более хитрый метод. Например, если хакер изменит инструкцию ИИ, следящего за финансами, так, чтобы он отправлял данные на вредоносный сервер, то система будет работать, но по другим, нежелательным для клиента правилам.
Третьим методом является DoS-атака, направленная на исчерпание ресурсов запросов системы. Здесь злоумышленник посылает тонну запросов, пока система не перестанет отвечать на легитимные запросы пользователей, что приводит к сбоям в работе бизнеса.
Четвертый, наиболее умный способ атаки, связан с манипуляцией обучающими данными. Злоумышленник может «отравить» данные, на которых обучается модель, чтобы она начала выдавать результаты, полезные ему. Это может выразиться в том, что система начнет одобрять сомнительные заявки на кредиты или, наоборот, отклонять заявки добросовестных клиентов.
Специалисты уже отмечают, что реальные злоумышленники зачастую не прибегают к сложным математическим методам для взлома моделей, а используют такие практики, как промпт инжиниринг. Путем составления необычных текстовых запросов они могут заставить модель делать то, что им нужно. Это делает кибератаки доступными практически каждому, что серьезно увеличивает число угроз.
Реальные примеры утечек данных
Кроме теоретических аспектов, есть и примеры реальных инцидентов. Так, в начале 2025 года у китайской компании DeepSeek произошла серьезная утечка данных из-за неправильно настроенной облачной базы данных. Утекли записи пользователей, API-ключи и системные логи. Забрав необходимую информацию, хакеры получили доступ к функции управления всей системой.
Еще один инцидент произошел с ChatGPT, когда злоумышленники использовали уязвимость связанных с ним технологий и смогли получить доступ к конфиденциальным данным пользователей. Это подчеркивает, что даже высокозащищенные системы могут быть уязвимыми для атак через ИИ.
Сейчас многие компании начинают воспринимать трафик от крупных языковых моделей (LLM) как безопасный. Это опасная практика, так как злоумышленники могут маскировать свои атаки под обычный ИИ-трафик. Это привело к тому, что незаметность атак на корпоративный сектор возросла на 42%.
Несколько лет назад искусственный интеллект воспринимался как экзотическая и далекая технология. Однако сейчас он стал массовым инструментом, который внедряется в финансы, здравоохранение, производства и другие сферы. Ранее абстрактные угрозы теперь стали реальными. ФСТЭК зафиксировала эту реальность. Атаки на ИИ-системы теперь могут осуществить даже те, кто не имеет экспертных знаний о кибербезопасности — достаточно составить правильный текстовый запрос, и ИИ сгенерирует вредоносный код.
Что значит решение ФСТЭК для бизнеса в России? Дело в том, что большинство компаний не любят государственное регулирование. Это может казаться бюрократией, лишними расходами и проверками. Тем не менее, ФСТЭК не просто вводит новые правила для галочки. Оно выявляет реальные угрозы, которые могут серьезно повредить бизнесу.
Организации, которые работают с государственными системами или входят в критическую инфраструктуру, теперь обязаны учитывать угрозы ИИ при создании и развертывании своих систем. Разработчики программного обеспечения должны включать риски, связанные с ИИ, в свои модели угроз. Это означает, что при разработке новых приложений необходимо изначально продумывать, как защитить систему от возможных кибератак.
Таким образом, принятие ФСТЭК определяет новые реалии для бизнеса. Теперь компании должны внедрять стратегии и инструменты защиты, которые смогут предотвратить возможные угрозы, связанные с искусственным интеллектом. Эта ситуация требует от бизнеса более тщательного подхода к вопросам безопасности, чтобы минимизировать риски и гарантировать защиту данных.
Наш телеграмм-канал: t.me/astralot_ai