В эпоху повсеместного распространения искусственного интеллекта персональные данные стали новым фронтом кибератак. Технологии ИИ сегодня активно используются злоумышленниками для взлома, кражи и манипуляции личной информацией в беспрецедентных масштабах. Мы собрали экспертов, чтобы обсудить новую реальность и понять, как бизнесу и обычным пользователям защитить свои цифровые активы.
Новая эра угроз: как ИИ меняет ландшафт киберпреступности
Искусственный интеллект стал мощным инструментом в руках киберпреступников, кардинально снизив порог входа для злоумышленников и автоматизировав самые трудоемкие этапы атак.
Автоматизация разведки и целевого фишинга
Современные ИИ-системы способны проводить глубокий анализ открытых источников (OSINT), собирая и структурируя информацию о жертвах из социальных сетей, новостей и публичных документов. Это позволяет создавать сверхперсонализированные фишинговые атаки.
Генеративные ИИ создают фишинговые письма без грамматических ошибок и опечаток, идеально имитируя стиль общения коллег или руководителей.
Голосовые клоны и дипфейки используются в фишинговых атаках, когда мошенник, имитируя голос близкого человека или начальника, выманивает деньги или конфиденциальную информацию.
Массовые атаки на учетные данные
В 2023-2024 годах украденные учетные данные стали главным оружием киберпреступников. ИИ-агенты (Computer-Using Agents, CUA) способны автоматически проверять миллиарды скомпрометированных логинов и паролей на сотнях различных веб-сервисов, эксплуатируя проблему повторного использования паролей.
Как отмечает Сергей Ланских, генеральный директор Sympace, «ИИ демократизировал киберпреступность. Теперь для проведения сложной атаки не нужно быть высококлассным программистом. Достаточно уметь грамотно формулировать запросы к нейросети. Это похоже на появление автоматического оружия в мире, где раньше воевали луками и стрелами». Это подтверждается исследованием 2024 года, показавшим рост числа атак с использованием ИИ на 51%.
Специфические риски для систем искусственного интеллекта
Помимо использования ИИ в атаках, сами системы искусственного интеллекта становятся мишенью и новым вектором для компрометации данных.
Инверсионные атаки и "отравление данных"
Злоумышленники могут атаковать сами модели машинного обучения, чтобы извлечь обучающие данные или исказить их работу.
- Инверсионные атаки позволяют восстановить конфиденциальные данные, на которых обучалась модель. Исследования показали, что таким способом можно восстановить даже изображения лиц из тренировочных наборов данных.
- Отравление данных — это внесение искажений в обучающую выборку, что заставляет ИИ принимать некорректные или вредоносные решения. Яркий пример — манипуляция с дорожной разметкой, которая обманывает автопилот автомобиля.
Рустам Гусейнов, председатель ИБ-кооператива RAD COP, выделяет трехуровневую структуру угроз: «Первый уровень — данные, второй — платформа обработки, третий — интерфейсы. Особенно опасно, когда через интерфейсы можно повлиять на обучение модели и нарушить ее логику». Это означает, что бизнесу, внедряющему ИИ, приходится защищать не только данные, но и саму интеллектуальную систему.
Практическая защита: стратегии и решения
Несмотря на новые угрозы, фундаментальные принципы безопасности остаются в силе. Как подчеркивает Антон Бочкарев, CEO «Третья Сторона», «Защищаться от хакера, использующего ИИ нужно точно так же, как и от хакера, не использующего ИИ. Разницы нет никакой... Сегодня мы видим рост числа атак, потому что инструменты ИИ стали доступны даже начинающим злоумышленникам. Но это не значит, что нужно менять подход к защите — базовые принципы остаются прежними».
Среди ключевых технических мер защиты данных при работе с ИИ эксперты выделяют:
Деперсонализация и анонимизация. Перед загрузкой данных в модель их необходимо обезличить. Арсений Маслов, основатель Клуба профессиональных управленцев PMPRO.club, делится опытом: «Для работы с конфиденциальной информацией мы создали самописный модуль деперсонализации. В результате смогли безопасно обучать модели на реальных данных, исключив риски их компрометации».
Дифференциальная приватность. Это передовой метод, при котором в данные добавляется специальный "шум". Это позволяет проводить точный агрегированный анализ, но делает невозможным идентификацию конкретного человека.
Федеративное обучение. Эта технология позволяет обучать ИИ-модели без передачи исходных данных в центральный сервер. Модель "приезжает" к данным, обучается локально, и только обновленные параметры модели отправляются обратно.
Локальное развертывание моделей. Для работы с конфиденциальными данными лучше использовать изолированные среды. Арсений Маслов подтверждает: «Мы развернули GPTchat, полностью обложили его возможности общаться с интернетом... и спокойно работаем с ним внутри периметра нашей безопасности».
Регуляторный ландшафт: что ждет бизнес в будущем
Мир постепенно осознает необходимость регулирования ИИ. В 2024 году Евросоюз принял "Закон об искусственном интеллекте" — один из самых полных нормативных актов в этой сфере. Он вводит категоризацию ИИ по уровню риска и накладывает строгие обязательства на операторов высокорисковых систем, включая особые требования к обработке персональных данных.
Что ждет Россию? Рустам Гусейнов дает следующий прогноз: «Сейчас в Сириусе и у Росатома есть проект "Безопасный искусственный интеллект", и к 2028 году нас должны “обмазать” десятками стандартов безопасности ИИ». Это означает, что бизнесу уже сейчас стоит готовиться к ужесточению требований.
Безопасность как конкурентное преимущество
Эра ИИ не отменяет классические принципы кибербезопасности, но делает их соблюдение еще более критичным. Главный вывод экспертов: не ИИ является угрозой, а то, как его используют. Защита персональных данных сегодня требует комплексного подхода, сочетающего технические инновации, такие как дифференциальная приватность и федеративное обучение, с грамотными организационными мерами и соблюдением развивающегося законодательства.
В конечном счете ответственность за данные превращается из рутинной обязанности в стратегический актив. Как резюмирует Сергей Ланских, «Бизнес должен воспринимать безопасность данных не как статью расходов, а как конкурентное преимущество. Доверие клиентов — это самый ценный актив в цифровую эпоху. Компании, которые используют ИИ ответственно и прозрачно, получат решающее преимущество на рынке». Таким образом, те, кто уже сегодня инвестирует в безопасность и этичное использование ИИ, не просто защищаются от угроз, а закладывают фундамент для долгосрочного доверия и лидерства.