Найти в Дзене

ИИ доминирует в прогнозах кибербезопасности на 2025 год

Когда речь заходит о кибербезопасности в 2025 году, искусственный интеллект становится главным приоритетом для многих аналитиков и специалистов. Искусственный интеллект будет использоваться как противниками, так и защитниками, но больше выгоды от него получат злоумышленники, утверждает Вилли Лейхтер, директор по маркетингу AppSOC , поставщика услуг по безопасности приложений и управлению уязвимостями в Сан-Хосе, Калифорния. «Мы знаем, что ИИ будет все чаще использоваться обеими сторонами кибервойны», — сказал он TechNewsWorld. «Однако злоумышленники будут по-прежнему менее ограничены, поскольку они меньше беспокоятся о точности ИИ, этике или непреднамеренных последствиях. Такие методы, как высокоперсонализированный фишинг и поиск слабых мест в сетях, выиграют от ИИ». «Хотя ИИ имеет огромный потенциал в плане защиты, существует множество ограничений — как юридических, так и практических, — которые замедлят его внедрение», — сказал он. Крис Хаук, специалист по защите конфиденциальности п
Оглавление

Когда речь заходит о кибербезопасности в 2025 году, искусственный интеллект становится главным приоритетом для многих аналитиков и специалистов.

Искусственный интеллект будет использоваться как противниками, так и защитниками, но больше выгоды от него получат злоумышленники, утверждает Вилли Лейхтер, директор по маркетингу AppSOC , поставщика услуг по безопасности приложений и управлению уязвимостями в Сан-Хосе, Калифорния.

«Мы знаем, что ИИ будет все чаще использоваться обеими сторонами кибервойны», — сказал он TechNewsWorld. «Однако злоумышленники будут по-прежнему менее ограничены, поскольку они меньше беспокоятся о точности ИИ, этике или непреднамеренных последствиях. Такие методы, как высокоперсонализированный фишинг и поиск слабых мест в сетях, выиграют от ИИ».

«Хотя ИИ имеет огромный потенциал в плане защиты, существует множество ограничений — как юридических, так и практических, — которые замедлят его внедрение», — сказал он.

Крис Хаук, специалист по защите конфиденциальности потребителей в Pixel Privacy , издателе онлайн-руководств по безопасности и конфиденциальности потребителей, предсказал, что 2025 год станет годом противостояния ИИ и ИИ, поскольку хорошие парни будут использовать ИИ для защиты от кибератак с использованием ИИ.

«Скорее всего, это будет год постоянных сражений, поскольку обе стороны будут использовать информацию, собранную в ходе предыдущих атак, для разработки новых атак и новых оборонительных мер», — сказал он TechNewsWorld.

Снижение рисков безопасности ИИ

Лейхтер также предсказал, что киберпреступники начнут чаще атаковать системы ИИ. «Технология ИИ значительно расширяет область атаки с быстро появляющимися угрозами для моделей, наборов данных и систем операций на машинном языке», — пояснил он. «Кроме того, когда приложения ИИ спешно переносятся из лаборатории в производство, полное воздействие на безопасность не будет понято, пока не произойдут неизбежные нарушения».

Карл Холмквист, основатель и генеральный директор Lastwall , компании по защите персональных данных из Гонолулу, согласился. «Неконтролируемое, массовое развертывание инструментов ИИ, которые часто внедряются без надежной основы безопасности, приведет к серьезным последствиям в 2025 году», — сказал он TechNewsWorld.

«Без адекватных мер конфиденциальности и фреймворков безопасности эти системы станут главными целями для взломов и манипуляций», — сказал он. «Этот подход Дикого Запада к развертыванию ИИ оставит данные и системы принятия решений в опасной уязвимости, заставляя организации срочно уделять первоочередное внимание основополагающим мерам безопасности, прозрачным фреймворкам ИИ и постоянному мониторингу для смягчения этих растущих рисков».

Лейхтер также заявил, что в 2025 году службам безопасности придется взять на себя больше ответственности за безопасность систем ИИ.

«Это звучит очевидно, но во многих организациях первоначальные проекты ИИ были реализованы специалистами по данным и бизнес-специалистами, которые часто обходят традиционные процессы безопасности приложений», — сказал он. «Отделы безопасности будут вести проигрышную битву, если попытаются заблокировать или замедлить инициативы ИИ, но им придется взять несанкционированные проекты ИИ под защиту безопасности и соответствия».

Лейхтер также отметил, что ИИ расширит поверхность атаки для злоумышленников, нацеленных на цепочки поставок программного обеспечения в 2025 году. «Мы уже видели, как цепочки поставок стали основным вектором атаки, поскольку сложные программные стеки в значительной степени зависят от стороннего и открытого исходного кода», — сказал он. «Взрывное внедрение ИИ делает эту цель более масштабной с новыми сложными векторами атаки на наборы данных и модели».

«Понимание происхождения моделей и поддержание целостности изменяющихся наборов данных — сложная проблема, и в настоящее время не существует эффективного способа, с помощью которого модель ИИ могла бы избавиться от вредоносных данных», — добавил он.

Угрозы отравления данных для моделей ИИ

Майкл Либерман, технический директор и соучредитель Kusari, компании по обеспечению безопасности цепочки поставок программного обеспечения из Риджфилда, штат Коннектикут, также считает отравление больших языковых моделей важным событием в 2025 году. «Атаки с отравлением данных, направленные на манипулирование LLM, станут более распространенными, хотя этот метод, вероятно, более ресурсоемкий по сравнению с более простыми тактиками, такими как распространение вредоносных открытых LLM», — сказал он TechNewsWorld.

«Большинство организаций не обучают свои собственные модели», — пояснил он. «Вместо этого они полагаются на предварительно обученные модели, часто доступные бесплатно. Отсутствие прозрачности относительно происхождения этих моделей позволяет злоумышленникам легко внедрять вредоносные модели, о чем свидетельствует инцидент с вредоносным ПО Hugging Face». Этот инцидент произошел в начале 2024 года, когда было обнаружено, что на платформу Hugging Face было загружено около 100 LLM, содержащих скрытые бэкдоры, которые могли выполнять произвольный код на компьютерах пользователей.

«Будущие попытки отравления данных, скорее всего, будут направлены на таких крупных игроков, как OpenAI, Meta и Google, которые обучают свои модели на огромных наборах данных, что затрудняет обнаружение таких атак», — предсказал Либерман.

«В 2025 году злоумышленники, скорее всего, опередят защитников», — добавил он. «Злоумышленники мотивированы финансово, в то время как защитникам часто трудно обеспечить адекватные бюджеты, поскольку безопасность обычно не рассматривается как источник дохода. Может потребоваться серьезная брешь в цепочке поставок ИИ — сродни инциденту SolarWinds Sunburst — чтобы побудить отрасль серьезно отнестись к угрозе».

Благодаря ИИ в 2025 году также появится больше злоумышленников, запускающих более сложные атаки. «Поскольку ИИ становится более эффективным и доступным, барьер для входа для менее опытных злоумышленников станет ниже, а также увеличится скорость, с которой могут быть выполнены атаки», — пояснил Джастин Блэкберн, старший инженер по обнаружению облачных угроз в AppOmni , компании по разработке программного обеспечения для управления безопасностью SaaS в Сан-Матео, Калифорния.

«Кроме того, появление ботов на базе ИИ позволит злоумышленникам осуществлять масштабные атаки с минимальными усилиями», — сказал он TechNewsWorld. «Вооружившись этими инструментами на базе ИИ, даже менее способные злоумышленники смогут получить несанкционированный доступ к конфиденциальным данным и нарушить работу сервисов в масштабах, которые ранее были доступны только более изощренным и хорошо финансируемым злоумышленникам».

Сценарий Дети растут

В 2025 году рост агентного ИИ — ИИ, способного принимать независимые решения, адаптироваться к окружающей среде и предпринимать действия без прямого вмешательства человека — также усугубит проблемы для защитников. «Ожидается, что достижения в области искусственного интеллекта позволят негосударственным субъектам разрабатывать автономное кибероружие», — сказал Джейсон Питтман , доцент факультета кибербезопасности и информационных технологий в Глобальном кампусе Мэрилендского университета в Адельфи, штат Мэриленд.

«Агентный ИИ работает автономно с целенаправленным поведением», — сказал он TechNewsWorld. «Такие системы могут использовать передовые алгоритмы для выявления уязвимостей, проникновения в системы и разработки тактик в режиме реального времени без человеческого руководства».

«Эти особенности отличают ее от других систем искусственного интеллекта, которые полагаются на предопределенные инструкции и требуют человеческого участия», — пояснил он.

«Как и червь Морриса в прошлые десятилетия, выпуск агентного кибероружия может начаться как случайность, что более проблематично. Это связано с тем, что доступность передовых инструментов ИИ и распространение открытых исходных кодов фреймворков машинного обучения снижают барьер для разработки сложного кибероружия. После создания мощная функция автономности может легко привести к тому, что агентный ИИ выйдет за рамки мер безопасности».

Насколько бы вредоносным ни был ИИ в руках злоумышленников, он также может помочь лучше защитить данные, такие как персональные данные (PII). «Проанализировав более шести миллионов файлов Google Drive, мы обнаружили, что 40% файлов содержали PII, которые подвергали компании риску утечки данных», — сказал Рич Виберт, соучредитель и генеральный директор Metomic , платформы конфиденциальности данных в Лондоне.

«Вступая в 2025 год, мы увидим, как все больше компаний отдают приоритет автоматизированным методам классификации данных, чтобы сократить объем уязвимой информации, непреднамеренно сохраняемой в общедоступных файлах и совместных рабочих пространствах в SaaS- и облачных средах», — продолжил он.

«Компании будут все чаще использовать инструменты на основе искусственного интеллекта, которые могут автоматически идентифицировать, маркировать и защищать конфиденциальную информацию», — сказал он. «Этот сдвиг позволит компаниям справляться с огромными объемами данных, генерируемых ежедневно, гарантируя постоянную защиту конфиденциальных данных и минимизацию ненужного раскрытия данных».

Тем не менее, 2025 год может также принести волну разочарования среди профессионалов в области безопасности, когда шумиха вокруг ИИ достигнет своего апогея. «CISO снизят приоритетность использования ИИ поколения на 10% из-за отсутствия количественной оценки», — написал в блоге компании Коди Скотт, старший аналитик Forrester Research , исследовательской компании со штаб-квартирой в Кембридже, штат Массачусетс.

«Согласно данным Forrester за 2024 год, 35% руководителей служб информационной безопасности и ИТ-директоров по всему миру считают изучение и развертывание вариантов использования искусственного интеллекта для повышения производительности труда сотрудников главным приоритетом», — отметил он. «Рынок продуктов безопасности быстро расхвалил ожидаемые преимущества искусственного интеллекта в плане производительности, но отсутствие практических результатов порождает разочарование».

«Мысль об автономном центре безопасности, использующем ИИ-генератор, вызвала много шума, но она далека от реальности», — продолжил он. «В 2025 году эта тенденция сохранится, и специалисты по безопасности еще больше разочаруются, поскольку такие проблемы, как недостаточные бюджеты и нереализованные преимущества ИИ, сокращают количество развертываний ИИ-генераторов, ориентированных на безопасность».