На этой неделе на Мюнхенской конференции по безопасности генеральный директор Google Сундар Пичаи высказал опасения по поводу влияния искусственного интеллекта на кибербезопасность и заявил, что ИИ действительно может помочь в борьбе с киберпреступностью.
Он признал, что развитие технологий привело к появлению более совершенных атак. Мы сами видим результаты. Например, в 2023 году выплаты за атаки с использованием выкупного ПО составят 1,1 млрд долларов, побив все предыдущие рекорды, и это еще без учета ущерба и долгосрочных затрат.
Мы вправе беспокоиться о влиянии на кибербезопасность. Но ИИ, как мне кажется, напротив, укрепляет нашу защиту в области кибербезопасности.Сундар Пичаи, генеральный директор Google
Сундар Пичаи добавил, что ИИ устранит "дилемму защитника", которая, по сути, означает, что злоумышленникам нужно добиться успеха только один раз, чтобы атаковать, в то время как защитник должен добиваться успеха каждый раз, чтобы защитить систему. Но впервые ИИ поможет защитникам усовершенствовать свои защитные механизмы.
Говоря о продуктах своей компании в качестве примера, Пичаи отметил, что такие приложения, как Gmail и Chrome, уже используют ИИ для усиления безопасности. Кроме того, чтобы сделать безопасность с помощью ИИ доступной для всех, Google на прошлой неделе объявила о новой инициативе, в рамках которой она предоставит бесплатный инструмент с открытым исходным кодом под названием Magika - средство, призванное помочь пользователям быстрее находить вредоносные программы.
Пичаи - не единственный, кто разделяет подобные взгляды на ИИ. Например, президент по безопасности компании DXC Марк Хьюз заявил, что мы уже начинаем видеть преимущества ИИ, помогающего инженерам быстро отменять атаки. По его словам, ИИ помогает вам работать быстрее противника, и если вы можете это делать, то вы определенно будете работать лучше него.
Действительно ли ИИ является надежным решением?
Ирония в уверенности Сундара Пичаи заключается в том, что пока он радовался ИИ, продукт его собственной компании Gemini попал в новости - и не по доброй причине. Это произошло потому, что некоторые пользователи обнаружили, что безумная способность этого инструмента создавать невиданные ранее изображения может быть использована не по назначению, чтобы создавать культурно неправильные образы.
В качестве примера можно привести азиатов, одетых как нацисты, а также другой случай, когда пользователь попросил бота создать изображение отцов-основателей Америки, но он создал изображение, включающее женщин и людей с другим цветом кожи.
На самом деле компании, которые участвуют в этой гонке ИИ, сами знают, какие риски она несет. Именно поэтому группа из 20 крупных организаций, включая Google, OpenAI и Microsoft, подписала соглашение о недопущении ИИ к выборам 2024 года.
Таким образом, остается под большим вопросом, способен ли бот, который даже не может правильно понять исторический и культурный контекст и признан угрозой демократическому характеру выборов, предложить долгосрочное решение в борьбе с киберпреступностью.