Найти в Дзене
ТехноМИР

Исследователи создают вредоносное ПО на базе искусственного интеллекта, которое распространяется самостоятельно

Исследователи разработали компьютерного «червя», который может распространяться с одного компьютера на другой с помощью генеративного искусственного интеллекта, что является предупреждающим знаком того, что эту технологию можно использовать для разработки опасных вредоносных программ в ближайшем будущем — если это еще не произошло.
Как сообщает Wired (американский журнал), червь может атаковать почтовых помощников с искусственным интеллектом, чтобы получать конфиденциальные данные из электронных писем и рассылать спам-сообщения, которые заражают другие системы.
«По сути, это означает, что теперь у вас есть возможность провести или осуществить новый вид кибератак, которого раньше не было», — говорит исследователь Корнеллского технологического института Бен Насси, соавтор еще не рецензируемой статьи о кибератаке.
Хотя исследователям еще предстоит столкнуться с червями на базе искусственного интеллекта, согласно отчету, они предупреждают, это лишь вопрос времени.
В своем эксперименте

Исследователи разработали компьютерного «червя», который может распространяться с одного компьютера на другой с помощью генеративного искусственного интеллекта, что является предупреждающим знаком того, что эту технологию можно использовать для разработки опасных вредоносных программ в ближайшем будущем — если это еще не произошло.

Как сообщает Wired (американский журнал), червь может атаковать почтовых помощников с искусственным интеллектом, чтобы получать конфиденциальные данные из электронных писем и рассылать спам-сообщения, которые заражают другие системы.

«По сути, это означает, что теперь у вас есть возможность провести или осуществить новый вид кибератак, которого раньше не было», — говорит исследователь Корнеллского технологического института Бен Насси, соавтор еще не рецензируемой статьи о кибератаке.

Хотя исследователям еще предстоит столкнуться с червями на базе искусственного интеллекта, согласно отчету, они предупреждают, это лишь вопрос времени.

В своем эксперименте, который проходил в контролируемой среде, исследователи ориентировались на помощников по электронной почте, работающих на базе GPT-4 от OpenAI, Gemini Pro от Google и модели большого языка с открытым исходным кодом под названием LLaVA.

Они использовали «соперническую самовоспроизводящуюся подсказку», которая заставляет модель ИИ выдавать еще одну подсказку в ответ. Это запускает каскадный поток выходных данных, которые могут заразить этих помощников и тем самым получить конфиденциальную информацию.

«Это могут быть имена, номера телефонов, номера кредитных карт, SSN, все, что считается конфиденциальным», — сказал Насси.

Другими словами, поскольку эти ИИ-помощники имеют доступ к огромному количеству личных данных, их можно легко уговорить выдать пользовательские секреты, несмотря на препятствия.

Используя недавно настроенную систему электронной почты, которая могла как отправлять, так и получать сообщения, исследователи смогли эффективно «отравить» базу данных отправленных электронных писем, что заставило принимающий ИИ украсть конфиденциальные данные из электронных писем.

Хуже того, этот процесс также позволяет передать червя на новые машины.

«Сгенерированный ответ, содержащий конфиденциальные данные пользователя, позже заражает новые хосты, когда он используется для ответа на электронное письмо, отправленное новому клиенту, а затем сохраняется в базе данных нового клиента», — сказал Насси.

Команде даже удалось встроить в изображение вредоносную подсказку, заставив ИИ заразить дальнейшие почтовые клиенты.

«Закодировав самовоспроизводящуюся подсказку в изображение, любое изображение, содержащее спам, оскорбительные материалы или даже пропаганду, может быть перенаправлено новым клиентам после отправки первоначального электронного письма», — добавил Насси.

Команда передала свои выводы OpenAI и Google, а представитель OpenAI сообщил Wired, что компания работает над тем, чтобы сделать свои системы «более устойчивыми».

Но им придется действовать быстро. Насси и его коллеги написали в своей статье, что ИИ-черви могут начать распространяться «в ближайшие несколько лет» и «приведут к значительным и недооцененным последствиям».

Это тревожная демонстрация, которая подчеркивает, насколько глубоко компании готовы интегрировать своих генеративных помощников ИИ, не предотвращая при этом заранее кошмар кибербезопасности.

Подписывайтесь! если Вам была интересна статья.

Буду благодарен вам за лайки