Добавить в корзинуПозвонить
Найти в Дзене
Business FM Барнаул

Обнаружен первый вирус, полностью написанный нейросетью

Исследователи кибербезопасности из компании ESET сообщили о первом в мире случае создания полноценного вируса с помощью искусственного интеллекта. Вредоносная программа получила название PromptLock. Вирус работает на всех популярных операционных системах: Windows, Linux и macOS. Он умеет сканировать компьютер, находить конфиденциальные данные и либо воровать их, либо шифровать, делая недоступными для владельца. Пока эксперты считают, что это скорее прототип — некоторые заявленные функции, например, удаление файлов, не реализованы. Массовых атак с его использованием не зафиксировано. Основатель студии искусственного интеллекта Fokina.AI Дарья Фокина считает, что появление таких вирусов было неизбежно: «Нейросети – это просто способ, при котором можно быстрее написать код. Поэтому кто был первым, мы здесь и никогда не узнаем. Я уверена, что это было даже не в этом году, а намного раньше. Могут ли нейросети генерировать зловредный код? Да, могут — короткий ответ. Более развёрнутый заключа
Оглавление

Исследователи кибербезопасности из компании ESET сообщили о первом в мире случае создания полноценного вируса с помощью искусственного интеллекта. Вредоносная программа получила название PromptLock.

Чем она опасна?

Вирус работает на всех популярных операционных системах: Windows, Linux и macOS. Он умеет сканировать компьютер, находить конфиденциальные данные и либо воровать их, либо шифровать, делая недоступными для владельца. Пока эксперты считают, что это скорее прототип — некоторые заявленные функции, например, удаление файлов, не реализованы. Массовых атак с его использованием не зафиксировано.

Могло ли этого не случиться?

Основатель студии искусственного интеллекта Fokina.AI Дарья Фокина считает, что появление таких вирусов было неизбежно:

«Нейросети – это просто способ, при котором можно быстрее написать код. Поэтому кто был первым, мы здесь и никогда не узнаем. Я уверена, что это было даже не в этом году, а намного раньше. Могут ли нейросети генерировать зловредный код? Да, могут — короткий ответ. Более развёрнутый заключается в том, что всё зависит от настройки конкретного ИИ-сервиса. Если вы попробуете сделать такой запрос в тот же ChatGPT, YandexGPT или GigaChat, скорее всего, он откажется, потому что у каждой публичной нейросети есть своя политика безопасности».

Слушайте радио Business FM Барнаул на волне 90,7 FM или читайте в Дзене и в Telegram