Найти тему
OVERCLOCKERS.RU

Исследователи предупреждают власти, что преступники могут злоупотреблять инструментами ИИ

Эксперты по международной безопасности неоднократно подчеркивают, что преступники могут использовать ИИ в своих целях. В худшем случае террористы могут использовать инструменты искусственного интеллекта для проведения кибератак и парализовать целые города. Или для создания биологического оружия.

Недавно на портале science.org было опубликовано исследование, которое объясняет, насколько легко модели искусственного интеллекта могут быть использованы для создания таких опасных веществ.

Фото: REUTERS Исследователи настоятельно советуют правительствам принять соответствующие контрмеры.

«Мы предлагаем национальным правительствам, включая США, принять законы и правила, которые не позволяют передовым биологическим моделям ИИ стать очень опасными. Они могут способствовать созданию новых или улучшенных патогенов, которые спровоцируют серьезные эпидемии или даже пандемии», — говорится в исследовании.

В США тема терроризма и искусственного интеллекта в настоящее время активно обсуждается. Канал Fox News 1 сентября снова поднял эту тему и сослался на два других отчета, опубликованных в этом году. Один исходит от источника в НАТО, который также предупреждает, что власти должны интенсивно заниматься текущими технологическими разработками. Преступники могут использовать ИИ для фишинговых писем, установки вредоносного ПО в библиотеки кодирования и распространения дезинформации и пропаганды в интернете.

«Киберпреступники и террористы быстро научились использовать такие платформы и большие языковые модели для создания дипфейков или чат-ботов. Затем они размещаются в даркнете. Эти инструменты предназначены для получения конфиденциальной личной и финансовой информации, планирования террористических атак или вербовки последователей», — говорится в отчете.

Террористы могут взломать ChatGPT и подобные системы, в результате чего ИИ-инструменты потеряют свои механизмы безопасности и создадут незаконный или экстремистский контент.

В другом отчете Центра по борьбе с терроризмом описывается, насколько легко ChatGPT и подобные инструменты могут быть использованы не по назначению в террористических целях. Эксперты проверили, насколько легко взломать различные модели ИИ. Bard, недавно переименованный в Google Gemini, оказался наиболее устойчивым к атакам, за ним следовали модели ChatGPT. Суть в том, что эти модели все равно можно взломать, предупреждают исследователи.

Поэтому эта тема обязательно должна стать предметом интенсивного сотрудничества между органами безопасности, технологическими компаниями и научными организациями.

Организация ООН «Межрегиональный научно-исследовательский институт преступности и правосудия» выступила с аналогичными предупреждениями ещё в 2021 году, напоминает канал Fox News. Антония Мари Де Мео, директор Межрегионального научно-исследовательского института преступности и правосудия, заявила тогда, что ИИ чрезвычайно опасен и может быть использован в террористических целях. В качестве примеров она тогда привела кибератаки и взрывы автономных автомобилей.

📃 Читайте далее на сайте