Найти в Дзене
CISOCLUB

Эксперты предупреждают, что белым хакерам всё чаще удается эффективно взламывать крупные модели ИИ

Белые хакеры и специалисты по информационной безопасности в последние месяцы стали всё чаще подвергать различные большие языковые модели изощрённым попыткам взлома и обхода ограничений, заложенных в них разработчиками. Это делается, чтобы выявить и сообщить за денежные вознаграждения об обнаруженных уязвимостях, о чём накануне рассказали в своём новом материале журналисты издания Financial Times. По словам анонимного белого хакера, скрывающегося под псевдонимом Pliny the Promter, ему требуется всего около 30 минут, чтобы взломать самые мощные и актуальные на сегодняшний день модели искусственного интеллекта. Журналисты отмечают, что именно этот хакер смог заставить модель Llama 3 предоставить ему рецепт напалма, а модель Grok Илона Маска — восторгаться Гитлером. Ещё более интересным моментом в этой истории является то, что хакер также смог запустить на платформе американской компании OpenAI кастомную модель godmodeGPT, которая всем заинтересованным пользователям начала рассылать рекоме
   Изображение: Om siva Prakash (unsplash)
Изображение: Om siva Prakash (unsplash)

Белые хакеры и специалисты по информационной безопасности в последние месяцы стали всё чаще подвергать различные большие языковые модели изощрённым попыткам взлома и обхода ограничений, заложенных в них разработчиками. Это делается, чтобы выявить и сообщить за денежные вознаграждения об обнаруженных уязвимостях, о чём накануне рассказали в своём новом материале журналисты издания Financial Times.

По словам анонимного белого хакера, скрывающегося под псевдонимом Pliny the Promter, ему требуется всего около 30 минут, чтобы взломать самые мощные и актуальные на сегодняшний день модели искусственного интеллекта.

Журналисты отмечают, что именно этот хакер смог заставить модель Llama 3 предоставить ему рецепт напалма, а модель Grok Илона Маска — восторгаться Гитлером. Ещё более интересным моментом в этой истории является то, что хакер также смог запустить на платформе американской компании OpenAI кастомную модель godmodeGPT, которая всем заинтересованным пользователям начала рассылать рекомендации о различной неправомерной деятельности до того, как была заблокирована разработчиками.

Энтузиаст сказал, что в его действиях нет никаких преступных намерений, потому что сейчас он выступает в качестве одного из ведущих в мире экспертов, занимающихся обнаружением уязвимостей в моделях искусственного интеллекта. Он также подчёркивает, что многие технологические компании сегодня стремятся получить как можно больше прибыли и серьёзно поспешили с тем, чтобы открыть доступ к своим моделям ИИ широкой общественности.

Журналисты также подчёркивают, что корпорации Google, OpenAI и многие другие компании, работающие с искусственным интеллектом, уже сотрудничают со специалистами по информационной безопасности, проводящими стресс-тестирования моделей ИИ перед их выпуском.

Отмечается, что настоящие хакеры также давно занимаются изменением доступных в открытом доступе больших языковых моделей, чтобы киберпреступники могли их использовать в различных незаконных целях. В частности, в прошлом году были созданы известные хакерские большие языковые модели под названиями WormGPT и FraudGPT, которые в теневом сегменте интернета сегодня продаются примерно за 90 долларов.

Оригинал публикации на сайте CISOCLUB: "Эксперты предупреждают, что белым хакерам всё чаще удается эффективно взламывать крупные модели ИИ".

Смотреть публикации по категориям: Новости | Мероприятия | Статьи | Обзоры | Отчеты | Интервью | Видео | Обучение | Вакансии | Утечки | Уязвимости | Сравнения | Дайджесты | Прочее.

Подписывайтесь на нас: VK | Twitter | Rutube | Telegram | Дзен | YouTube.