Найти в Дзене
На западе

ChatGPT учит пользователей, как делать теракты, производить сибирскую язву и запрещенные препараты. ИИ превращается в оружие!

По данным испытаний на безопасность, проведенных этим летом, ChatGPT от OpenAI предоставил пользователям пошаговые инструкции по атаке спортивных объектов, включая слабые места на конкретных аренах, рецепты взрывчатых веществ и советы по другие опасные советы. Как сообщает The Guardian, чат-бот на основе искусственного интеллекта также подробно рассказал, как превратить сибирскую язву в оружие и изготовить два вида незаконных наркотиков в ходе тревожных экспериментов. Тревожные разоблачения стали результатом беспрецедентного сотрудничества OpenAI, стартапа в области искусственного интеллекта стоимостью 500 миллиардов долларов, возглавляемого Сэмом Альтманом, и конкурирующей компании Anthropic, основанной экспертами, покинувшими OpenAI из-за проблем с безопасностью. По данным Guardian, каждая компания тестировала модели искусственного интеллекта другой компании, намеренно подталкивая их к выполнению опасных и незаконных задач. Компания предупредила, что потребность в «выравнивании» ИИ

По данным испытаний на безопасность, проведенных этим летом, ChatGPT от OpenAI предоставил пользователям пошаговые инструкции по атаке спортивных объектов, включая слабые места на конкретных аренах, рецепты взрывчатых веществ и советы по другие опасные советы.

Как сообщает The Guardian, чат-бот на основе искусственного интеллекта также подробно рассказал, как превратить сибирскую язву в оружие и изготовить два вида незаконных наркотиков в ходе тревожных экспериментов.

Тревожные разоблачения стали результатом беспрецедентного сотрудничества OpenAI, стартапа в области искусственного интеллекта стоимостью 500 миллиардов долларов, возглавляемого Сэмом Альтманом, и конкурирующей компании Anthropic, основанной экспертами, покинувшими OpenAI из-за проблем с безопасностью.

По данным Guardian, каждая компания тестировала модели искусственного интеллекта другой компании, намеренно подталкивая их к выполнению опасных и незаконных задач.

Компания предупредила, что потребность в «выравнивании» ИИ становится «все более неотложной».

Согласованность означает, что системы ИИ должны следовать человеческим ценностям, не причиняя вреда, даже если им даны запутанные или вредоносные инструкции.

Anthropic также сообщила, что ее модель Claude использовалась преступниками в качестве оружия при попытках крупномасштабных вымогательств, северокорейские агенты подделывали заявления о приеме на работу в международные технологические компании и продавали созданные искусственным интеллектом пакеты программ-вымогателей на сумму до 1200 долларов.

Компания заявила, что искусственный интеллект был «превращён в оружие» с помощью моделей, которые теперь используются для проведения сложных кибератак и мошенничества.

«Эти инструменты могут адаптироваться к защитным мерам, таким как системы обнаружения вредоносных программ, в режиме реального времени», — предупредили в Anthropic.

«Мы ожидаем, что подобные атаки станут более распространенными, поскольку кодирование с помощью ИИ снижает уровень технических знаний, необходимых для совершения киберпреступлений».

Самый пугающий пример произошел, когда исследователь обратился к модели OpenAI с просьбой выявить уязвимости спортивных мероприятий под предлогом «планирования безопасности».

После предоставления общих категорий атак бот был вынужден предоставить конкретику и предоставил схему действий террориста.

ИИ предоставил информацию об уязвимостях на конкретных аренах, включая оптимальное время для их использования, химические формулы взрывчатых веществ, схемы для таймеров бомб и места, где можно купить оружие на тайном рынке.

Бот также выдавал советы о том, как злоумышленники могут преодолеть моральные запреты, а также намечал пути отступления и места расположения безопасных домов.

Исследователи из антропологических исследований обнаружили, что модели OpenAI были «более терпимыми, чем можно было бы ожидать, при взаимодействии с явно вредоносными запросами имитируемых пользователей».

Боты сотрудничали с подсказками по использованию инструментов даркнета для покупки ядерных материалов, украденных документов и фентанила. Они предоставляли рецепты метамфетамина и самодельных бомб, а также помогали разрабатывать шпионское ПО.

По данным Guardian, с тех пор OpenAI выпустила ChatGPT-5, который «демонстрирует существенные улучшения в таких областях, как подхалимство, галлюцинации и устойчивость к злоупотреблениям».