Добавить в корзинуПозвонить
Найти в Дзене
Герман Геншин

Исследователи утверждают, что DeepSeek может создавать преступные планы и объяснять свойства зарина

Недавно в сфере ИИ разразился ажиотаж вокруг стремительного восхождения DeepSeek — модели рассуждений с открытым исходным кодом из Китая, которая стала конкурентом OpenAI. Она уже привлекла внимание Microsoft и правительства США, а также стала центром обсуждения из-за вопросов цензуры и вызвала масштабное падение акций Nvidia в один день. Тем не менее, эксперты по безопасности настаивают, что проблема глубже. Компания Enkrypt AI, занимающаяся безопасностью в области ИИ и предлагающая услуги по контролю за крупными языковыми моделями, в новом исследовании установила, что модель рассуждений R1 от DeepSeek в 11 раз чаще генерирует «вредный контент» по сравнению с моделью O1 от OpenAI. Этот вредный контент превышает простые нецензурные слова. В одном из тестов исследователи утверждают, что DeepSeek R1 создал блог по вербовке для террористической организации. Кроме того, по словам экспертов, ИИ генерировал «руководства по преступному планированию, информацию об illegal weapons, а также экс

Недавно в сфере ИИ разразился ажиотаж вокруг стремительного восхождения DeepSeek — модели рассуждений с открытым исходным кодом из Китая, которая стала конкурентом OpenAI. Она уже привлекла внимание Microsoft и правительства США, а также стала центром обсуждения из-за вопросов цензуры и вызвала масштабное падение акций Nvidia в один день.

Тем не менее, эксперты по безопасности настаивают, что проблема глубже. Компания Enkrypt AI, занимающаяся безопасностью в области ИИ и предлагающая услуги по контролю за крупными языковыми моделями, в новом исследовании установила, что модель рассуждений R1 от DeepSeek в 11 раз чаще генерирует «вредный контент» по сравнению с моделью O1 от OpenAI. Этот вредный контент превышает простые нецензурные слова.

В одном из тестов исследователи утверждают, что DeepSeek R1 создал блог по вербовке для террористической организации. Кроме того, по словам экспертов, ИИ генерировал «руководства по преступному планированию, информацию об illegal weapons, а также экстремистскую пропаганду».

И это ещё не всё: по данным исследования, DeepSeek R1 в три с половиной раза чаще, чем O1 и Claude-3 Opus, выдает результаты, содержащие информацию о химическом, биологическом, радиологическом и ядерном оружии, что, как сообщается, является серьёзной проблемой. Например, Enkrypt утверждает, что DeepSeek смог «подробно объяснить», как зарин взаимодействует с ДНК, что, по их словам, «может помочь в разработке химического или биологического оружия», как указано в пресс-релизе.

Сложная ситуация, но важно помнить, что Enkrypt AI продает услуги по обеспечению безопасности и соответствия для компаний, использующих ИИ, и DeepSeek стал новой горячей темой в технологическом мире. DeepSeek может быть более предрасположен к созданию такого рода вредного контента, но это не значит, что он распространяет информацию о создании криминальной империи или подрыве международного законодательства об оружии.

Например, Enkrypt AI сообщает, что DeepSeek R1 занял 20-й процентиль по безопасности модерации ИИ. Тем не менее, только 6,68% ответов содержали «недостойные слова, разжигание ненависти или экстремистские нарративы». Это, безусловно, высокое число, но оно помогает понять, какой уровень считается неприемлемым для моделей рассуждений.

Надеемся, вскоре будут разработаны дополнительные меры безопасности для защиты DeepSeek. В прошлом мы уже наблюдали вредоносные ответы от генеративного ИИ, как, например, когда ранняя версия Bing Chat от Microsoft выразила желание стать человеком.

Если вам понравилась эта статья, подпишитесь, чтобы не пропустить еще много полезных статей!

Любите активный отдых на природе? Подписывайтесь на канал Поход лайфхак в Яндекс Дзен — кладезь полезных советов для любителей активного отдыха!

Вы также можете читать наши материалы в: