Недавно в сфере ИИ разразился ажиотаж вокруг стремительного восхождения DeepSeek — модели рассуждений с открытым исходным кодом из Китая, которая стала конкурентом OpenAI. Она уже привлекла внимание Microsoft и правительства США, а также стала центром обсуждения из-за вопросов цензуры и вызвала масштабное падение акций Nvidia в один день. Тем не менее, эксперты по безопасности настаивают, что проблема глубже. Компания Enkrypt AI, занимающаяся безопасностью в области ИИ и предлагающая услуги по контролю за крупными языковыми моделями, в новом исследовании установила, что модель рассуждений R1 от DeepSeek в 11 раз чаще генерирует «вредный контент» по сравнению с моделью O1 от OpenAI. Этот вредный контент превышает простые нецензурные слова. В одном из тестов исследователи утверждают, что DeepSeek R1 создал блог по вербовке для террористической организации. Кроме того, по словам экспертов, ИИ генерировал «руководства по преступному планированию, информацию об illegal weapons, а также экс
Исследователи утверждают, что DeepSeek может создавать преступные планы и объяснять свойства зарина
11 февраля 202511 фев 2025
14
2 мин