Найти в Дзене
AI News | Новости ИИ

Anthropic добавила в Claude 4 меры безопасности, чтобы пользователи не могли создавать оружие

Anthropic заявила, что активировала более строгий контроль искусственного интеллекта для Claude Opus 4, своей последней модели ИИ. Новые меры контроля AI Safety Level 3 (ASL-3) призваны «ограничить риск неправомерного использования Claude, в частности для разработки или приобретения химического, биологического, радиологического и ядерного оружия», — написала компания в блоге. Компания, которую поддерживает Amazon, заявила, что принимает эти меры в качестве меры предосторожности и что команда ещё не определила, достиг ли Opus 4 уровня, требующего такой защиты. Anthropic анонсировала Claude Opus 4 и Claude Sonnet 4, заявив о расширенных возможностях моделей «анализировать тысячи источников данных, выполнять длительные задачи, создавать контент, качественный с точки зрения человека, и выполнять сложные действия», говорится в пресс-релизе. Компания заявила, что Sonnet 4 не нуждается в более жёстком контроле. Источник: AI News

Anthropic заявила, что активировала более строгий контроль искусственного интеллекта для Claude Opus 4, своей последней модели ИИ.

Новые меры контроля AI Safety Level 3 (ASL-3) призваны «ограничить риск неправомерного использования Claude, в частности для разработки или приобретения химического, биологического, радиологического и ядерного оружия», — написала компания в блоге.

Компания, которую поддерживает Amazon, заявила, что принимает эти меры в качестве меры предосторожности и что команда ещё не определила, достиг ли Opus 4 уровня, требующего такой защиты.

Anthropic анонсировала Claude Opus 4 и Claude Sonnet 4, заявив о расширенных возможностях моделей «анализировать тысячи источников данных, выполнять длительные задачи, создавать контент, качественный с точки зрения человека, и выполнять сложные действия», говорится в пресс-релизе.

Компания заявила, что Sonnet 4 не нуждается в более жёстком контроле.

Источник: AI News