Anthropic заявила, что активировала более строгий контроль искусственного интеллекта для Claude Opus 4, своей последней модели ИИ. Новые меры контроля AI Safety Level 3 (ASL-3) призваны «ограничить риск неправомерного использования Claude, в частности для разработки или приобретения химического, биологического, радиологического и ядерного оружия», — написала компания в блоге. Компания, которую поддерживает Amazon, заявила, что принимает эти меры в качестве меры предосторожности и что команда ещё не определила, достиг ли Opus 4 уровня, требующего такой защиты. Anthropic анонсировала Claude Opus 4 и Claude Sonnet 4, заявив о расширенных возможностях моделей «анализировать тысячи источников данных, выполнять длительные задачи, создавать контент, качественный с точки зрения человека, и выполнять сложные действия», говорится в пресс-релизе. Компания заявила, что Sonnet 4 не нуждается в более жёстком контроле. Источник: AI News
Anthropic добавила в Claude 4 меры безопасности, чтобы пользователи не могли создавать оружие
27 мая 202527 мая 2025
~1 мин