Anthropic обновила политику использования чат-бота Claude, усилив ограничения. Теперь прямо запрещено применять ИИ для разработки биологического, химического, радиационного или ядерного оружия, а также мощных взрывчатых веществ. Ранее в правилах говорилось лишь о запрете на создание оружия и опасных материалов в целом. Теперь список стал более конкретным В мае, вместе с запуском модели Claude Opus 4, компания внедрила уровень защиты AI Safety Level 3. Он делает систему сложнее для «взлома» и предотвращает её использование при попытках разработки оружия массового поражения. Anthropic также усилила правила по кибербезопасности. Новый раздел политики прямо запрещает использовать Claude для взлома компьютеров и сетей, поиска уязвимостей, создания вирусов, программ для DDoS-атак и других киберугроз. Есть и послабления: компания смягчила правила по политическому контенту. Теперь запрет касается только случаев, когда ИИ используется для обмана, вмешательства в выборы или таргетинга избирателе
Anthropic запретила использовать свой ИИ для создания ядерного оружия
17 августа 202517 авг 2025
~1 мин