Мантра Anthropic «Безопасность прежде всего» уступила место новой политике, позволяющей обучать опасные модели. Это происходит на фоне давления Пентагона, требующего доступа к Claude. — pcworld.com «Безопасность прежде всего» — вот мантра, которая выделяла Anthropic среди крупных конкурентов в сфере ИИ. Изначально обязательство компании гласило: если Anthropic, разработчик Claude, не сможет гарантировать, что новая модель будет соответствовать ее строгим стандартам безопасности, она прекратит обучение этой модели, даже если конкуренты пойдут вперед. Однако в тот самый момент, когда, казалось бы, обязательство Anthropic «безопасность прежде всего» должно быть нужнее всего — а именно, во время противостояния с Пентагоном — компания обнародовала пересмотренную политику, которая добавляет критическую лазейку. Как сообщил журнал Time, версия 3.0 Политики ответственного масштабирования Anthropic отступает от прежнего обещания компании, позволяя ей продолжать обучение потенциально опасных мод