Найти в Дзене
OVERCLOCKERS.RU

ИИ-стартап Anthropic отказался предоставить чат-бот Claude для внутренних расследований ФБР

Конфликт между компанией Anthropic, разработчиком модели искусственного интеллекта Claude, и высокопоставленными чиновниками Белого дома продолжает обостряться. Как сообщает американский новостной портал Semafor, недовольство в Белом доме растет из-за того, что Anthropic отказывается предоставлять свой ИИ для расследований ФБР в пределах США. Глава Anthropic Дарио АмодейВ частности, утверждается, что правила использования продуктов компании затрудняют работу частных поставщиков услуг, действующих от имени федеральных агентств США, таких как ФБР и Секретная служба. Анонимные источники в Белом доме отмечают, что Anthropic формулирует условия использования своих разработок расплывчато. Ситуация усугубляется технологическим фактором. В некоторых высокозащищённых облачных средах правительства США (например, Gov Cloud от Amazon Web Services) ИИ-модель Claude от Anthropic является единственной, одобренной для обработки данных с грифом «Совершенно секретно». Правила Anthropic чётко разграничив

Конфликт между компанией Anthropic, разработчиком модели искусственного интеллекта Claude, и высокопоставленными чиновниками Белого дома продолжает обостряться. Как сообщает американский новостной портал Semafor, недовольство в Белом доме растет из-за того, что Anthropic отказывается предоставлять свой ИИ для расследований ФБР в пределах США.

Глава Anthropic Дарио АмодейВ частности, утверждается, что правила использования продуктов компании затрудняют работу частных поставщиков услуг, действующих от имени федеральных агентств США, таких как ФБР и Секретная служба. Анонимные источники в Белом доме отмечают, что Anthropic формулирует условия использования своих разработок расплывчато.

Ситуация усугубляется технологическим фактором. В некоторых высокозащищённых облачных средах правительства США (например, Gov Cloud от Amazon Web Services) ИИ-модель Claude от Anthropic является единственной, одобренной для обработки данных с грифом «Совершенно секретно». Правила Anthropic чётко разграничивают использование в целях национальной безопасности и разработку систем оружия или внутреннюю слежку за населением (компания это запрещает).

Anthropic твёрдо привержена безопасности ИИ. Компания сотрудничает с Министерством обороны США и совсем недавно, в конце 2024 года, заключила партнёрское соглашение с компанией Palantir, специализирующейся на анализе данных, для предоставления своих моделей ИИ разведывательным службам.

Компания Anthropic действует на высококонкурентном рынке. OpenAI из Сан-Франциско также заключила крупные контракты с правительством США на поставку своих систем ИИ государственным организациям. Эксперт по безопасности Брюс Шнайер ранее предупреждал в статье для журнала Slate, что модели ИИ могут обеспечить массовую слежку в беспрецедентных масштабах. Автоматизируя анализ огромных объёмов данных, акцент смещается с наблюдения за действиями на интерпретацию намерений. Дебаты о том, кто имеет доступ к этим мощным инструментам и по каким правилам, возможно, только начались.

📃 Читайте далее на сайте

-2

В Сети появились фотографии двух военных кораблей США и Германии в польском порту

-3

ВТО прогнозирует к 2040 году рост международной торговли на 37% благодаря внедрению ИИ

-4

Дания может приобрести у США патрульные самолёты P-8 Poseidon

-5

Опрос Pew Research: американцы хотят больше контроля над применением ИИ