Добавить в корзинуПозвонить
Найти в Дзене

Anthropic потерял контракт с Пентагоном из-за контроля над ИИ

Контракт на $200 миллионов, который Anthropic заключил с Пентагоном, был аннулирован из-за разногласий о контроле военных над разработкой и использованием их ИИ. Это событие заставляет стартапы задумываться о рисках, связанных с госзаказами в сфере высоких технологий. Anthropic, известный своей GPT-подобной моделью Claude, столкнулся с проблемами, когда Пентагон обозначил компанию как риск в цепочке поставок. Основными вопросами стали контроль над ИИ для автономных оружий и мониторинг на территории США. В итоге Министерство обороны США решило обратиться к OpenAI, который получил ожидания повышения популярности ChatGPT, что вылилось в 295% прирост uninstall. На фоне растущего интереса к ИИ технологиям важно понимать, как стартапы могут адаптироваться к сложной атмосфере использования ИИ в армии и других государственных структурах. К примеру, аналогичные вызовы могут ожидать и другие компании, работающие с высокими технологиями. Ситуация с Anthropic подчеркивает необходимость четкого пон
Оглавление

Контракт на $200 миллионов, который Anthropic заключил с Пентагоном, был аннулирован из-за разногласий о контроле военных над разработкой и использованием их ИИ. Это событие заставляет стартапы задумываться о рисках, связанных с госзаказами в сфере высоких технологий.

Контекст ситуации

Anthropic, известный своей GPT-подобной моделью Claude, столкнулся с проблемами, когда Пентагон обозначил компанию как риск в цепочке поставок. Основными вопросами стали контроль над ИИ для автономных оружий и мониторинг на территории США. В итоге Министерство обороны США решило обратиться к OpenAI, который получил ожидания повышения популярности ChatGPT, что вылилось в 295% прирост uninstall.

На фоне растущего интереса к ИИ технологиям важно понимать, как стартапы могут адаптироваться к сложной атмосфере использования ИИ в армии и других государственных структурах. К примеру, аналогичные вызовы могут ожидать и другие компании, работающие с высокими технологиями.

Чему стоит учиться стартапам?

Ситуация с Anthropic подчеркивает необходимость четкого понимания разных факторов, которые могут повлиять на заключение государственных контрактов. Необходимость компромиссов по вопросам контроля может превращаться в преграду для многих стартапов, стремящихся войти на этот рынок. Безопасность и этичность технологий должны стать важными аспектами для рассмотрения.

Интересно, что эта неудача приходит на фоне растущего числа сообщенний о потенциальных возможностей и проблемах в области ИИ, таких как случаи несанкционированного доступа и нарушения безопасности, что делает эти контракты редакцией на вес золота.

Что это означает?

Русскоязычным стартапам стоит обратить внимание на опыт Anthropic: прежде чем погружаться в гонку за госзаказами, полезно проанализировать юридические и этические нормы, связанные с вашими технологиями. Учитывая ужесточение контроля и требования по безопасности, предлагать решения, отвечающие требованиям госструктур, будет все сложнее.

Следующим шагом для Anthropic, как ожидается, станет попытка поиска альтернативных клиентов или завершение текущих проектов с другими направлениями, менее подверженными риску вмешательства со стороны властей.

The post Anthropic потерял контракт с Пентагоном из-за контроля над ИИ appeared first on itech-news.