Контракт на $200 миллионов, который Anthropic заключил с Пентагоном, был аннулирован из-за разногласий о контроле военных над разработкой и использованием их ИИ. Это событие заставляет стартапы задумываться о рисках, связанных с госзаказами в сфере высоких технологий. Anthropic, известный своей GPT-подобной моделью Claude, столкнулся с проблемами, когда Пентагон обозначил компанию как риск в цепочке поставок. Основными вопросами стали контроль над ИИ для автономных оружий и мониторинг на территории США. В итоге Министерство обороны США решило обратиться к OpenAI, который получил ожидания повышения популярности ChatGPT, что вылилось в 295% прирост uninstall. На фоне растущего интереса к ИИ технологиям важно понимать, как стартапы могут адаптироваться к сложной атмосфере использования ИИ в армии и других государственных структурах. К примеру, аналогичные вызовы могут ожидать и другие компании, работающие с высокими технологиями. Ситуация с Anthropic подчеркивает необходимость четкого пон
Anthropic потерял контракт с Пентагоном из-за контроля над ИИ
6 марта6 мар
1 мин