От американской технологической компании Anthropic, создавшей нейросеть Claude, Пентагон требовал отказаться от собственных принципов. Это и привело к громкому скандалу, вышедшему в публичное пространство. Такое мнение ИС "Вести" высказал руководитель Центра разработки больших языковых моделей MWS AI Валентин Малых. Компания Anthropic явно постулирует то, что они стремятся не наносить вреда. Anthropic в переводе с греческого "человеческий", то есть они, по крайней мере, официально декларируют цель быть максимально человечными. И по этой причине они не хотят, чтобы ИИ использовался для всех целей, которые хочет Пентагон. То есть они не против, видимо, некоторых целей, но для всех целей не готовы. - заявил он. Эксперт полагает, что американские военные могли требовать от технологической компании то, что шло вразрез с ее внутренними стандартами. Часто употребляется слово "гардрейлы", что в переводе с английского обозначает "поручень" (AI guardrails - механизмы контроля и защиты, предназна