Добавить в корзинуПозвонить
Найти в Дзене
Лобушкин

У нас немного перепутались тайминги выхода постов

Предыдущий – продолжение этого. Редакция канала «Лобушкин» активно следила за скандалом вокруг Anthropic и ждала логического итога, чтобы поделиться с вами, и вот, кажется, мы близки к развязке. В чём же суть? Недавно компания опубликовала официальное обращение, в котором подтвердила готовность сотрудничать с американскими военными структурами, но отказалась снимать два принципиальных ограничения: использование ИИ для массовой внутренней слежки за гражданами и для полностью автономных боевых систем без участия человека. Если совсем просто, они отказались давать доступ министерству обороны США, чтобы ИИ сам принимал решения об убийстве человека. Anthropic заявила, что такие сценарии подрывают демократические принципы и пока не могут считаться безопасными. Министерство обороны же потребовало убрать ограничения и предоставить доступ к моделям для «любого законного использования». Позиция ведомства простая: государство само определяет рамки допустимого применения, а подрядчик не вправе

У нас немного перепутались тайминги выхода постов. Предыдущий – продолжение этого.

Редакция канала «Лобушкин» активно следила за скандалом вокруг Anthropic и ждала логического итога, чтобы поделиться с вами, и вот, кажется, мы близки к развязке.

В чём же суть? Недавно компания опубликовала официальное обращение, в котором подтвердила готовность сотрудничать с американскими военными структурами, но отказалась снимать два принципиальных ограничения: использование ИИ для массовой внутренней слежки за гражданами и для полностью автономных боевых систем без участия человека. Если совсем просто, они отказались давать доступ министерству обороны США, чтобы ИИ сам принимал решения об убийстве человека. Anthropic заявила, что такие сценарии подрывают демократические принципы и пока не могут считаться безопасными.

Министерство обороны же потребовало убрать ограничения и предоставить доступ к моделям для «любого законного использования». Позиция ведомства простая: государство само определяет рамки допустимого применения, а подрядчик не вправе навязывать условия национальной безопасности. В случае отказа министерство угрожало разорвать контракт, применить Defense Production Act и возможным признанием компании риском для цепочек поставок. Как вы понимаете, Anthropic отказалась.

Президент США Дональд Трамп буквально вчера публично поддержал линию ведомства. Он заявил, что федеральные агентства должны прекратить использование технологий Anthropic, если компания не согласится на условия правительства. Также прозвучали предупреждения о возможных правовых последствиях и поэтапном выводе её решений из госструктур. Вернее даже не так: Дональд Трамп приказал вывести Anthropic из игры в течение следующих шести месяцев.

И тут угадайте, кто вылез? Конечно же, всем нам известный червь-пидор Сэм Альтман, который поддержал курс на сотрудничество с государством, подчеркнув важность участия ИИ-компаний в обеспечении национальной безопасности. Формально теперь ChatGPT будет следить за людьми и принимать автономные решения об убийстве через дроны, так как контракт Anthropic перешёл к OpenAI.

Было очевидно с самого начала, что история с ИИ — это гонка вооружений. По сути, ИИ страшнее ядерного оружия. И сегодня этот публичный конфликт показывает, что границ у применения ИИ в военных целях, например у США, нет. Они будут убивать людей, они будут координировать, они будут формировать общественное мнение через него. Они будут следить. В очередной раз хотелось бы поговорить о границах власти и допустимости того, что миллиарды людей позволяют единицам. Но это уже совсем другая история.

@lobushkin

-2
-3
-4