Найти в Дзене
ПомогИИ

Компания Anthropic отказывается убирать этические ограничения с ИИ-модели Claude, несмотря на давление со стороны Пентагона

И это важный момент для всех нас. Вы купили хорошую мясорубку, а потом производитель узнал, что вы собираетесь перемалывать в ней что-то совсем другое - не то, для чего она создавалась. И производитель говорит: нет, так нельзя. Примерно это сейчас происходит между американским военным ведомством и одной из ведущих ИИ-компаний мира. Только ставки, конечно, несравнимо выше. Главный технолог Пентагона Эмиль Майкл публично потребовал от компании Anthropic снять все этические ограничения с их модели Claude - мощного ИИ-помощника, которого многие используют для работы и учебы. Конкретно речь идет о двух вещах: Пентагон хочет использовать Claude для разработки автономных систем оружия, то есть таких, которые принимают решения без участия человека, и для массовой слежки за гражданами. Anthropic на это отвечает твердым отказом. Майкл в ответ призвал компанию "перейти Рубикон" - то есть сделать необратимый выбор в пользу военного применения без каких-либо условий. Его логика проста: если продае
Оглавление

И это важный момент для всех нас.

Представьте

Вы купили хорошую мясорубку, а потом производитель узнал, что вы собираетесь перемалывать в ней что-то совсем другое - не то, для чего она создавалась. И производитель говорит: нет, так нельзя. Примерно это сейчас происходит между американским военным ведомством и одной из ведущих ИИ-компаний мира. Только ставки, конечно, несравнимо выше.

Главный технолог Пентагона Эмиль Майкл публично потребовал от компании Anthropic снять все этические ограничения с их модели Claude - мощного ИИ-помощника, которого многие используют для работы и учебы.

Конкретно речь идет о двух вещах: Пентагон хочет использовать Claude для разработки автономных систем оружия, то есть таких, которые принимают решения без участия человека, и для массовой слежки за гражданами. Anthropic на это отвечает твердым отказом. Майкл в ответ призвал компанию "перейти Рубикон" - то есть сделать необратимый выбор в пользу военного применения без каких-либо условий. Его логика проста: если продаете продукт Министерству войны, не мешайте ему делать то, чем министерство занимается.

А зачем это нам?

Вам может показаться, что это далекие американские разборки, никак не связанные с вашей жизнью. Но связь прямая. Когда крупные ИИ-компании держат этические границы, это влияет на весь мировой рынок технологий. Учитель, который использует ИИ для подготовки урока, мама, которая просит его помочь разобраться в документах для детского сада, врач, который проверяет через него медицинские рекомендации - все они пользуются инструментами, у которых есть правила. Эти правила защищают нас от ситуаций, когда ИИ начинает работать против людей, а не для них. Пока компании вроде Anthropic держат эту линию, технология остается инструментом помощи, а не угрозы. Кстати, для в качестве "мозга" для своего ИИ-ассистента я тоже использую ИИ от Anthropic и очень им доволен ( почитайте, что он уже умеет и рассмотрите эту нейросеть тоже. Очень советую )

Вообще, этот конфликт происходит на фоне большой гонки. Пентагон активно внедряет ИИ в свои операции. В феврале 2026 года было объявлено, что ChatGPT от OpenAI появится на военной платформе GenAI.mil. Ранее военные также договаривались о доступе к модели Grok от компании xAI Илона Маска. Также они объявили большой конкурс по управлению роем беспилотников ( об этом я писал в статье "Когда Пентагон объявляет конкурс с призовым фондом в 100 миллионов долларов, это не просто тендер").

Claude от Anthropic пока остается заблокированным - именно из-за этих разногласий по поводу границ использования. Получается, что компании, которые соглашаются убрать ограничения, получают военные контракты. А те, кто держится за принципы, остаются за дверью. Это честно говоря непростой выбор для любого бизнеса.

Но вот что важно

Кто-то должен удерживать эту линию. Эмелия Пробаско из авторитетного Центра безопасности и развивающихся технологий Джорджтаунского университета говорит, что хотела бы видеть Anthropic "в команде" - то есть готовой к сотрудничеству. Но сама компания пока настаивает: оружие, срабатывающее без человека, и слежка за гражданами - это не те сценарии, для которых создавался Claude. И это позиция, заслуживающая уважения.

Кстати, именно такие конфликты и двигают будущее. Они заставляют общество, компании и государства договариваться о правилах. Это неудобно, долго и громко - но именно так рождаются нормы, которые потом защищают всех нас.

Технологии не бывают нейтральными сами по себе - они становятся такими, какими их делают люди, которые за них отвечают. И пока есть компании, готовые отстаивать свои принципы даже перед лицом давления со стороны самого мощного военного ведомства планеты, у нас есть основания смотреть на будущее с доверием, а не с тревогой.

Пока нейросети не научились читать наши мысли и сами ставить себе лайки, мне всё еще нужна ваша поддержка! Подписывайтесь, чтобы не пропускать новые разборы - обещаю и дальше переводить с гиковского на русский.

Если статья зашла, смело жмите лайк и перешлите тому самому другу, который вечно не в теме. Ну и пишите в комменты: что вообще думаете о регулировании нейросетей? Поддерживаете Anthropic ?