Добавить в корзинуПозвонить
Найти в Дзене

Миллионы за подпись: почему сделка с Пентагоном вызвала массовый исход из OpenAI

Январь стал месяцем «большой чистки» для OpenAI. После анонса сотрудничества с Пентагоном ChatGPT потерял более 1,5 миллиона активных пользователей. В США скорость удаления приложения взлетела на 295% всего за сутки. Это не технический сбой, а осознанный протест, который невозможно исправить обновлением кода. Статистика App Store напоминает кардиограмму при инфаркте: Сэм Альтман попытался сгладить углы, пообещав правки в контракте с Минобороны, но сеть ответила скепсисом. Доверие — ресурс невосполнимый, его нельзя «дообучить» на новых данных. Раньше мы выбирали нейросеть по скорости генерации или качеству кода. Теперь в уравнение добавилась этика. Конфликт между миссией «ИИ на благо человечества» и прибылью от военных заказов расколол сообщество. Пока OpenAI внедряет модели в закрытые сети для работы с данными разведки, пользователи голосуют кнопкой «Удалить». На этом фоне Anthropic разыграл партию как по учебнику. Пока конкурент подписывал документы с военными, разработчики Claude пуб
Оглавление

Январь стал месяцем «большой чистки» для OpenAI. После анонса сотрудничества с Пентагоном ChatGPT потерял более 1,5 миллиона активных пользователей. В США скорость удаления приложения взлетела на 295% всего за сутки. Это не технический сбой, а осознанный протест, который невозможно исправить обновлением кода.

Цифры против лояльности: хроника падения

Статистика App Store напоминает кардиограмму при инфаркте:

  • +775% — рост отзывов в «одну звезду» за первые выходные.
  • В 2 раза — сокращение количества пятизвездочных оценок.
  • -1,5 млн — чистый отток пользователей.

Сэм Альтман попытался сгладить углы, пообещав правки в контракте с Минобороны, но сеть ответила скепсисом. Доверие — ресурс невосполнимый, его нельзя «дообучить» на новых данных.

Этический фильтр: когда совесть важнее контекстного окна

Раньше мы выбирали нейросеть по скорости генерации или качеству кода. Теперь в уравнение добавилась этика. Конфликт между миссией «ИИ на благо человечества» и прибылью от военных заказов расколол сообщество. Пока OpenAI внедряет модели в закрытые сети для работы с данными разведки, пользователи голосуют кнопкой «Удалить».

На этом фоне Anthropic разыграл партию как по учебнику. Пока конкурент подписывал документы с военными, разработчики Claude публично отказались от сотрудничества с Пентагоном. Они заявили: их алгоритмы не будут использоваться для слежки или создания автономного оружия.

Результат налицо:

Claude занял первое место в App Store, а количество скачиваний выросло на 51%. Это первый случай в истории, когда политическое решение обрушило метрики ИИ-гиганта сильнее, чем любой технический баг.

Новая реальность: право на рубильник

Мы привыкли считать ИИ нейтральным инструментом, вроде калькулятора. Но когда нейросеть получает доступ к данным оборонного ведомства, она становится субъектом большой политики. Подписчик ChatGPT Plus теперь не просто клиент, а косвенный участник военного бюджета. Далеко не все готовы платить 20 долларов в месяц за такое соучастие.

Рынок ИИ перестал быть гонкой вычислительных мощностей — он превращается в гонку ценностей. Азимовские законы робототехники в 2024 году пишутся не в коде, а в пунктах лицензионных соглашений. Миграция к конкурентам показала: аудитория готова менять привычный софт, если ценности компании идут вразрез с их моральным компасом.

Готовы ли вы доверять свои идеи и личные данные системе, которая завтра может стать частью цифрового прицела?