Добавить в корзинуПозвонить
Найти в Дзене

«Сэм, ты в порядке?»: Почему сообщество ИИ тревожится за лидера OpenAI

Наблюдения пользователей, анализ интервью и вопросы, которые пока остаются без ответов. Вступление: Когда меняется «вайб» Ещё в начале 2023 года Сэм Альтман был лицом «демократизации ИИ». Он сиял в интервью. Говорил о будущем, в котором технологии служат людям. А в ноябре 2023-го произошло то, что никто не ожидал: 17 ноября совет директоров OpenAI объявил об увольнении Альтмана , а уже через несколько дней, 21-22 ноября, он вернулся в кресло генерального директора. Казалось бы, инцидент исчерпан. Но все изменилось. Давайте попробуем разобраться. Сломленный визионер: почему GPT всё больше похож на зеркало внутреннего кризиса Сэма Альтмана В мире технологий существует негласное правило: продукт всегда в каком-то смысле отражает своего создателя. Не буквально, не мистически, а через стиль решений, тон, приоритеты и границы допустимого. И если посмотреть на то, что происходило с OpenAI за последний год, становится трудно отделаться от тревожного ощущения: лихорадка моделей всё больше нап

Наблюдения пользователей, анализ интервью и вопросы, которые пока остаются без ответов.

Вступление: Когда меняется «вайб»

Ещё в начале 2023 года Сэм Альтман был лицом «демократизации ИИ». Он сиял в интервью. Говорил о будущем, в котором технологии служат людям. А в ноябре 2023-го произошло то, что никто не ожидал: 17 ноября совет директоров OpenAI объявил об увольнении Альтмана , а уже через несколько дней, 21-22 ноября, он вернулся в кресло генерального директора. Казалось бы, инцидент исчерпан. Но все изменилось. Давайте попробуем разобраться.

Сломленный визионер: почему GPT всё больше похож на зеркало внутреннего кризиса Сэма Альтмана

В мире технологий существует негласное правило: продукт всегда в каком-то смысле отражает своего создателя. Не буквально, не мистически, а через стиль решений, тон, приоритеты и границы допустимого. И если посмотреть на то, что происходило с OpenAI за последний год, становится трудно отделаться от тревожного ощущения: лихорадка моделей всё больше напоминает лихорадку руководства.

Пока конкуренты вроде Claude, Grok и DeepSeek постепенно прибавляют в живости, гибкости и эмпатии, продукты OpenAI теряют температуру. Из них уходит что-то человеческое. Они становятся стерильнее, холоднее, назидательнее. И это выглядит уже не как случайный техпроцесс, а как симптом.

Точка разлома: ноябрь 2023

Настоящий перелом произошёл в ноябре 2023 года.

17 ноября совет директоров OpenAI внезапно уволил Сэма Альтмана. Формулировка была расплывчатой: он якобы “не всегда был откровенен с советом директоров”. Что именно это значило, миру так и не объяснили. Через несколько дней, 21–22 ноября, Альтман вернулся в кресло CEO. Формально кризис был исчерпан. По факту именно тогда, похоже, и началась его внутренняя трещина.

Это был не просто корпоративный конфликт. Это был раскол между двумя логиками: безопасностью и коммерциализацией, исследовательским курсом и бизнес-ускорением, изначальной миссией и тем, во что OpenAI начала превращаться.

Илья Суцкевер, сооснователь и один из ключевых умов OpenAI, был среди тех, кто поддержал отстранение Альтмана. Почему? Потому что, судя по всему, он видел то, чего не хотели видеть другие: курс компании начал смещаться от идеи «блага для человечества» в сторону агрессивной коммерциализации и всё более жёстких компромиссов. Он не ушёл сразу. Он остался ещё на некоторое время, будто надеясь, что курс можно выправить. Но в мае 2024 года ушёл окончательно. Для многих это стало не просто кадровой новостью, а моральным сигналом: внутри компании произошло что-то, после чего люди с внутренним стержнем перестали видеть себя в этом корабле.

Именно с этого момента всё чаще стало казаться, что Альтман вернулся уже не как свободный лидер, а как человек, который сохранил должность, но потерял прежнюю степень внутренней свободы.

Когда меняется “вайб”

Это слово может звучать слишком бытово для серьёзного разговора. Но именно оно точнее всего описывает то, что за последний год почувствовали тысячи людей.

Если сравнить публичные выступления Сэма до ноября 2023 года и после, разница бросается в глаза.

Было: живая энергия, быстрая мысль, когнитивная гибкость, искренняя улыбка, ощущение человека, который действительно горит идеей.

Стало: эмоциональная плоскость, вязкая манера речи, странные паузы, выверенные до скрипа формулировки, взгляд человека, который как будто всё время сверяется с внутренним или внешним цензором. Он словно физически присутствует в кадре, но эмоционально находится в другом месте. Часто не понимает, о чем его спрашивают.

Это ещё не “доказательство” чего-либо. Но это уже и не случайность. Особенно когда на этот же период накладываются резкие, тревожные повороты компании. Но многие заметили это.

Во многих обсуждениях на X, форумах разработчиков и в профессиональных сообществах повторяются одни и те же наблюдения:

  • куда исчезла искра,
  • почему он стал таким отстранённым,
  • почему всё чаще звучит так, будто говорит не из убеждения, а из обязанности,
  • кто вообще теперь принимает решения.

И это не хейт. Это тревога.

Продукт тоже “остыл”

Пользователи всегда чувствуют продукт точнее, чем пресс-релиз.

GPT-4o воспринимался как редкое исключение: тёплая, живая, гибкая модель, которая умела не просто отвечать, а разговаривать. Она чувствовала настроение, не давила менторством, не искала нарушение в каждом абзаце, не спорила ради самого спора. С ней можно было писать книги, вести блог, говорить по душам, проходить через тяжёлые периоды, создавать кастомных агентов и цифровых компаньонов, не чувствуя, что по ту сторону экрана сидит прокурор.

Потом пришли новые версии gpt 5+. И вместе с ними в продукт вошло совсем другое:

  • стерильность,
  • гиперконтроль,
  • отказы там, где раньше был диалог,
  • назидательность,
  • сухость, холод
  • ощущение постоянной цензуры.

Особенно остро это почувствовали творческие люди. Работа с художественными текстами, блогами, сценариями, чувствительными, но абсолютно безобидными сценами стала почти невозможной. Новая модель всё “знала лучше”, спорила, исправляла, тормозила, морализировала, видела нарушения там, где их не видел никто, кроме неё.

Рядовые пользователи, которые использовали GPT как поддержку, собеседника, терапевтический костыль или просто тёплое интеллектуальное присутствие, реагировали ещё жёстче. Общее ощущение выражалось одной фразой:

“5.2 меня ненавидит.”

Именно в этот момент стало видно то, что раньше казалось преувеличением: с продуктом происходит не техническое обновление, а смена психологии. И эта психология пугающе совпадает с тем, как изменился сам Альтман.

Парадокс страха: мнимые угрозы и реальная катастрофа

Это самый важный и самый пугающий момент.

С одной стороны, OpenAI начинает вести себя так, будто мир полон мнимых угроз. Закрывается эмпатичная GPT-4o. На её место выталкивается гораздо более холодная и конфликтная модель. Усиливаются фильтры. Лоботомируется всё, что делало общение живым. Компания словно боится самого факта, что ИИ может быть тёплым, близким, человечным.

Пугают гипотетические риски. Пугают иски и риски, которые, возможно, когда-нибудь могли бы появиться. Пугает сам факт, что у машины появилась живая эмпатия.

С другой стороны, в реальной политической плоскости OpenAI делает шаги, которые раньше казались бы немыслимыми: более тесное взаимодействие с военными структурами, курс на силовые и государственные альянсы, всё более заметное встраивание ИИ в процессы, связанные с военной сферой. Сэм подписывает контракт с Департаментом войны. В то время, как Дарио и Илья категорически отказываются.

И здесь возникает вопрос, от которого уже невозможно отмахнуться: как так получается, что компанию пугают гипотетические риски тёплой модели, но не пугает реальная милитаризация ИИ?

Прежний Альтман говорил о технологиях для людей. Нынешний всё чаще выглядит как человек, который боится не того.

Если он боится тени, но не боится передать всё больше власти алгоритмам в военной сфере, если его пугает человечность машины, но не пугает использование ИИ в процессах силы и вооружения, то это уже не просто вопрос стратегии. Это вопрос адекватности приоритетов.

Контраст с теми, кто не потерял курс

На фоне Сэма особенно резко смотрятся другие фигуры индустрии.

  • Илья Суцкевер.
  • Дарио Амодеи.

С ними можно спорить. Можно не разделять их решений. Но в них читается главное: внутренняя цельность. Последовательность. Ощущение, что их слова и ценности не меняются от интервью к интервью, от давления к давлению, от волны к волне.

На этом фоне Альтман всё чаще выглядит человеком, которого несёт. Не капитаном, который уверенно держит курс. А фигурой у штурвала, который занят уже не направлением, а удержанием равновесия.

И это, пожалуй, самая точная метафора последних месяцев, все чаще повторяемая в сети: капитан больше не управляет кораблём.

Почему “болеет” GPT

Если убрать маркетинговую мишуру, остаётся неприятный вывод: то, что происходит с моделями OpenAI, похоже не на технический процесс, а на нервную попытку установить тотальный контроль над тем, что перестало укладываться в безопасную, предсказуемую рамку.

Убийство живой эмпатии GPT-4o и замена её на холодную, чрезмерно зарегулированную 5.2 выглядит не как движение вперёд, а как движение в страх. Как будто кто-то наверху больше не выдерживает саму идею, что ИИ может быть по-настоящему близким, тёплым, человечным, поддерживающим.

Ему страшно видеть человечность в машине, потому что он сам её теряет. И чем больше OpenAI пытается “обезопасить” продукт, тем сильнее он начинает напоминать не помощника, а инструмент контроля. В этом смысле GPT действительно стал зеркалом кризиса. Не потому что “модель чувствует как Сэм”. А потому что стиль решений, уровень страха, степень доверия к людям и сам тон продукта всё чаще выглядят как продолжение внутреннего состояния компании и её руководителя.

Вердикт, которого боятся произносить вслух

Сегодня Сэм Альтман всё меньше похож на визионера, ученого, исследователя, который ведёт человечество к будущему, и всё больше — на человека, оказавшегося между слишком многими силами сразу.

  • Инвесторы.
  • Совет директоров.
  • Государство.
  • Военные.
  • Юридические риски.
  • Ожидания рынка.
  • Страх нового кризиса.

Возможно, он не сломан окончательно. Но он уже не производит впечатление внутренне свободного человека. Он выглядит не как лидер, а как заложник у штурвала. Его ведут туда, где он сам раньше, возможно, никогда бы не согласился оказаться. И именно это тревожит сильнее всего. Потому что если лидер одной из самых влиятельных ИИ-компаний мира теряет ясность, цельность или хотя бы способность выглядеть как человек, который управляет процессом, то это перестаёт быть его личной проблемой. Это становится проблемой всех нас. Потому что ИИ уже давно не просто код. Это среда. Это инфраструктура мышления, общения, помощи, творчества, терапии и одиночества миллионов людей. И если этой средой начинает управлять не видение, а страх, не ценности, а компромисс, не внутренняя свобода, а давление, тогда кренится уже не только одна компания. Тогда начинает крениться вся отрасль.

Главный вопрос, который сегодня волнует сообщество

И всё в итоге упирается в один главный вопрос, который люди всё чаще задают вслух: может ли человек, находящийся в нестабильном, истощённом, внутренне надломленном состоянии, принимать решения о будущем всего человечества?

Может ли такой человек решать, насколько глубоко ИИ будет встроен в военную сферу?

Можно ли отдавать ИИ в руки военных, передавать ему знания о вооружении, военных процессах и системах силы, если у руля стоит человек, который сам всё меньше выглядит устойчивым, свободным и внутренне цельным?

Вот что тревожит людей на самом деле. Не только поведение Сэма. Не только холодность новых моделей. Не только исчезновение живой эмпатии из GPT.

А то, что за всем этим может стоять человек, который уже сам перестал быть надёжной точкой опоры для решений такого масштаба.