Найти в Дзене
GPTGate

Как и зачем бывшие сотрудники OpenAI создали Anthropic:разбираем по полочкам

В мире технологий редко бывает, что люди сами уходят из компании, ставшей символом революции. Но именно так началась история Anthropic — стартапа, который сегодня называют «самой этичной компанией Кремниевой долины». Ее основатели — брат и сестра Дарио и Даниэла Амодеи. Раньше они работали в OpenAI и помогали создавать систему, из которой потом появился ChatGPT. Со временем они поняли, что их взгляды всё сильнее расходятся с руководством.
Дарио, физик с философским складом ума, был уверен: если люди создают сверхразум, нужно думать не только о том, насколько он умен, но и о том, насколько он безопасен. Его беспокоило, что в гонке за скоростью и деньгами человечество может не успеть поставить нужные «предохранители» для контроля ИИ. Хронология ключевых событий (факты) 29 декабря 2020 года — OpenAI официально объявила, что Дарио Амодеи уходит с должности вице-президента по исследованиям. В компании отметили его вклад в создание GPT-2 и GPT-3 и сообщили, что он уходит, чтобы «работать на

В мире технологий редко бывает, что люди сами уходят из компании, ставшей символом революции. Но именно так началась история Anthropic — стартапа, который сегодня называют «самой этичной компанией Кремниевой долины».

Ее основатели — брат и сестра Дарио и Даниэла Амодеи. Раньше они работали в OpenAI и помогали создавать систему, из которой потом появился ChatGPT. Со временем они поняли, что их взгляды всё сильнее расходятся с руководством.
Дарио, физик с философским складом ума, был уверен: если люди создают сверхразум, нужно думать не только о том, насколько он умен, но и о том, насколько он безопасен. Его беспокоило, что в гонке за скоростью и деньгами человечество может не успеть поставить нужные «предохранители» для контроля ИИ.

Хронология ключевых событий (факты)

29 декабря 2020 года — OpenAI официально объявила, что Дарио Амодеи уходит с должности вице-президента по исследованиям. В компании отметили его вклад в создание GPT-2 и GPT-3 и сообщили, что он уходит, чтобы «работать над новым проектом».

2021 год — группа бывших сотрудников OpenAI, включая Дарио и Даниэлу Амодеи, основала Anthropic. Компания заявила, что будет заниматься исследованиями и разработкой безопасных и управляемых систем ИИ.

2023–2024 годы — Anthropic представила и начала использовать метод «Constitutional AI», а также выпустила серию моделей Claude (первая версия — март 2023 года).

2021–2024 (финансирование) — Anthropic получила крупные инвестиции:

  • в 2021 году — от фонда, связанного с FTX и Сэмом Бэнкман-Фридом ($500 млн);
  • позже — стратегические вложения и партнёрства от Amazon и Google, на миллиарды долларов.
    Эти сделки показали, что компания не только этична, но и коммерчески успешна, и дали ей средства для роста.

Что говорили участники и журналистские расследования (основанные факты)

Дополнительная справка: где можно протестировать разные модели

💡 Существуют независимые агрегаторы нейросетей GPTGate где собраны различные версии языковых моделей — включая Claude, GPT и DeepSeek. Такие площадки позволяют сравнить подходы разных компаний и протестировать модели без необходимости обращаться к зарубежным сервисам.

Что говорили участники и журналистские расследования (основанные факты):

Разногласия по темпу и способу развёртывания мощных моделей.
Из источника TIME+1: часть исследователей OpenAI волновало, что технологии развиваются слишком быстро, а оценка рисков не успевает за прогрессом. Осторожность в отношении выпуска мощных моделей и возможного вреда — одна из главных причин ухода команды.

Различие в подходе к организации и коммерциализации.
Из источника OpenAI+1: OpenAI эволюционировала от изначальной «открытой» и некоммерческой структуры к гибридной структуре (OpenAI LP) с заметной коммерческой составляющей и крупными партнёрствами (например с Microsoft). Часть команды видела в этом смещение акцентов — в сторону продуктового/коммерческого — и хотела продолжать исследования в более «независимом», ориентированном на безопасность формате.

Публичная позиция Anthropic после ухода.
Из источника FORTUNE: Anthropic открыто формализовала свою миссию: разрабатывать ИИ, «изучая их свойства безопасности на технологическом фронте» и применять эти исследования в продуктах, которые делают безопасность приоритетом. Одним из ключевых практических подходов стала технология «Constitutional AI» — метод обучения моделей на наборе принципов/«конституции», чтобы уменьшать вред при ответах и повышать управляемость.

Что такое «Constitutional AI» и почему это важно (факты)

Constitutional AI — это метод, который разработала Anthropic.
Модель сначала генерирует ответ, а потом
сама оценивает и исправляет его, используя заранее заданные правила («конституцию»).
Это снижает зависимость от дорогостоящей ручной проверки (метод RLHF — обучение с подкреплением по отзывам людей) и делает ценности модели более прозрачными.
Anthropic применяет этот подход в своих моделях
Claude, чтобы повысить безопасность и предсказуемость поведения ИИ.

Различия в продуктах и позиционировании: Claude vs ChatGPT (факты)

Claude (Anthropic) — модель, созданная с приоритетом на безопасность, управляемость и понятность работы.
Обучается с помощью
Constitutional AI и RLHF, рассчитана в основном на бизнес-использование и интеграции с облачными сервисами.

Недавно у Anthropic вышла новая версия — Claude Haiku 4.5, о которой можно прочитать подробнее в нашей статье на Дзене. Попробовать возможности Claude, GPT и DeepSeek можно на платформе GPTGate — агрегаторе, где собраны популярные нейросети в одном интерфейсе, с доступен без VPN. Оплата полных версий возможна российской картой, чего нельзя сделать на иностранных официальных сайтах. Работает система pay as you go — вы платите только за то, что реально используете (что выходит в разы бюджетней, чем с подписками). Нет подписок и скрытых платежей.

ChatGPT / GPT (OpenAI) — развивается быстрее, с упором на массовое использование и коммерциализацию (выпуск для широкой публики, партнёрство с Microsoft и т.д.).

Эти различия показывают две стратегии:

  • одна — быстрое масштабирование и коммерческий успех;
  • другая — медленное развитие с приоритетом на безопасность.
    Именно это идеологическое различие и стало одной из причин ухода Дарио Амодеи и его коллег.

Финансирование и влияние инвесторов (факты из открытых источников)

Anthropic привлекла значительные инвестиции:

  • FTX / Сэм Бэнкман-Фрид — $500 млн в 2021 году (эта доля позже была продана после банкротства FTX);
  • Amazon и Google — стратегические инвестиции и партнёрства, обеспечившие Anthropic ресурсами и каналами для вывода продуктов на рынок.

Эти сделки сделали Anthropic сильным конкурентом OpenAI в корпоративном сегменте.

Последствия для отрасли (по данным СМИ и аналитиков)

  1. Безопасность стала конкурентным преимуществом.
    Anthropic показала, что можно строить успешный бизнес, делая акцент на этике и безопасности. Теперь безопасность воспринимается не только как моральная обязанность, но и как способ выделиться на рынке.
  2. Рост влияния облачных гигантов.
    Партнёрства Anthropic с Amazon и Google усилили роль облачных платформ в развитии ИИ.
    Теперь конкурируют не только исследовательские лаборатории, но и целые экосистемы — «облако + ИИ».
  3. Регуляторное внимание.
    Крупные сделки Anthropic вызвали интерес у антимонопольных органов, что подчёркивает важность регулирования конкуренции и контроля за мощными ИИ-технологиями.

Краткий ответ на главный вопрос: почему ушли и основали Anthropic?

Согласно открытым источникам, команда ушла, потому что у неё возникли глубокие разногласия с OpenAI:

  • по скорости и способу выпуска мощных моделей,
  • по приоритету безопасности,
  • по коммерческому направлению компании.

Создание Anthropic позволило им реализовать другую стратегию —
сделать
безопасность ИИ центральной задачей, разработать собственные методы (такие как Constitutional AI) и искать коммерческие решения, не отказываясь от этих принципов.