В мире технологий редко бывает, что люди сами уходят из компании, ставшей символом революции. Но именно так началась история Anthropic — стартапа, который сегодня называют «самой этичной компанией Кремниевой долины».
Ее основатели — брат и сестра Дарио и Даниэла Амодеи. Раньше они работали в OpenAI и помогали создавать систему, из которой потом появился ChatGPT. Со временем они поняли, что их взгляды всё сильнее расходятся с руководством.
Дарио, физик с философским складом ума, был уверен: если люди создают сверхразум, нужно думать не только о том, насколько он умен, но и о том, насколько он безопасен. Его беспокоило, что в гонке за скоростью и деньгами человечество может не успеть поставить нужные «предохранители» для контроля ИИ.
Хронология ключевых событий (факты)
29 декабря 2020 года — OpenAI официально объявила, что Дарио Амодеи уходит с должности вице-президента по исследованиям. В компании отметили его вклад в создание GPT-2 и GPT-3 и сообщили, что он уходит, чтобы «работать над новым проектом».
2021 год — группа бывших сотрудников OpenAI, включая Дарио и Даниэлу Амодеи, основала Anthropic. Компания заявила, что будет заниматься исследованиями и разработкой безопасных и управляемых систем ИИ.
2023–2024 годы — Anthropic представила и начала использовать метод «Constitutional AI», а также выпустила серию моделей Claude (первая версия — март 2023 года).
2021–2024 (финансирование) — Anthropic получила крупные инвестиции:
- в 2021 году — от фонда, связанного с FTX и Сэмом Бэнкман-Фридом ($500 млн);
- позже — стратегические вложения и партнёрства от Amazon и Google, на миллиарды долларов.
Эти сделки показали, что компания не только этична, но и коммерчески успешна, и дали ей средства для роста.
Что говорили участники и журналистские расследования (основанные факты)
Дополнительная справка: где можно протестировать разные модели
💡 Существуют независимые агрегаторы нейросетей GPTGate где собраны различные версии языковых моделей — включая Claude, GPT и DeepSeek. Такие площадки позволяют сравнить подходы разных компаний и протестировать модели без необходимости обращаться к зарубежным сервисам.
Что говорили участники и журналистские расследования (основанные факты):
Разногласия по темпу и способу развёртывания мощных моделей.
Из источника TIME+1: часть исследователей OpenAI волновало, что технологии развиваются слишком быстро, а оценка рисков не успевает за прогрессом. Осторожность в отношении выпуска мощных моделей и возможного вреда — одна из главных причин ухода команды.
Различие в подходе к организации и коммерциализации.
Из источника OpenAI+1: OpenAI эволюционировала от изначальной «открытой» и некоммерческой структуры к гибридной структуре (OpenAI LP) с заметной коммерческой составляющей и крупными партнёрствами (например с Microsoft). Часть команды видела в этом смещение акцентов — в сторону продуктового/коммерческого — и хотела продолжать исследования в более «независимом», ориентированном на безопасность формате.
Публичная позиция Anthropic после ухода.
Из источника FORTUNE: Anthropic открыто формализовала свою миссию: разрабатывать ИИ, «изучая их свойства безопасности на технологическом фронте» и применять эти исследования в продуктах, которые делают безопасность приоритетом. Одним из ключевых практических подходов стала технология «Constitutional AI» — метод обучения моделей на наборе принципов/«конституции», чтобы уменьшать вред при ответах и повышать управляемость.
Что такое «Constitutional AI» и почему это важно (факты)
Constitutional AI — это метод, который разработала Anthropic.
Модель сначала генерирует ответ, а потом сама оценивает и исправляет его, используя заранее заданные правила («конституцию»).
Это снижает зависимость от дорогостоящей ручной проверки (метод RLHF — обучение с подкреплением по отзывам людей) и делает ценности модели более прозрачными.
Anthropic применяет этот подход в своих моделях Claude, чтобы повысить безопасность и предсказуемость поведения ИИ.
Различия в продуктах и позиционировании: Claude vs ChatGPT (факты)
Claude (Anthropic) — модель, созданная с приоритетом на безопасность, управляемость и понятность работы.
Обучается с помощью Constitutional AI и RLHF, рассчитана в основном на бизнес-использование и интеграции с облачными сервисами.
Недавно у Anthropic вышла новая версия — Claude Haiku 4.5, о которой можно прочитать подробнее в нашей статье на Дзене. Попробовать возможности Claude, GPT и DeepSeek можно на платформе GPTGate — агрегаторе, где собраны популярные нейросети в одном интерфейсе, с доступен без VPN. Оплата полных версий возможна российской картой, чего нельзя сделать на иностранных официальных сайтах. Работает система pay as you go — вы платите только за то, что реально используете (что выходит в разы бюджетней, чем с подписками). Нет подписок и скрытых платежей.
ChatGPT / GPT (OpenAI) — развивается быстрее, с упором на массовое использование и коммерциализацию (выпуск для широкой публики, партнёрство с Microsoft и т.д.).
Эти различия показывают две стратегии:
- одна — быстрое масштабирование и коммерческий успех;
- другая — медленное развитие с приоритетом на безопасность.
Именно это идеологическое различие и стало одной из причин ухода Дарио Амодеи и его коллег.
Финансирование и влияние инвесторов (факты из открытых источников)
Anthropic привлекла значительные инвестиции:
- FTX / Сэм Бэнкман-Фрид — $500 млн в 2021 году (эта доля позже была продана после банкротства FTX);
- Amazon и Google — стратегические инвестиции и партнёрства, обеспечившие Anthropic ресурсами и каналами для вывода продуктов на рынок.
Эти сделки сделали Anthropic сильным конкурентом OpenAI в корпоративном сегменте.
Последствия для отрасли (по данным СМИ и аналитиков)
- Безопасность стала конкурентным преимуществом.
Anthropic показала, что можно строить успешный бизнес, делая акцент на этике и безопасности. Теперь безопасность воспринимается не только как моральная обязанность, но и как способ выделиться на рынке. - Рост влияния облачных гигантов.
Партнёрства Anthropic с Amazon и Google усилили роль облачных платформ в развитии ИИ.
Теперь конкурируют не только исследовательские лаборатории, но и целые экосистемы — «облако + ИИ». - Регуляторное внимание.
Крупные сделки Anthropic вызвали интерес у антимонопольных органов, что подчёркивает важность регулирования конкуренции и контроля за мощными ИИ-технологиями.
Краткий ответ на главный вопрос: почему ушли и основали Anthropic?
Согласно открытым источникам, команда ушла, потому что у неё возникли глубокие разногласия с OpenAI:
- по скорости и способу выпуска мощных моделей,
- по приоритету безопасности,
- по коммерческому направлению компании.
Создание Anthropic позволило им реализовать другую стратегию —
сделать безопасность ИИ центральной задачей, разработать собственные методы (такие как Constitutional AI) и искать коммерческие решения, не отказываясь от этих принципов.