Разработчик Claude сталкивается с трудностями на пути к IPO: финансовое давление, конкуренция с Китаем и проблемы с безопасностью моделей отталкивают пользователей. — theregister.com
Компания Anthropic, пользуясь волной благосклонности после отказа выполнить требования Министерства обороны США смягчить меры безопасности модели, по сообщениям, планирует провести первичное публичное размещение акций (IPO) уже в четвертом квартале 2026 года.
Возможно, это произойдет не так скоро, чтобы избежать обратного течения финансового давления, конкуренции со стороны Китая и проблемы предоставления моделей ИИ, которые обеспечивают определенную степень безопасности, не жертвуя при этом слишком большой полезностью.
Финансовое положение компании не радует. В судебном документе, поданном ранее в этом месяце, финансовый директор Кришна Рао сообщил, что компания, которая привлекла 30 миллиардов долларов, смогла заработать только 5 миллиардов долларов, потратив 10 миллиардов долларов только на инференс и обучение.
На этом фоне недавние шаги по экономии, направленные на снижение спроса на токены в часы пик, не внушают оптимизма.
Но существует более фундаментальный риск – сохранение актуальности на фоне растущей мощи конкурентов из Китая.
В понедельник Комиссия по обзору экономической ситуации и вопросам безопасности США и Китая опубликовала доклад, оценивающий конкурентную угрозу со стороны китайских компаний, занимающихся ИИ. В докладе говорится: «Китайские лаборатории сократили разрыв в производительности с ведущими западными большими языковыми моделями. Они также разработали ключевые архитектурные и тренировочные достижения, которые теперь являются отраслевыми стандартами».
Успех китайских компаний в сфере ИИ виден по метрикам популярности таких сайтов, как LLM Rankings, который отслеживает самые популярные модели на OpenRouter — API и маркетплейсе, предоставляющем разработчикам доступ к множеству моделей ИИ через единый интерфейс.
В настоящее время шесть лучших моделей в этом рейтинге принадлежат китайским компаниям в сфере ИИ. Среди них: MiMo-V2-Pro (Xiaomi), Step 3.5 Flash (stepfun), DeepSeek V3.2 (DeepSeek), MiniMax M2.7 (MiniMax), MiniMax M2.5 (MiniMax) и GLM 5 Turbo (z.ai).
Claude Opus 4.6 и Claude Sonnet 4.6 от Anthropic в настоящее время занимают седьмое и восьмое места.
Что более существенно, доля рынка Anthropic снизилась с 29,1 процента 22 марта 2025 года до 13,3 процента 21 марта 2026 года.
Это всего лишь одно измерение, и Anthropic показывает хорошие результаты на корпоративном рынке, чего достаточно, чтобы беспокоить конкурента OpenAI.
Однако без протекционизма со стороны правительства США, бизнесу в сфере ИИ в США противостоят конкуренты, предлагающие аналогичные результаты за десятую часть цены или даже дешевле. Когда Kilo Code сравнивала стоимость Claude 4.6 Opus и MiniMax M2.7 несколькими днями ранее, она обнаружила, что «MiniMax M2.7 обеспечил 90 процентов качества при 7 процентах стоимости (всего 0,27 доллара против 3,67 доллара)».
Anthropic утверждает, что MiniMax, Moonshot AI и DeepSeek скопировали или «дистиллировали» ее модели Claude (которые сами были созданы на основе контента, часто скопированного без разрешения).
Но, учитывая неутешительные результаты усилий США по обеспечению уважения китайской стороной американской интеллектуальной собственности, сомнительно, что призыв Anthropic к «скоординированному ответу со стороны индустрии ИИ, облачных провайдеров и политиков» будет достаточным для поддержания ценообразования, необходимого для достижения положительного денежного потока в разумные сроки.
Наконец, Anthropic сталкивается с проблемой необходимости быть всем для всех клиентов. Компания построила свой бренд вокруг безопасности и благодаря этому завоевала многих корпоративных клиентов и потребителей. Но она оттолкнула нынешнюю администрацию США, и ее усилия по поддержанию безопасности моделей рискуют оттолкнуть сообщество специалистов по безопасности и разработчиков, занимающихся вопросами безопасности.
The Register общался с несколькими исследователями в области безопасности, которые выразили разочарование тем, как семейство моделей Claude показало себя в последние месяцы при поиске ошибок и тестировании эксплойтов.
«Сейчас он очень, очень, очень сильно цензурирован», — сказал один из исследователей безопасности, пожелавший остаться неназванным, в разговоре с The Register. «Блокировщик CBRN (химическое, биологическое, радиологическое и ядерное оружие) был сильно усилен. … Мы все отказываемся от него, так как он вызывает дурацки большое количество ложных срабатываний».
Чтобы продемонстрировать гиперчувствительность модели, нам предоставили скриншот, показывающий, насколько чувствителен Opus — он пометил как небезопасный чат о бродвейском мюзикле, отмеченном премией Тони, Urinetown.
Anthropic подтвердила The Register, что произошли изменения, связанные с безопасностью, указав на меры защиты, добавленные с выпуском Opus 4.6 в феврале.
«В рамках наших текущих обязательств по обеспечению безопасности, описанных в нашем анонсе Claude Opus 4.6, мы внедряем новые киберзащитные меры для Claude Opus 4.6», — объясняется в документации компании. «Эти меры защиты предназначены для автоматического обнаружения и блокировки запросов, которые могут указывать на запрещенное использование в сфере кибербезопасности в соответствии с нашей Политикой использования».
Компания признает: «В некоторых случаях эти ограничители могут также блокировать мероприятия в области кибербезопасности двойного назначения, имеющие законные оборонительные цели, такие как обнаружение уязвимостей».
Действительно, в социальных сетях появляются сообщениялюдей, которые утверждают, что столкнулись с этими ограничителями при работе в сфере безопасности.
Anthropic предоставляет форму, которую специалисты по безопасности могут использовать для подачи прошения об исключении, но, по нашим сведениям, не все, кто подает заявку, получают одобрение, а процесс не является быстрым.
Исследователь, который утверждает, что только что отменил подписку Max за 200 долларов в месяц, сообщил, что знает около семи человек, которые недавно отказались от Claude из-за возросшего числа отказов при работе с задачами по безопасности и уязвимостям.
Один из таких людей, на которого нам указали, подтвердил это мнение. «Да, в последнее время кажется, что американские компании зашли слишком далеко, пытаясь сделать свои услуги „полезными, безвредными и честными“», — сообщили нам. «Я заметил, что Claude не просто отказывается отвечать на вопросы, но и активно избегает тем и пытается увести разговор от определенных тем даже в исследовательском контексте. Исследования в области безопасности особенно затруднены».
Этот человек считает проблему в недостаточной прозрачности со стороны американских коммерческих компаний в сфере ИИ. «Они говорят, что это экзистенциальная угроза, но затем требуют от них не подотчетного контроля?»
Третий исследователь, общавшийся с The Register, сказал: «В настоящее время я использую эту новую штуку под названием MiniMax, и это дистиллированная версия Claude. Неважно, что она китайская. Она дешевая и такая же хорошая, если не лучше, чем лучшие модели Claude на данный момент».
Пока Anthropic готовится к выходу на биржу, по крайней мере, часть общественности уходит в другие места. ®
Всегда имейте в виду, что редакции могут придерживаться предвзятых взглядов в освещении новостей.
Автор – Thomas Claburn