Добавить в корзинуПозвонить
Найти в Дзене
SpaceForYou

Российский ИИ: надеяться, бояться, смириться

30 ноября 2022 года OpenAI выпустила в открытый доступ ChatGPT на базе GPT-3.5. За пять дней сервис собрал миллион пользователей, за два месяца уже сто миллионов. Мир, не заметив этого, разделился на "до" и "после". Писать о российском ИИ в апреле 2026 года задача специфическая. С одной стороны, отрасль вроде есть, модели выпускают, бенчмарки имеются, на конференциях рассказывают про "суверенный ИИ". С другой, открывая диалоговое окно или документацию поле просмотра цифры, возникает стойкое ощущение дежавю: где-то мы это уже видели. Кажется, в тексте про "Союз-5". Потому начнем с главного. В мире к апрелю 2026 года сформировалась большая тройка моделей: OpenAI (GPT-5.4), Anthropic (Claude Opus 4.7), Google (Gemini 3.1 Pro). Это лидеры, которые тратят сотни миллиардов долларов на инфраструктуру. Чуть позади - xAI с Grok и DeepSeek с GLM-5.1 от китайской Zhipu. Эта модель, кстати, полностью обучена на китайских чипах Huawei Ascend 910B. Последнее, к слову, важнее самой модели - это перв

30 ноября 2022 года OpenAI выпустила в открытый доступ ChatGPT на базе GPT-3.5. За пять дней сервис собрал миллион пользователей, за два месяца уже сто миллионов. Мир, не заметив этого, разделился на "до" и "после".

Писать о российском ИИ в апреле 2026 года задача специфическая. С одной стороны, отрасль вроде есть, модели выпускают, бенчмарки имеются, на конференциях рассказывают про "суверенный ИИ". С другой, открывая диалоговое окно или документацию поле просмотра цифры, возникает стойкое ощущение дежавю: где-то мы это уже видели. Кажется, в тексте про "Союз-5".

Потому начнем с главного. В мире к апрелю 2026 года сформировалась большая тройка моделей: OpenAI (GPT-5.4), Anthropic (Claude Opus 4.7), Google (Gemini 3.1 Pro). Это лидеры, которые тратят сотни миллиардов долларов на инфраструктуру.

Чуть позади - xAI с Grok и DeepSeek с GLM-5.1 от китайской Zhipu. Эта модель, кстати, полностью обучена на китайских чипах Huawei Ascend 910B. Последнее, к слову, важнее самой модели - это первое подтверждение того, что frontier-AI возможно обучать без Nvidia.

OpenAI только за 2025-2026 год выпустила GPT-5, 5.1, 5.2, 5.3, 5.3 Instant, 5.3 Codex, 5.4. Claude за полгода прошел путь от Opus 4.5 до 4.7.

Это тот контекст, на фоне которого имеет смысл обсуждать "российский ИИ".

Основных игроков у нас двое - Яндекс с линейкой YandexGPT и Сбер с GigaChat. Есть T-Bank AI Research, есть VK с их экспериментами, есть MTS AI, есть отдельные исследовательские группы, но говорить о сопоставимом масштабе можно только про первую двойку.

Яндекс. Флагман - YandexGPT 5 Pro (февраль 2025), обновление до 5.1 Pro (середина 2025). Модель обучена на 15 трлн токенов (70% русский, 30% английский), контекст 32 тыс. токенов. Здесь самое интересное - архитектура. По собственному признанию разработчиков, YandexGPT 5 Pro был инициализирован весами Qwen-2.5-32B-base от Alibaba, после чего прошел полный цикл дообучения на русскоязычных данных.

-2

Подход разумный и прагматичный - полный претрейн 32B-модели с нуля стоит сотни миллионов долларов, которых у Яндекса нет. В результате на русскоязычных бенчмарках модель действительно показывает конкурентные цифры. По версии 5.1 Pro - обходит GPT-4.1 в 56% случаев на русских запросах.

Важная оговорка: все это сравнение с GPT-4o, моделью уровня весны 2024 года. На момент выхода YandexGPT 5 Pro в феврале 2025 года лидеры рынка уже были на уровне GPT-o1 и Claude 3.7. К апрелю 2026 между русскими бенчмарками Яндекса и лидерами отрасли - примерно 4-5 поколений разницы. Как мы видим, прорыва и рывка тут не случилось.

Со Сбером все интереснее. Флагман - GigaChat Ultra, который вышел в марте этого года. Последняя модель обзавелась долговременной памятью, голосовым режимом, автономным веб-поиском и в целом позиционируется как прямой конкурент ChatGPT и Claude, но по бенчмаркам все еще на уровне GPT-4o.

С Сбером всегда было сложнее понять, что именно "под капотом". В отличие от Яндекса, который честно признал использование Qwen, Сбер свою архитектурную родословную раскрывает неохотно.

Теперь, что интересно. Яндекс и Сбер выбрали единственно возможную в их обстоятельствах стратегию, не пытаясь догнать, а занять нишу, где у лидеров структурно нет мотивации соревноваться. OpenAI, Anthropic и Google оптимизируют свои модели под английский язык, потому что там их рынок. Российский рынок для них - 2-3% от общего, возиться с русской культурной спецификой им не выгодно.

-3

Проблема одна. Ниша сжимается.

Модели следующего поколения - GPT-5.4, Claude Opus 4.7, Gemini 3.1 Pro - уже сейчас работают на русском языке практически без деградации качества.

И здесь возникает правильный вопрос. Три года назад мы писали текст про GPT-3.5 и зубоскалили, что эта игрушка с трудом может написать простенький текст. В 2026 году модели вроде Opus 4.7 и GPT-5.4 уверенно выполняют творческие задачи, ломают уязвимости нулевого дня, проводят военные операции. На базе LLM-моделей строится вся современная разработка. По сути, мы уже вошли в ту фазу, когда ИИ стал конкурентным инструментом, который дает странам, его использующим, радикальное преимущество.

Отечественные модели до этого уровня не доросли, а учитывая ограниченность ресурсов, утечку мозгов и общую риторику запретов и ограничений, вряд ли сумеют выйти в высшую лигу в обозримом будущем.

И вот здесь мы подходим к главному, ради чего этот текст писался. Разговор про "русский ИИ догоняет или не догоняет" относится к разговору про потребительские сервисы. А есть другой, куда менее публичный слой.

ИИ - это ведь не только чат с Алисой. Это системы распознавания целей в военной технике, системы управления беспилотниками, системы обработки данных разведки, системы кибербезопасности и - что критически важно в 2026 году - системы контроля космических аппаратов, ракет и промышленной инфраструктуры. Со всем этим современные LLM-модели либо умеют, либо учатся обращаться.

-4

И бояться есть чего. К концу 2020-х разрыв в ИИ-инфраструктуре станет не количественным, а качественным. Если простым языком - это ситуация, когда передовая модель умеет то, чего не умеет модель прошлого поколения. Такой порог в ML-истории уже проходили (трансформеры против RNN, GPT-3 против GPT-2), и ничего не говорит о том, что его не пройдут снова.

Конечно, можно прыгнуть выше головы, вложить треть бюджета страны в закупку железа, обучение кадров и создание дата-центров. Тратим же мы треть бюджета на другие глобальные события? Другое дело, что вся современная высокотехнологичная продукция производится на западных или китайских чипах, с западным или китайским софтом в прошивках, нередко с компонентами, содержащими модели машинного обучения, созданными в чужих лабораториях.

Это означает буквально следующее. В ситуации серьезного конфликта вполне реален сценарий, при котором иностранная электроника просто не включится. Или включится, но будет работать не так, как от нее ожидается.

Это не паранойя и не теория заговора. Это уже происходит. Современный промышленный софт от Siemens, ABB, Rockwell имеет механизмы дистанционной деактивации, а в Конгрессе США готовятся принять закон, по которому производители GPU-карт будут обязаны включать механизмы деактивации во все изделия.

И тут мы подходим к ключевому вопросу: что делать? Смириться с тем, что вопрос самостоятельного LLM в России сейчас не решается. Нет денег уровня десятков миллиардов долларов, нет доступа к GPU, нет научной школы сопоставимого масштаба, нет частного капитала, готового ждать 10-15 лет, но самое главное - нет воли.

-5

А в один из не самых приятных дней может выясниться, что против нас выступает умный ИИ, и его умная техника принимает решения мгновенно и без оглядки. Или что наша умная техника в критический момент все-таки принимает решения, однако все они не в нашу пользу. Первое - вопрос отставания. Второе - вопрос суверенитета. И неизвестно, что пугает больше.