Telegram запустил децентрализованную сеть Cocoon — и это история не только про красивые пересказы постов в каналах. Это про то, как бизнесу больше не обязательно выбирать между «дешёвым, но чужим облаком» и «дорогим, но своим кластером GPU». В статье разбираю, что вообще происходит с децентрализованными ИИ-сетями и при чём тут HRM.
Cocoon: не только «пересказ постов»
Telegram представил Cocoon как децентрализованную сеть вычислений и рынок GPU-ресурсов: разработчики платят токенами TON, владельцы железа получают вознаграждение. Ключевая идея — любой пользователь и разработчик могут получить доступ к мощным моделям, не строя свой мини дата-центр.
Уникальный бонус Cocoon — сразу «родной» якорный клиент: сам Telegram с его ИИ-функциями, плюс экосистема мини-приложений и ботов, которым обещают приватные ИИ-сервисы прямо в чате.
Что уже умеет Cocoon на практике
Первый массовый сценарий — ИИ-пересказы длинных постов и статей. Длинный текст уходит в сеть (заявлено, что в зашифрованном виде), открытая модель делает краткое резюме, а Telegram показывает его прямо в интерфейсе канала или в Instant View.
Пересказы работают не только для нативных постов в каналах, но и для длинных публикаций, открытых в режиме быстрого просмотра: сверху статьи появляется сжатая версия текста, которую можно «щёлкнуть» и не прокручивать полотно до бесконечности.
Где здесь вообще HRM
Большинство топовых HRM-систем на рынке предлагают встроенные ИИ-модули «как есть»: базовый набор сценариев, одна-две модели, работа строго по логике вендора. Малому и среднему бизнесу это удобно, но тесно:
- набор задач фиксирован;
- данные часто уезжают во внешнее облако;
- кастомизация под свои процессы стоит как ещё одна HRM.
Децентрализованная сеть вроде Cocoon теоретически даёт третий путь: не строить свою ИИ-ферму, но и не сдавать все HR-данные на вечное хранение какомуто одному бигтеху.
Как это может выглядеть для найма
Сейчас типичный «ИИ в рекрутинге» — это:
- генерация описания вакансии по диктовке рекрутера;
- фильтрация откликов по шаблону требований;
- ранжирование кандидатов по формальным полям.
Форма резюме, стиль текста, живое сопроводительное письмо, ссылки на портфолио — всё это часто остаётся за кадром. Алгоритм честно повторяет рекрутера, только быстрее и скучнее.
С Cocoon-подобной архитектурой поверх HRM можно было бы:
- искать кандидатов по естественному языку («backend, умеющий вытаскивать монолит из болота микросервисов»);
- выцеплять людей через открытые каналы и соцсети, включая Telegram;
- оценивать софт-скиллы по постам и публичной активности (да, такие решения уже появляются);
- вести первичную коммуникацию не «как бездушный бот», а в фирменном стиле компании.
И да: это уже другие модели и другие данные, чем простая сортировка откликов по ключевым словам.
Почему не каждый МСБ потянет «кастомный ИИ»
Большинство компаний не готовы тратить миллионы на кастомный ИИ конвейер только ради HR-процессов. Слишком хлопотно, слишком дорого, непонятен ROI.
Децентрализованные сети снимают часть технических ограничений (GPU, масштабирование, инфраструктура), но оставляют два главных вопроса:
- где взять адекватные модели;
- на каких данных их запускать, чтобы и умно, и законно.
Внутренняя аналитика и развитие сотрудников
Кому действительно есть что анализировать — так это крупному бизнесу и «долгоживущему» среднему. Там копятся массивы: задачи, KPI, планы развития, опросы, фидбэк.
Модели поверх децентрализованной сети могут:
- собирать текстовые отчёты о рисках выгорания, динамике найма и увольнений, мотивации;
- предлагать персонализированные планы развития, подбор курсов и активности;
- выдавать подсказки менеджерам в LXP/внутреннем портале, не раскрывая всю первичку наружу.
HRM в таком сценарии отдаёт в сеть только нужные признаки (роль, навыки, цели, агрегированные показатели), а получает обратно готовые тексты и рекомендации.
Что это даёт HRM-пользователю: три «выгоды без фанатизма»
1. Гибкость и кастомизация
Можно настраивать поля и типы данных, работать с текстами, коммуникациями, оценками, такими же «жирными» HR-массивами, где действительно нужны большие LLM, а иногда и мультимодальные модели.
Можно выбирать типы моделей под задачу: подбор, NER, классификация, генерация текстов — а не жить с одним «универсальным гением на все случаи».
2. Безопасность и регуляторика
Первичные данные остаются в компании: наружу уходят токены, обезличенные наборы признаков или агрегаты, а не полные личные дела сотрудников.
Всё, что идёт от HRM до узлов сети и обратно, шифруется; можно жестко ограничить состав полей (без паспортов, телефонов, адресов), чтобы не ловить вопросы по 152-ФЗ и трансграничной передаче.
В HRM возвращаются только результаты: скоринг, резюме, рекомендации — без лишних подробностей и с возможностью обезличенного анализа.
3. Экономика без своего кластера
Доступ к тяжёлым моделям — без строительства личного GPU-зоопарка и найма команды MLOps. Без разворачивания инфраструктуры внутри - а это миллионы рублей
HRM или интегратор «арендует» мощности сети по мере реальной загрузки: пик найма — больше потребление, тихий сезон — меньше счетов и меньше пыли в стойках.
Как «децентрализация» выглядит изнутри HRM
С технической точки зрения всё довольно приземлённо:
- внутри HRM появляется сервис уровня «AI-engine», который принимает запросы от модулей (подбор, оценка, адаптация, обучение, увольнение);
- формирует зашифрованные задачи для внешней сети;
- следит за лимитами, стоимостью, кеширует результаты и возвращает только нужные ответы и скоринги.
Снаружи для пользователя это всё равно одна знакомая HRM с парой «умных» кнопок. Внутри — чуть больше криптографии и логирования, чем обычно.
Это реклама Cocoon? Нет. Это повод «шерше ля…»
__________________________________________________________________________________________
Могло показаться, что всё выше — тонкая реклама Cocoon. На самом деле — нет. Взял новостной повод, чтобы поговорить о возможностях архитектуры, которой на российском рынке в чистом виде пока нет.
Прямого российского аналога публичной децентрализованной сети конфиденциальных ИИ-вычислений на GPU частных участников сейчас не наблюдается.
Есть централизованные GPU-облака, маркетплейсы ИИ-продуктов и интеграторы, строящие приватные контуры под заказчика. В большинстве случаев чаще связка «российское GPU-облако / свой кластер + отечественная ИИ-платформа», чем что-то, полностью похожее на Cocoon.
Поэтому — шерше ля разработчиков, интеграторов, консультантов, менеджеров проекта (контакты в профиле). Те, кто первыми научатся нормально «подшивать» децентрализованные ИИ-сети к HRM, будут менять не только маркетинговые статьи конкурентов, но и всю логику рынка.
Мы уже сейчас учитываем необходимость работы ИИ-ассистентов и модулей на российских моделях. Требования к безопасности данных для нас тоже не пустой звук.
Мониторим и учитываем перспективы ограничения работы мессенджеров и возможные требования регулирующих органов. В частности политику в сторону создания доверенного ИИ.
Мы делаем продукт, который будет готов к изменениям раньше, чем они произойдут.