Добавить в корзинуПозвонить
Найти в Дзене

🤖🔒 Продаешь бизнесу AI-агента для анализа документов? Жди беды

Первый вопрос от любого адекватного безопасника пойдет не про точность модели, а в лоб: "Куда утекут наши данные?". Раньше мы выбирали один из трех стульев. Все - с гвоздями. 1️⃣ 1. Чистый энтерпрайз-клауд (OpenAI, Anthropic) Подключаем API, заливаем терабайты договоров. Быстро, удобно, но вся схема висит на честном слове и User Agreement. Юристам крупных корпораций таких гарантий мало. 2️⃣ 2. Аренда GPU-контейнеров (Vast.ai, RunPod, Replicate) Снимаем докер с доступом к видеокарте. Вроде бы контролируем среду, но железо-то чужое. Владелец сервера (хост) при желании делает дамп памяти и читает ваши секреты как утреннюю газету. 3️⃣ 3. On-premise (Свой сервер в кладовке) Полная приватность, но ловите весь пакет удовольствий: настройка, охлаждение, нулевая возможность масштабировать систему по щелчку и дикие счета за свет. Бизнес хочет другое: масштаб облака плюс гарантии локального железа. Сейчас всплыл четвертый вариант - Confidential Computing на чужих мощностях. Идея простая: го

🤖🔒 Продаешь бизнесу AI-агента для анализа документов? Жди беды. Первый вопрос от любого адекватного безопасника пойдет не про точность модели, а в лоб: "Куда утекут наши данные?".

Раньше мы выбирали один из трех стульев. Все - с гвоздями.

1️⃣ 1. Чистый энтерпрайз-клауд (OpenAI, Anthropic)

Подключаем API, заливаем терабайты договоров. Быстро, удобно, но вся схема висит на честном слове и User Agreement. Юристам крупных корпораций таких гарантий мало.

2️⃣ 2. Аренда GPU-контейнеров (Vast.ai, RunPod, Replicate)

Снимаем докер с доступом к видеокарте. Вроде бы контролируем среду, но железо-то чужое. Владелец сервера (хост) при желании делает дамп памяти и читает ваши секреты как утреннюю газету.

3️⃣ 3. On-premise (Свой сервер в кладовке)

Полная приватность, но ловите весь пакет удовольствий: настройка, охлаждение, нулевая возможность масштабировать систему по щелчку и дикие счета за свет.

Бизнес хочет другое: масштаб облака плюс гарантии локального железа.

Сейчас всплыл четвертый вариант - Confidential Computing на чужих мощностях. Идея простая: гонять инференс LLM на стороннем железе, но владельцу не доверять.

На слуху две реализации: Gonka AI и Cocoon. От обоих проектов веет крипто-хайпом времен ICO (маркетинг там специфический), но под капотом урчит рабочая технология - Intel TDX (Trust Domain Extensions).

Как это устроено архитектурно:

Мы запускаем виртуальные машины (VM) с аппаратным шифрованием памяти. Ключи лежат внутри процессора. Даже сисадмин дата-центра или провайдер облака физически не могут заглянуть внутрь VM - они видят лишь белый шум.

Киллер-фича здесь - Attestation.

Перед отправкой данных или весов модели в облако клиент криптографически проверяет состояние удаленной машины. "Ты точно та среда, за которую я тебя принимаю? Твой код чист?". Если хэши совпали - шлюз открыт.

Тут встает вопрос: почему в условный Cocoon нельзя сдать свою домашнюю RTX 5080 и заработать?

Потому что консьюмерское железо - дырявое.

Для настоящего Confidential Computing мы должны защищать не только CPU, но и канал до видеокарты. Десктопные карты (RTX 3090/4090/5080) не знают инструкций для защищенных вычислений. Хост полностью контролирует их память. То есть: я арендую у вас 5080, гружу данные, а вы спокойно читаете их из VRAM. Вся схема приватности летит в тартарары.

Поэтому тот же Cocoon требует NVIDIA H100 или аналоги. Инженеры создавали эти серверные GPU для "мультиаренды", они умеют работать в связке с Intel TDX. Данные лежат в зашифрованном контуре.

Сухой остаток:

Intel TDX и AMD SEV - та самая "золотая середина" для B2B. Мы получаем гибкость облака, но модель угроз почти как у собственного сервера.

Вспомнили Render Network или Aethir? Это другое. Парни решали задачу распределенного рендеринга 3D, где утечка текстуры - не проблема. В работе с LLM и корпоративными данными старые децентрализованные сети архитектурно не подходят. Производители не зашили безопасность на уровень кремния.