Если смотреть на публичную витрину, 2026-й выглядит как очередной год "внедрения ИИ”: ассистенты, автоматизация, презентации, экономия. Но если смотреть на то, что обсуждают в закрытых комнатах (в корпорациях и госструктурах), 2026-й выглядит иначе: ИИ становится инфраструктурой, а инфраструктура всегда превращается во власть, потому что она решает, кто может действовать быстрее, масштабнее и безнаказаннее.
Что такое “власть” в эпоху ИИ
В каркасе влияния есть хорошая стартовая точка, которое называется "сообщение" — это структурированный сигнал, который должен изменить состояние получателя. И это изменение обычно происходит тремя способами (в голове человека):
- может появиться/исчезнуть содержание,
- усилиться/ослабнуть его интенсивность
- вырасти/упасть устойчивость к изменению.
В 2026 ИИ будет делает одну опасную вещь, а именно удешевлять производство структурированных сигналов и ускорять их доставку. А смысл “рождается”, когда сигнал резонирует с уже существующей моделью мира получателя. Это значит, что управление сигналами (контент, коммуникации, “правдоподобие”, доверие) перестаёт быть PR-темой и становится темой управления рисками, рынками, кадрами и, в конечном счёте, политикой.
ИИ переезжает из “чата” в “исполнителя”
Пока ИИ “подсказывает” — это инструмент. Как только ИИ “делает действия” — это уже почти сотрудник, только без сна, без совести и с непрозрачными мотивами (потому что мотивы задаются системой стимулов вокруг него).
Термин, который вам встретится всё чаще - AI-агент. Проще говоря, агент — это ИИ, который не только пишет текст, но и планирует шаги и выполняет задачи (создаёт заявки, меняет записи в системах, запускает процессы, поднимает тикеты, готовит документы, инициирует операции (в пределах доступов).)
Почему 2026 переломный? Потому что Gartner прогнозирует, что к 2026 до 40% enterprise-приложений будут включать “task-specific AI agents” (против >5% в 2025). А Reuters описывает, как регулятор и банки в Британии готовят пилоты consumer-facing agentic AI на ранний 2026-й и там центральная тема не “удобство”, а скорость, автономность и новые риски.
Кабинетная механика здесь простая, как только агент начинает “трогать” системы, включаются юристы, ИБ, аудит, комплаенс и страх потерь. И тогда ИИ перестаёт быть проектом ИТ, а становится проектом управления.
Вообще, на мой взгляд, проекты связанные с внедрением ИИ должны быть управленческими проектами, а не ИТ-шными. Это связано с тем, что ИТ-специалисты, чаще всего, очень плохо понимают специфику "бизнеса", и как именно бизнес "зарабатывает", влияет и т.д.
Три настоящие валюты власти в 2026: вычисления, энергия, доверие
### 1) Вычисления (compute) — право на ускорение
Верхний слой разговора про compute заключается в том, что “у кого больше GPU, тот впереди”. Нижний слой этой валюты - юридический, т.е. где эти вычисления находятся, в какой юрисдикции, под какими ограничениями, с каким происхождением железа.
Это поэтому think tank-уровень так много пишет про экспорт-контроль и политику полупроводников, то есть они говорят о том, что это не “техно-тема”, а это тема контроля темпа развития.
### 2) Энергия как реальный потолок ИИ (и самый недооценённый)
В 2026 выяснится неприятное, что ИИ — это не только модели, это электричество и сеть.
IEA оценивает, что мировое потребление электроэнергии дата-центрами может вырасти примерно до 945 000 000 МВт к 2030 (г.Москва потребляет 43 000 0000 МВт) и называет ИИ ключевым драйвером роста. А Reuters в январе 2026-го прямо подсвечивает “энергетическое преимущество” Китая как фактор AI-гонки, т.е. электричество и инфраструктура становятся частью конкурентного поля.
Отсюда следует, что у кого есть долгие договоры на энергию и площадки, у того есть право масштабировать ИИ. И именно поэтому Meta в январе 2026 заключает 20-летние соглашения по атомной энергии и параллельно инвестирует в SMR-инициативы, что выглядит не как ESG-история, а как борьба за стабильное энергообеспечение.
### 3) Доверие — новая линия обороны (и нападения)
Когда генерация контента и “правдоподобия” становится дешёвой, доверие превращается в инфраструктуру, которую нужно строить так же, как безопасность.
Это проявляется в двух направлениях:
- стандарты происхождения контента (provenance)
- корпоративные программы против дезинформации и репутационных атак
C2PA (Content Credentials) — это попытка сделать “паспорт медиа”, т.е. технический стандарт, который хранит утверждения о происхождении и подписи, чтобы можно было проверять историю и целостность контента.
А Gartner отдельно прогнозирует рост “TrustOps / disinformation security”. По их оценке, к 2027 50% предприятий будут инвестировать в продукты/сервисы против дезинформации и TrustOps-стратегии (с очень низкой базы).
Почему в 2026 комплаенс станет конкурентным оружием (а не “тормозом”)
Один из тихих механизмов власти — это регуляторный календарь. Не то, что написано в законе, а то, когда это начнут реально спрашивать в контрактах и проверках.
EU AI Act — хороший ориентир, он вступил в силу 1 августа 2024 и будет полностью применим с 2 августа 2026, но отдельные блоки начинают работать раньше (например, запреты и AI-literacy — с 2 февраля 2025; governance и обязательства для GPAI — с 2 августа 2025).
Теперь “кабинетная” часть. Крупные корпорации редко ждут “полной применимости”. Они заранее переносят требования в закупки и договоры, потому что так дешевле управлять цепочкой поставщиков. И вот здесь рождается новая форма рыночной власти, то есть тот, кто быстрее проходит compliance-контур, быстрее продаёт enterprise, быстрее заходит в критические отрасли, быстрее подписывает международные контракты.
Чтобы не звучать как лекция, переведу на более простой язык - в 2026 многие компании будут выбирать подрядчиков и продукты не по “умности модели”, а по ответу на вопрос: “а вы это сможете защитить, объяснить, задокументировать и пережить инцидент?”
Война за “реальность”
Когда синтетика становится массовой, государство делает ровно то, что делает всегда, пытается вернуть контроль через правовые рамки.
В США множество штатов обсуждают и принимают нормы по deepfakes (в том числе вокруг выборов), и это уже не маргинальная тема — National Conference of State Legislatures ведёт отдельные обзоры по deepfake-законодательству.
Параллельно идёт более “земная” линия, борьба с несанкционированными интимными дипфейками. AP описывает закон Take It Down Act (подписан в апреле 2025) и спор вокруг баланса между защитой жертв и рисками чрезмерного удаления контента.
Это важная связка для прогноза, 2026 будет годом, когда “контент-риски” окончательно станут “бизнес-рисками”. Не потому что “все злые”, а потому что стоимость репутационного инцидента стала сравнима со стоимостью технологического сбоя.
Что реально происходит в кабинетах корпораций
Если упростить до почти циничной схемы, большая компания в 2026 решает пять вопросов — именно в таком порядке:
Первое. Что мы делегируем машине, а что оставляем человеку? Потому что делегирование — это не про удобство, это про ответственность. И как только агент может “нажать кнопку” в системе, появляется страх не “ошибки ИИ”, а ошибки управления правами.
Второе. Кто отвечает за ущерб? На этом месте появляются комитеты, которые выглядят скучно, но управляют судьбой продукта: AI governance, модельный риск, владельцы данных, владельцы процесса. Никакой романтики — просто взрослая бухгалтерия ответственности.
Третье. Где мы берём мощность и энергию? После IEA-оценок и серии энергосделок Big Tech этот вопрос перестаёт быть теорией. “Права на вычисления” покупаются через долгие контракты на энергию и площадки.
Четвёртое. Как мы докажем, что нас можно допустить к рынку? Это про EU AI Act-подобные рамки и про перенос требований в контракты.
Пятое. Что мы будем делать, когда нас атакуют синтетикой? И тут возникает “TrustOps-мышление”: не “как красиво сказать”, а “как быстро доказать, что это не мы / что это подделка / что решение принято корректно”.
## Какие сигналы читать в 2026, чтобы понимать, куда всё реально идёт
Если вы хотите “радар”, то в 2026-м я бы смотрел не на новости про очередную модель, а на новости про право на масштабирование.
Когда вы видите, что крупная техкомпания подписывает долгие энергосоглашения (особенно атом/SMR), это сигнал: ИИ переехал в слой инфраструктуры, и там начинается игра “кто успеет подключиться к сети”.
Когда вы видите, что регуляторы и банки делают пилоты агентных решений “для клиентов”, это сигнал: агенты выходят из лаборатории в мир, где ошибка стоит денег и лицензий.
Когда вы видите, что обсуждают provenance/Content Credentials, а параллельно растёт законодательство по deepfakes, это сигнал: рынок признаёт, что “реальность” стала атакуемой поверхностью.
Когда вы видите, что компании начинают говорить о “AI risk framework” и “AI security platforms”, это сигнал: ИИ-риски нормализуются как часть ИБ и аудита.
Что делать бизнесу в 2026 (и это можно объяснить простыми словами)
Первое — перестать относиться к ИИ как к “проекту внедрения”. В 2026 ИИ — это скорее “электрификация процессов”. Вы либо строите контуры, либо у вас остаются разрозненные пилоты и презентации.
Второе — зафиксировать, где именно ИИ будет делать действия. Не “помогать писать”, а “создавать заявку”, “закрывать тикет”, “сверять договор”, “обновлять CRM”. Чем ближе ИИ к действиям — тем нужнее рамка контроля.
Третье — сделать минимальную управленческую обвязку. Самый человеческий способ объяснить NIST AI RMF: вы сначала задаёте правила и ответственность (GOVERN), затем описываете контекст и сценарии применения (MAP), потом измеряете риски и качество (MEASURE), и только потом управляете и исправляете (MANAGE).
Четвёртое — включить “энергетический реализм”: даже если вы не строите дата-центры, вы зависите от них через облако. Смотрите на сроки, ограничения, цену — потому что это будет ограничивать скорость масштабирования.
Пятое — заранее готовить “контур доверия”: provenance для важных медиа, процедуры реагирования на синтетические атаки, юридические и коммуникационные протоколы. Это будет так же стандартно, как план реагирования на утечку данных.
Горизонт 2030–2035: три сценария, к которым стоит мысленно готовиться
Первый сценарий — “мир крепостей”: compute и цепочки поставок фрагментируются, и компаниям приходится жить в нескольких технологических контурах под разные юрисдикции. Think tank-анализ по экспорт-контролям показывает, насколько это уже стало устойчивой политикой.
Второй сценарий — “энергетические империи”: конкурентоспособность определяется тем, кто закрепил энергию и сеть под вычисления. IEA-оценки роста спроса дата-центров к 2030 — базовый маркер, что этот сценарий не фантазия.
Третий сценарий — “экономика доказуемости”: доверие становится продаваемым продуктом. Provenance-стандарты вроде C2PA и рост TrustOps-повестки у аналитиков — ранние признаки.