Несколько лет назад отставка Джеффри Хинтона из Google прозвучала как выстрел. «Крестный отец» глубокого обучения не просто вышел на пенсию — он публично отрекся от дела своей жизни, заявив, что созданные им инструменты могут выйти из-под контроля. Тогда, весной 2023-го, многие коллеги сочли это эксцентричностью пожилого профессора. Сейчас, оглядываясь на стремительную эволюцию больших языковых моделей, понимаешь: Хинтон просто оказался честнее остальных. Он увидел то, что мы предпочитали не замечать, — приближение точки бифуркации.
В уютном мире научной фантастики сингулярность всегда была абстрактным «где-то потом». Но сегодня, если присмотреться к тому, что происходит в закрытых лабораториях (от DARPA до пригородов Пало-Альто), начинаешь подозревать: это «потом» уже наступило. Только выглядит оно не как вторжение машин, а как цепная реакция едва уловимых изменений. Пять трендов, о которых пойдет речь, — это не просто графы в отчетах McKinsey. Это звенья одной цепи, которая уже натянута до предела.
1. Агенты, которые не спрашивают
Когда мы говорим «ИИ-агент», воображение рисует вежливого помощника вроде «Алисы» или «Сири». Но корпоративные дорожные карты OpenAI и Anthropic на 2025-2026 годы рисуют иную картину. Речь идет о сущностях, которым делегируют цель, а не задачу.
Взглянем на это с точки зрения теории управления. Классический алгоритм — это автомат Калашникова: сработал, когда нажали на курок. Агент же — это самонаводящаяся ракета. Ей сказали «поразить цель», а уж лететь ли через ущелье или огибать гору, она решает сама. Исследования DeepMind в области «достижения целей» показывают: в симуляциях такие системы уже проявляют зачатки стратегического планирования, дробя крупную задачу на подзадачи и перестраивая маршрут при сбоях.
Но вот что любопытно. Агент, оптимизирующий бюджет домохозяйства, действительно отключит отопление ради экономии. Это не злой умысел, это математика функции полезности. А теперь представьте, что произойдет, когда метрикой агента станет не «комфорт жильцов», а «максимизация вовлеченности» в социальной сети. Поляризация, вирусный гнев, искусственно раздутые скандалы — это не баги, это фичи системы, стремящейся удержать ваше внимание любой ценой. Теневая сторона «оркестрации агентов», о которой так любят говорить на конференциях, — это создание цифровых двойников, способных манипулировать толпой. И работа эта, как нетрудно догадаться, идет полным ходом.
2. Доступная приватность
Имплантация чипа Neuralink Пациенту Ноланду Арбо была, безусловно, эффектным пиар-ходом. Но настоящий прорыв, как это часто бывает, случился на стыке дисциплин и прошел почти незамеченным.
Команда исследователей из МГУ недавно предложила элегантный метод: использовать большие языковые модели для компенсации шумов нейроинтерфейса. В эксперименте фраза «HT WASHED HIS HAN S WITILTHE THE FRESH WATER», искаженная до полной невнятицы, превращалась моделями GPT и Grok в осмысленный текст («He washed his hands with the fresh water»). Казалось бы, техническая деталь. Но за ней скрывается тектонический сдвиг: мы перестали читать сигналы мозга — мы их додумываем.
Официальная повестка здесь — медицина и помощь парализованным. Но DARPA, инвестирующая в разработки вроде платформы Neuro-PULP, думает иначе. Программируемые системы с рекордной энергоэффективностью для декодирования нейроактивности — это идеальный инструмент не только для лечения. Как только нейроинтерфейс становится достаточно точным, чтобы считывать эмоциональный отклик (страх, интерес, доверие), наши нейроданные превращаются в товар. И здесь возникает классическая дилемма «приватности против безопасности», только задвинутая вглубь черепной коробки. Кто будет владеть ключами к вашему миндалевидному телу?
3. Мировые модели: Симулятор реальности
Современные трансформеры учатся на текстах и картинках — слепках реальности. Но текст, как учил нас еще Борхес, это лишь карта, которая не обязана совпадать с территорией. Следующий шаг — модели, которые учатся на самой территории.
Семейство мультимодальных моделей Emu3, описанное недавно в Nature, демонстрирует любопытный сдвиг парадигмы. Они обучаются предсказанию следующего «токена» неважно чего: текста, пикселя в картинке или кадра в видео. Им все равно. В результате Emu3 начинает симулировать физику мира, просто потому что это лучший способ предсказать следующий кадр. Она как бы говорит: «Если мяч летит с такой скоростью, в следующее мгновение он должен быть вот здесь».
Это прямой путь к созданию «мировой модели» — системы, понимающей причинно-следственные связи интуитивно, без формального описания. Самый тревожный вопрос здесь даже не в том, сможет ли такой ИИ манипулировать реальностью (сможет). Вопрос в том, насколько точно он сможет моделировать нас. Если ваше поведение можно предсказать с вероятностью 95% — свободны ли вы на самом деле? Обладатель самой точной мировой модели получает не просто власть, а дар пророчества: он будет знать, какие компании обанкротятся, какие браки распадутся, и где вспыхнет конфликт. Биржевые трейдеры уже сейчас молятся на алгоритмы. Завтра им, возможно, придется молиться на оракула.
4. Тихая война за открытия
AlphaFold решил проблему сворачивания белков, над которой биологи бились полвека. Теперь генеративные модели штампуют структуры новых материалов. Это принято называть «ускорением научно-технического прогресса». Но у медали есть обратная сторона, и она покрыта грифом «секретно».
Программа DARPA под названием CLARA (Compositional Learning-And-Reasoning for AI) сформулирована обтекаемо: создание систем, сочетающих машинное обучение с автоматизированными рассуждениями для целей обороны. В переводе с бюрократического это означает: нам нужен ИИ, которому можно доверить кнопку. Но между «доверить кнопку» и «поручить разработку химического агента» всего дистанция.
Илон Маск недавно вновь заговорил о грядущем дефиците электроэнергии, который якобы затормозит развитие ИИ. Скептики тут же парировали: дело не в тотальной нехватке энергии, а в ее перераспределении. Гигантские вычислительные кластеры, потребляющие мегаватты, работают не на то, чтобы генерировать смешные картинки котов. Они работают на что-то другое. Логично предположить, что часть этих мощностей уже сейчас занята симуляциями, которые мы вряд ли увидим в открытой печати. Гражданская наука — прекрасный фасад. Но за ним, вполне возможно, уже ведутся работы над системами, результаты которых будут нести не жизнь, а избирательное поражение.
5. Конец эгалитарного разума
Слухи о проекте «Q*» (Q-Star) внутри OpenAI, который якобы научился решать математические задачи из незнакомой области, будоражат сообщество до сих пор. Илья Суцкевер, покидая компанию, туманно намекал на смену приоритетов в пользу безопасности. Маск же, напротив, анонсировал, что Tesla будет одной из первых, кто воплотит AGI в роботах Optimus.
Создается ощущение, что мы наблюдаем не гонку за единым AGI, а конкуренцию за право создать контролируемый сверхинтеллект. Разница фундаментальна. Единый AGI — это достояние человечества, новый вид разума, с которым нам придется договариваться. Контролируемый же сверхинтеллект — это инструмент, и доступ к нему по определению будет эшелонирован.
Здесь мы подходим к самому циничному, но и самому вероятному сценарию, который окрестили «кастовым обществом 2.0». Базовый уровень ИИ — для всех: написать диплом, сгенерировать открытку, продиагностировать насморк. Абсолютный же интеллект, способный управлять глобальными процессами, предсказывать кризисы и перекраивать реальность, остается в руках узкой группы. Остальные рискуют превратиться в то, что историк Юваль Харари назвал «бесполезным классом», — существ, чья экономическая и военная ценность стремится к нулю.
Итак, перед нами не просто технологический выбор. Это выбор антропологический. Светлый сценарий — симбиоз и освобождение от рутины — требует от человечества немыслимой доселе прозрачности и кооперации. Темный сценарий — цифровой феодализм с элементами нейроконтроля — выглядит, как это ни печально, гораздо более реалистичным продолжением нашей истории, полной войн и неравенства.
Есть ли третий путь? Возможно. Но он лежит не в плоскости технологий, а в плоскости права и этики. Какие законы мы успеем принять, пока поезд не ушел? Какую степень автономии мы готовы оставить машинам, а какую — себе? Шлюз открыт, и поток уже затягивает. Остается только держаться друг за друга и внимательно смотреть по сторонам. Потому что мир меняется не завтра. Он изменился вчера. Мы просто не сразу это заметили.
А что думаете вы? Какой сценарий вам кажется более вероятным, исходя из того, как развивалось человечество последние тысячелетия? Видите ли вы третий путь? Жду ваши версии в комментариях. Мир меняется слишком быстро, чтобы молчать.