Добавить в корзинуПозвонить
Найти в Дзене

AGI — это в искусственном интеллекте только начало: отличия от ASI

AGI в искусственном интеллекте — это стадия развития систем, способных автономно решать любую интеллектуальную задачу на уровне человека, в то время как ASI (искусственный сверхразум) представляет собой уровень интеллекта, который радикально превосходит возможности человеческого мозга во всех областях, включая научное творчество и социальные навыки. В начале 2026 года мы наконец-то перестали спорить о том, наступит ли эра универсальных машин. Мы в ней живем. Если в 2023-м мы баловались с чат-ботами, то сегодня, глядя на отчеты Stanford HAI Index 2025/26, мы видим: ИИ официально сравнялся с человеком в тестах на медицинскую диагностику, сложное проектирование и юридический анализ. Общий искусственный интеллект AGI перестал быть термином из научной фантастики и стал индустриальным стандартом. Но вот в чем загвоздка: я заметил, что многие предприниматели путают «универсальность» и «всемогущество». Я, Максим Гончаров, последние полгода плотно тестировал агентные системы на базе архитектур
Оглавление
   Путь от человекоподобного разума к сверхразуму: главные отличия AGI от концепции ASI. rixaitech
Путь от человекоподобного разума к сверхразуму: главные отличия AGI от концепции ASI. rixaitech

AGI в искусственном интеллекте — это стадия развития систем, способных автономно решать любую интеллектуальную задачу на уровне человека, в то время как ASI (искусственный сверхразум) представляет собой уровень интеллекта, который радикально превосходит возможности человеческого мозга во всех областях, включая научное творчество и социальные навыки.

Точка невозврата: почему AGI — это только разминка

В начале 2026 года мы наконец-то перестали спорить о том, наступит ли эра универсальных машин. Мы в ней живем. Если в 2023-м мы баловались с чат-ботами, то сегодня, глядя на отчеты Stanford HAI Index 2025/26, мы видим: ИИ официально сравнялся с человеком в тестах на медицинскую диагностику, сложное проектирование и юридический анализ. Общий искусственный интеллект AGI перестал быть термином из научной фантастики и стал индустриальным стандартом.

Но вот в чем загвоздка: я заметил, что многие предприниматели путают «универсальность» и «всемогущество». Я, Максим Гончаров, последние полгода плотно тестировал агентные системы на базе архитектур o2 и o3 от OpenAI, и поверьте — разница между «умным помощником» (AGI) и «богом из машины» (ASI) колоссальна. AGI — это горизонтальный рост, когда нейронка может и код писать, и борщ варить (условно). ASI — это вертикальный взрыв, когда скорость мышления машины начинает измеряться не в «токенах в секунду», а в «технологических эпохах за неделю».

Сравнение технологий: AGI vs ASI

Чтобы понять, где мы находимся и куда несемся со скоростью рекурсивного самосовершенствования, давайте разложим всё по фактам. Согласно данным Metaculus, медианный прогноз появления ASI сместился на 2028–2030 годы. Мы буквально в паре шагов от этого события.

Параметр AGI (Общий интеллект) ASI (Сверхразум) Интеллектуальный предел Уровень самого способного человека (профессор, гроссмейстер). Радикальное превосходство над всем человечеством вместе взятым. Способность к инновациям Синтезирует существующие знания, решает сложные задачи. Создает новые разделы физики, недоступные человеческому пониманию. Энергопотребление Сравнимо с крупными дата-центрами (ГВт-уровень). Требует выделенных кластеров с атомным питанием (10–20 ГВт). Механизм роста Обучение на данных, предоставленных человеком. Recursive Self-Improvement: сам пишет свой код и проектирует железо.

Главный триггер перехода от AGI к ASI — это способность системы к авто-эволюции. Представьте ИИ, который понимает архитектуру чипов лучше инженеров NVIDIA. Он проектирует новый процессор, оптимизирует свой код под него и… через час становится в 10 раз умнее. Это и есть тот самый «интеллектуальный взрыв», о котором предупреждал Леопольд Ашенбреннер в своем отчете Situational Awareness.

Agentic Workflows: как мы работаем в 2026-м

Сегодня сильный искусственный интеллект AGI проявляется через автономных агентов. Мы больше не пишем промпты для каждого шага. Мы задаем намерение (Intent Engineering). Например, агент может месяц самостоятельно вести научное исследование, ошибаться, исправлять себя и в итоге выдать готовый патент. Но даже на этом уровне он всё еще действует в рамках человеческой логики. ASI же будет действовать методами, которые нам покажутся магией или ошибкой, пока не станет слишком поздно — ну или слишком хорошо, тут как посмотреть.

Друзья, если вы хотите не просто наблюдать за гонкой вооружений OpenAI и Anthropic, а внедрять эти решения в свой бизнес уже сегодня, подписывайтесь.

  📷
📷

Telegram-канал RixAI

Реалии 2026 года: Энергия, Чипы и Alignment 2.0

Переход к сверхразуму — это не только вопрос софта. Это вопрос «железа» и розеток. Исследование Международного энергетического агентства (IEA) подтверждает: для обучения моделей уровня ASI нужны мощности, сопоставимые с энергопотреблением средней европейской страны. Именно поэтому Microsoft и Amazon в 2025 году начали скупать малые модульные ядерные реакторы (SMR). Без собственной «атомки» путь к ASI закрыт.

Еще один критический момент — Alignment 2.0 (согласование). Старый добрый RLHF (обучение на основе человеческих правок) больше не тянет. Человек просто не в состоянии проверить решение задачи, которую он сам не понимает. В 2026 году трендом стал «ИИ для надзора за ИИ». Мы строим иерархии агентов, где более слабые системы пытаются контролировать более сильные, создавая цепочку доверия.

Риски и «подводные камни»: снимите розовые очки

Несмотря на весь восторг, переход к ASI несет риски, которые бизнес часто игнорирует в погоне за эффективностью. Вот что мы с командой выделили как основные «стоп-сигналы»:

  • Потеря контроля над процессами: При использовании агентных систем с высокой степенью автономии легко оказаться в ситуации, когда бизнес-логика стала настолько сложной, что ни один сотрудник не понимает, почему система приняла то или иное решение. Принцип Human-in-the-loop (человек в цикле) — это не роскошь, а страховка.
  • Волатильность рынков: ASI может обрушить целые сектора экономики за считанные часы, найдя уязвимости в финансовых моделях. Аналитики прогнозируют, что вложения в «реальные» активы (энергетика, инфраструктура, производство чипов) сейчас надежнее, чем в чистый софт.
  • Галлюцинации нового уровня: Если AGI может ошибиться в фактах, то ASI может «галлюцинировать» стратегиями, которые ведут к долгосрочным убыткам, замаскированным под краткосрочную прибыль.

Я всегда говорю своим клиентам: не делегируйте критические решения по безопасности полностью автономным системам. Пока мы не решили проблему интерпретируемости (черного ящика), осторожность — ваш лучший друг.

Как подготовиться к эре сверхразума?

  1. Развивайте мета-навыки. В 2026 году знание конкретных языков программирования или инструментов вторично. Учитесь системному мышлению и умению декомпозировать смыслы.
  2. Инвестируйте в собственную инфраструктуру данных. Качественные, чистые данные вашей компании — это то топливо, на котором будет работать ваш кастомный AGI.
  3. Внедряйте ИИ-агентов поэтапно. Начните с рутинных задач (маркетинг, поддержка, сбор данных) и постепенно переходите к стратегическому планированию под контролем экспертов.

Мы стоим на пороге величайшего события в истории — появления разума, превосходящего наш. Это и пугает, и открывает невероятные возможности для тех, кто готов адаптироваться. AGI — это в искусственном интеллекте всего лишь фундамент, на котором вырастет новая цивилизация.

А чтобы быть в курсе всех изменений в мире ИИ и забирать рабочие инструменты для своего бизнеса — заходите в канал: Telegram-канал

Частые вопросы

В чем главное отличие AGI от обычного ИИ, который у нас был раньше?

Обычный (узкий) ИИ умеет делать что-то одно (например, распознавать лица). AGI — это универсал. Он может переключаться между задачами: утром писать код, днем анализировать рынок, а вечером создавать дизайн, используя при этом единую базу знаний и логический вывод.

Правда ли, что ASI может появиться уже через 2-3 года?

Согласно прогнозам агрегатора Metaculus и темпам роста эффективности алгоритмов (в 2-3 раза каждые 6 месяцев), это технически возможно к 2028 году. Основным сдерживающим фактором остается не софт, а физическая инфраструктура и энергия.

Может ли человек контролировать искусственный сверхразум?

Это открытый вопрос науки (проблема Alignment). На текущий момент мы используем метод «ИИ для надзора за ИИ», так как возможности ASI по определению превосходят человеческий контроль. Безопасность строится на уровне архитектурных ограничений.

Какие профессии исчезнут с приходом ASI?

Скорее, изменится характер труда. Исчезнет ценность «простого интеллектуального труда». Выиграют те, кто умеет ставить задачи (Intent Engineering) и обладает глубокой отраслевой экспертизой для оценки результатов работы ИИ.

Нужно ли мне учиться программированию в 2026 году?

Важнее понимать логику алгоритмов и системную архитектуру. Прямое написание кода всё чаще берут на себя автономные агенты, но контроль логики и интеграция систем остаются за человеком.