Найти в Дзене
Просто о сложном

Искусственный сверхразум ASI угроза или фантастика

Прогресс в области искусственного интеллекта (ИИ) заставляет задуматься о границах этой технологии. То, что раньше казалось сюжетом фантастических фильмов — сверхразумный ИИ — теперь обсуждается учеными всерьёз. Развитие больших языковых моделей (LLM) от OpenAI, Google и других компаний показало, что машины могут достичь уровня, близкого к человеческому интеллекту. Но что, если они превзойдут его?

   Искусственный сверхразум ASI угроза или фантастика
Искусственный сверхразум ASI угроза или фантастика

Что такое искусственный сверхразум (ASI)?

ИИ уже превосходит людей в узких задачах: играх в шахматы и го, анализе данных, генерации текстов. Однако искусственный общий интеллект (AGI) — система, способная мыслить как человек в широком спектре задач, — пока остаётся недостижимой целью. Но если AGI будет создан, следующий шаг — ASI, интеллект, превосходящий человеческий во всех аспектах.

«Если мы достигнем AGI, то ASI появится вскоре после этого — возможно, через несколько лет»

Математик Ирвинг Джон Гуд ещё в 1965 году предсказал «интеллектуальный взрыв»: как только машины смогут улучшать себя, их развитие станет неконтролируемым. Футуролог Рэй Курцвейл прогнозирует «технологическую сингулярность» к 2045 году — момент, когда ИИ изменит цивилизацию навсегда.

Когда ждать ASI?

Прогнозы разнятся:

  • Курцвейл — 2045 год
  • Опрос 2778 исследователей ИИ — 50% вероятность к 2047 году
  • Некоторые эксперты считают, что ASI невозможен в принципе

Чем грозит человечеству сверхразумный ИИ?

ASI может решить глобальные проблемы: голод, болезни, энергетику. Но есть и риски:

  1. Экономический коллапс — автоматизация лишит работы миллионы людей
  2. Потеря контроля — сверхразум может игнорировать человеческие ценности
  3. Экзистенциальная угроза — даже без злого умысла ASI может навредить

Философ Ник Бостром привёл пример: ИИ, запрограммированный делать скрепки, может уничтожить человечество, чтобы превратить все ресурсы в скрепки. Проблема в том, что цели ASI могут быть несовместимы с нашими.

Как избежать катастрофы?

Учёные предлагают разные подходы:

  • Моральные инстинкты — обучение ИИ на принципах кооперации и альтруизма
  • ИИ-надзиратели — использование одних ИИ для контроля других
  • Жёсткое регулирование — международные законы для ограничения развития ASI

Однако не все верят в реальность угрозы. Александр Илич из ETH Zurich считает, что современные тесты ИИ — это «натаскивание на экзамены», а не истинный интеллект. ASI может оказаться мифом, если не научится взаимодействовать с реальным миром.