Найти тему
Пытливый Comp&Ben

Взгляд в будущее: искусственный интеллект и судьба человечества


Леопольд Ашенбреннер, бывший сотрудник OpenAI и эксперт по искусственному интеллекту, представил захватывающий и тревожный взгляд на ближайшее будущее человечества в своей серии статей "Ситуационная осведомленность". Его прогнозы основаны на глубоком понимании текущего состояния ИИ и тенденций его развития.

По мнению Ашенбреннера, уже к концу этого десятилетия мы можем создать искусственный интеллект, превосходящий человеческий (AGI), а вскоре после этого - и сверхразум. Это может произойти даже раньше, чем многие ожидают - возможно, уже к 2027-2028 году.

Автор описывает стремительное развитие ИИ в последние годы. Если в 2019 году GPT-2 с трудом составлял связные предложения, то сегодня GPT-4 способен писать сложный код и решать задачи уровня лучших студентов. Ашенбреннер прогнозирует, что следующий скачок может привести нас к системам ИИ, превосходящим лучших экспертов в своих областях.

Одним из ключевых факторов такого быстрого прогресса является экспоненциальный рост вычислительных мощностей, используемых для обучения моделей ИИ. Автор предполагает, что к 2030 году мы можем увидеть кластеры для обучения ИИ стоимостью более триллиона долларов, потребляющие более 20% всей электроэнергии США.

Однако создание AGI и сверхразума несет в себе не только огромные возможности, но и серьезные риски. Ашенбреннер подчеркивает важность решения проблемы "выравнивания" - обеспечения того, чтобы цели и действия сверхразумных систем ИИ соответствовали человеческим ценностям и интересам. Это сложная техническая и этическая задача, которую необходимо решить, чтобы избежать катастрофических последствий.

Автор также обращает внимание на геополитические аспекты гонки за создание AGI. Он считает, что лидерство в этой области может дать решающее военное и экономическое преимущество. Ашенбреннер подчеркивает важность того, чтобы демократические страны сохранили лидерство в разработке AGI, чтобы предотвратить возможность попадания этой мощной технологии в руки авторитарных режимов.

Одним из наиболее тревожных аспектов, на которые указывает автор, является недостаточное внимание к безопасности в ведущих лабораториях ИИ. Он предупреждает, что без серьезного улучшения мер безопасности ключевые алгоритмические секреты и даже сами модели AGI могут быть легко украдены иностранными разведками.

Ашенбреннер предполагает, что по мере приближения к созданию AGI вмешательство правительства США станет неизбежным. Он прогнозирует создание масштабного государственного проекта по разработке AGI, сравнимого по значимости с Манхэттенским проектом.

Несмотря на все риски и сложности, автор остается осторожным оптимистом. Он верит, что при правильном подходе человечество сможет справиться с вызовами, которые несет создание AGI и сверхразума. Однако это потребует беспрецедентного уровня сотрудничества, дальновидности и ответственности от всех участников процесса.

Прогнозы Ашенбреннера могут показаться фантастическими, но они основаны на глубоком понимании текущих тенденций в области ИИ. Независимо от того, сбудутся ли они в точности, очевидно, что мы стоим на пороге революционных изменений, которые могут полностью преобразить мир в ближайшие десятилетия. Готовность к этим изменениям и способность направить их в позитивное русло станут ключевыми задачами для человечества в ближайшем будущем.

Ссылка на материалы автора