Добавить в корзинуПозвонить
Найти в Дзене
Занимательная физика

Сверхразум к 2029: Почему Альтман обещает AGI при Трампе и стоит ли ему верить?

В технологическом мире прогремело заявление, способное перевернуть наше представление о будущем искусственного интеллекта. Глава OpenAI Сэм Альтман объявил, что его компания не просто близка к созданию искусственного общего интеллекта (AGI) – она точно знает, как это сделать. И срок реализации этого амбициозного плана? До конца следующего президентского срока в США, то есть до января 2029 года. В мире технологий громкие заявления звучат практически каждый день. Но когда речь идет о создании искусственного общего интеллекта, способного сравниться с человеческим разумом по широте возможностей, каждое слово требует тщательного анализа. Особенно если это слово произносит человек, под руководством которого была создана самая продвинутая ИИ-система в мире. 6 января 2024 года Альтман опубликовал пост, который взорвал информационное пространство. "Теперь мы уверены, что знаем, как построить AGI в том виде, в каком мы традиционно его понимали", - написал он. В любой другой момент истории такое
Оглавление

В технологическом мире прогремело заявление, способное перевернуть наше представление о будущем искусственного интеллекта. Глава OpenAI Сэм Альтман объявил, что его компания не просто близка к созданию искусственного общего интеллекта (AGI) – она точно знает, как это сделать. И срок реализации этого амбициозного плана? До конца следующего президентского срока в США, то есть до января 2029 года.

Великие обещания требуют великих доказательств

В мире технологий громкие заявления звучат практически каждый день. Но когда речь идет о создании искусственного общего интеллекта, способного сравниться с человеческим разумом по широте возможностей, каждое слово требует тщательного анализа. Особенно если это слово произносит человек, под руководством которого была создана самая продвинутая ИИ-система в мире.

6 января 2024 года Альтман опубликовал пост, который взорвал информационное пространство. "Теперь мы уверены, что знаем, как построить AGI в том виде, в каком мы традиционно его понимали", - написал он. В любой другой момент истории такое заявление восприняли бы как очередную маркетинговую уловку. Но контекст имеет значение: за последний год мы стали свидетелями серии технологических прорывов, которые заставляют отнестись к словам Альтмана со всей серьезностью.

Разговор об AGI неизбежно упирается в определения. Что именно мы подразумеваем под искусственным общим интеллектом? Для OpenAI это система, способная решать любые интеллектуальные задачи на уровне квалифицированного специалиста. Не просто отвечать на вопросы или генерировать тексты, а действительно решать проблемы, требующие глубокого понимания и способности к абстрактному мышлению.

От научной фантастики к научному методу

-2

За последние пять лет развитие искусственного интеллекта совершило гигантский скачок. От простых языковых моделей, способных лишь предсказывать следующее слово в предложении, мы пришли к системам, которые могут вести осмысленный диалог, писать программный код и даже решать сложные математические задачи. Но самое важное – мы начали понимать фундаментальные законы, управляющие развитием ИИ.

Именно эти законы лежат в основе уверенности Альтмана. И если мы хотим оценить реалистичность его обещаний, нам необходимо разобраться в трех ключевых принципах, на которых строится современный искусственный интеллект: законе Мура, законе масштабирования обучения и законе масштабирования предсказания.

Закон Мура: фундамент цифровой революции

-3

В основе всей цифровой революции лежит один удивительный эмпирический закон, сформулированный Гордоном Муром еще в 1965 году. Согласно этому закону, количество транзисторов на микросхеме удваивается примерно каждые два года, а стоимость вычислений при этом падает. Звучит сухо и технично, но последствия этого закона поистине революционны.

То, что раньше требовало целого вычислительного центра, сегодня умещается в кармане. Смартфон средней ценовой категории превосходит по мощности суперкомпьютеры конца прошлого века. Но самое интересное – этот закон продолжает действовать и в наши дни, хотя и с некоторыми оговорками.

От персональных компьютеров к искусственному интеллекту

Для развития искусственного интеллекта закон Мура имеет особое значение. Возьмем, к примеру, модель GPT-2, выпущенную OpenAI в 2019 году. На момент выхода для её обучения требовались значительные вычислительные мощности, доступные только крупным компаниям. Сегодня аналогичную модель может воспроизвести любой технический энтузиаст с бюджетом в несколько десятков долларов.

Но самое интересное происходит в сфере специализированных вычислений для ИИ. Появление графических процессоров NVIDIA, а затем и специальных чипов для машинного обучения, таких как TPU от Google или нейронные процессоры Apple, привело к настоящей революции в доступности вычислительных мощностей для ИИ.

Гонка за вычислительной мощностью

-4

Закон Мура создал условия для настоящей технологической гонки. Компании вкладывают миллиарды долларов в создание специализированных вычислительных кластеров для обучения ИИ. OpenAI и Microsoft строят один из крупнейших суперкомпьютеров в мире, Google инвестирует в новые TPU, а Илон Маск создает гигантский кластер для своей компании xAI.

Но здесь кроется интересный парадокс: несмотря на то, что вычисления становятся дешевле, общие затраты на разработку ИИ растут. Почему? Потому что мы научились эффективно использовать эти возрастающие мощности для создания всё более сложных моделей. И тут в игру вступает второй фундаментальный закон – закон масштабирования обучения.

Новая эра вычислений

Мы находимся на пороге новой эры в истории вычислительной техники. Квантовые компьютеры, фотонные процессоры, нейроморфные чипы – все эти технологии обещают радикально изменить наши представления о пределах вычислительной мощности. Но даже без этих футуристических технологий, существующая тенденция к удешевлению вычислений создает прочный фундамент для развития искусственного интеллекта.

Закон Мура – это не просто технический принцип. Это своего рода пропуск в будущее, где вычислительные мощности перестают быть ограничивающим фактором для развития искусственного интеллекта. И именно понимание этого закона в сочетании с другими принципами развития ИИ дает Сэму Альтману основания для его смелых прогнозов.

Закон масштабирования обучения: математика интеллекта

Когда в 2020 году исследователи OpenAI опубликовали статью о законах масштабирования языковых моделей, мало кто осознавал её революционное значение. Эта работа фактически предоставила карту пути к созданию искусственного общего интеллекта. И что самое удивительное – карта оказалась на удивление точной.

-5

Три кита искусственного интеллекта

Закон масштабирования обучения утверждает, что производительность модели машинного обучения определяется тремя ключевыми факторами: количеством параметров модели (N), объемом обучающих данных (D) и количеством вычислений, использованных для обучения (C). Звучит просто, но дьявол кроется в деталях.

Самое удивительное в этом законе – его математическая точность. На логарифмической шкале зависимость выглядит как идеальная прямая линия. Для ученых такая точность – настоящий подарок. Это означает, что мы можем точно предсказать, насколько улучшится модель при увеличении любого из этих параметров.

Почему это работает?

-6

Ключ к пониманию этого закона лежит в архитектуре современных нейронных сетей, особенно в так называемых трансформерах. Эти модели обладают удивительной способностью к масштабированию – чем больше параметров и данных вы им даете, тем лучше они работают, причем без каких-либо признаков насыщения.

Это радикально отличается от традиционных методов машинного обучения, где увеличение размера модели часто приводило к переобучению. В случае с трансформерами, похоже, действует принцип "чем больше, тем лучше" – и это не случайное наблюдение, а математически подтвержденный факт.

Искусство масштабирования

OpenAI первой осознала потенциал этого закона и сделала на него серьезную ставку. Когда другие компании экспериментировали с различными архитектурами и алгоритмами, команда Альтмана просто увеличивала масштаб существующих решений. Результат? Последовательность впечатляющих прорывов: GPT-3, ChatGPT, GPT-4.

Сам Альтман называет понимание закона масштабирования "самым важным открытием" в его жизни. И это не преувеличение – именно этот закон позволяет с высокой точностью прогнозировать, каких результатов можно достичь при определенных вложениях в вычислительные мощности и данные.

Проблема данных: конец эпохи изобилия

Однако в этой почти идеальной картине есть существенная проблема. В то время как вычислительные мощности продолжают расти согласно закону Мура, с данными ситуация обстоит сложнее. Мы приближаемся к тому, что можно назвать "пиком данных" – моменту, когда качественные данные для обучения моделей начнут заканчиваться.

-7

Масштабирование предсказаний: новый фронтир ИИ

В начале 2024 года OpenAI преподнесла миру сюрприз, который изменил правила игры в сфере искусственного интеллекта. Компания представила модель O1, а затем, всего через три месяца, O3. Эти модели продемонстрировали принципиально новый подход к решению сложных задач – масштабирование предсказаний.

-8

От быстрых ответов к глубоким размышлениям

До появления O1 все языковые модели работали по принципу "быстрого ответа" – они должны были моментально генерировать результат. Но разработчики OpenAI задались вопросом: а что если дать модели время подумать, как это делает человек при решении сложных задач?

Результаты превзошли все ожидания. O3 достигла показателя в 88% правильных решений на тесте ARC-AGI – наборе визуальных головоломок, специально разработанных для проверки способности к абстрактному мышлению. Для сравнения: средний человек решает 75% таких задач, а предыдущие версии GPT едва справлялись с 5%.

Цена размышлений

Однако за этот прогресс пришлось заплатить – в буквальном смысле. Решение одной задачи из теста ARC-AGI моделью O3 обходится примерно в 1000 долларов. Это связано с тем, что модель не просто выдает ответ, а проводит серию сложных рассуждений, перебирает различные варианты, проверяет гипотезы.

Но даже такая высокая стоимость не отменяет революционности подхода. Впервые в истории искусственный интеллект продемонстрировал способность к настоящим рассуждениям, а не просто к воспроизведению выученных паттернов.

Гонка технологических гигантов

Успехи OpenAI не остались незамеченными. Google инвестирует миллиарды в новые вычислительные кластеры для своих моделей. Amazon вложил 8 миллиардов долларов в Anthropic. Илон Маск создал крупнейший в мире кластер для обучения Grok3.

Эта конкуренция – именно то, что нужно для ускорения прогресса. Каждая компания привносит свои уникальные подходы и ресурсы. Google обладает огромными вычислительными мощностями и данными. Amazon может предложить беспрецедентную инфраструктуру. Anthropic развивает новые методы безопасного обучения ИИ.

Путь к 2029 году

-9

Заявление Альтмана о создании AGI к 2029 году основано на трех китах: законе Мура, законе масштабирования обучения и новом законе масштабирования предсказаний. Каждый из этих законов подкреплен реальными достижениями и математически точными наблюдениями.

Что дальше?

Развитие искусственного интеллекта не остановится на достигнутом. Уже сейчас мы видим новые направления исследований: мультимодальные модели, способные работать одновременно с текстом, изображениями и звуком; системы, способные к автономному обучению; новые архитектуры нейронных сетей.

Заключение: от обещаний к реальности

История технологий учит нас, что самые смелые прогнозы часто оказываются одновременно и слишком оптимистичными в краткосрочной перспективе, и слишком консервативными в долгосрочной. Обещание Альтмана может не исполниться точно к 2029 году, но направление движения выбрано верно.

Мы находимся на пороге новой эры в развитии искусственного интеллекта. Эры, где машины не просто обрабатывают информацию, а по-настоящему размышляют над решением задач. И хотя мы пока не можем точно сказать, как будет выглядеть настоящий AGI, мы определенно движемся к чему-то, что радикально изменит наше понимание возможностей искусственного интеллекта.