Что вы думаете?
Шёпот, раздающийся в самых тёмных уголках интернета, теперь распространился в более широкие медиа. Интернет-детективы, разбирая тизеры от OpenAI, считают, что гигант в области ИИ наконец-то создал Искусственный Общий Интеллект (AGI) — то есть ИИ с когнитивными способностями, равными или превосходящими человеческие. Если это правда, последствия будут шокирующими. OpenAI может сделать любую работу устаревшей, массовые увольнения произойдут с ужасающей скоростью, экономика рухнет, а основные фундаментальные столпы общества будут вырваны с корнем. Это не будет концом света, но это будет концом мира, каким мы его знаем. Так правдивы ли эти слухи?
Ну, нет. Абсолютно нет. И думать иначе — значит намеренно игнорировать реальность.
Есть несколько веских причин, почему AGI в настоящее время возможно только в рамках научной фантастики.
Во-первых, имеющаяся у нас технология ИИ физически не способна вычислять или работать таким образом. На самом деле, профессор вычислительной когнитивной науки в Университете Радбауд, Айрис ван Руэй, недавно опубликовала статью, подробно описывающую эту проблему. Она выяснила, что даже если у инженеров ИИ будет неограниченная вычислительная мощность и данные, они никогда не смогут создать AGI. Это связано с тем, что фундаментальные программные структуры, лежащие в основе ИИ, такие как нейронные сети (ужасное и вводящее в заблуждение название) и трансформеры (та самая "T" в "ChatGPT"), — это просто статистические модели, способные воспроизводить базовые закономерности. Независимо от того, насколько мы их масштабируем, они не приобретут магическим образом способность мыслить когнитивно, понимать мир или генерировать новые идеи.
Именно поэтому все серьёзные учёные в области ИИ говорят, что нам нужен совершенно новый подход и инновационные технологии, которые находятся на световые годы впереди от того, что у нас есть сейчас, чтобы создать хоть что-то похожее на функциональный AGI.
И даже если бы это не было так, и мы могли бы создать AGI с помощью нынешних технологий, не было бы никакого смысла действительно его строить.
Видите ли, у ИИ есть так называемый «Фронтир эффективных вычислений». Это красивое название означает, что тренировка ИИ даёт убывающую отдачу. Я уже писал об этом несколько раз, так что если вам нужен более подробный разбор, загляните сюда. Но если кратко: ИИ нужно «обучать» на данных (название, которое просто очеловечивает обработку данных программой), чтобы он «учился» (опять же, очеловеченное название для копирования закономерностей в этих данных). Так что если вы хотите улучшить ИИ, вам нужно обучить его на большем количестве данных, что требует большей вычислительной мощности.
Именно поэтому OpenAI и другие гиганты в области генеративного ИИ тратят сотни миллиардов долларов на создание гигантских дата-центров — это даёт им огромную вычислительную мощность, необходимую для тренировки их ИИ.
Однако связь между количеством тренировочных данных и производительностью не является линейной. Есть эффект убывающей отдачи. Например, если вы удвоите объём данных для маленького ИИ, его производительность может увеличиться на 5%. Но если снова удвоить данные, улучшение может составить уже всего 1% и так далее.
Это не было бы проблемой, если бы обучение ИИ не было настолько дорогим в плане денег, энергии и инфраструктуры. Из-за этого стоимость улучшения ИИ экспоненциально растёт. Мы уже видим, как этот предел срабатывает, поскольку последние модели OpenAI лишь немного превосходят предыдущие, несмотря на значительно большие наборы данных и огромные вложенные средства.
В результате, даже если бы наша текущая технология могла создать AGI (а благодаря таким людям, как профессор Руэй, мы знаем, что это не так), создание такого AGI было бы непомерно дорогим, если не абсолютно невозможным, с учётом доступных человечеству ресурсов.
Наука абсолютно ясна: мы всё ещё находимся на световые годы от разработки AGI.
Поэтому неудивительно, что генеральному директору OpenAI Сэму Альтману пришлось вмешаться и развеять эти слухи об AGI. Он опубликовал пост на платформе Маска (которая превратилась в ужасный мусор), заявив: «Мы не собираемся выпускать AGI в следующем месяце, и мы его не создали». Затем добавил, что фанатам стоит снизить свои ожидания в 100 раз.
Показательно, что мир ИИ одержим достижением этих далёких, гипотетических и фантастических вех, а не устранением проблем нынешнего ИИ. Современный генеративный ИИ уже способен на многое! Но почему он не повышает продуктивность? Дело в том, что он просто недостаточно надёжен, и его должен контролировать обученный специалист, что в итоге обходится не дешевле, чем просто нанять профессионала для выполнения работы (подробнее об этом можно прочитать здесь). Эта проблема настолько широко распространена, что банки и технологические гиганты, вложившие миллиарды долларов в ИИ, теперь глубоко обеспокоены своими инвестициями.
Если мир ИИ хочет, чтобы его воспринимали всерьёз, именно этот вопрос он должен обсуждать, а не погружаться в фантазии об AGI. Но решение реальных проблем не приносит денег в мире ИИ. Всё движется исключительно за счёт хайпа и манипуляций на рынке, чтобы раздуть кажущуюся ценность ИИ-компаний, несмотря на скромные результаты (подробнее об этом можно прочитать здесь).
Так что будьте осторожны, потому что в будущем мы увидим ещё больше преувеличенной болтовни про ИИ, особенно если учитывать, что президент США, его «лучший друг, любитель римских салютов», и их миллиардеры-поклонники уже сколотили свои состояния на подобных схемах и планируют провернуть всё это снова с новой ИИ-афёрой.
Если вы хотите читать больше интересных историй, подпишитесь пожалуйста на наш телеграм канал: https://t.me/deep_cosmos