Современные подходы к искусственному интеллекту (ИИ) вряд ли позволят создать системы, сопоставимые с человеческим интеллектом. К такому выводу пришли 76% из 475 опрошенных экспертов в исследовании Ассоциации по развитию искусственного интеллекта (AAAI). Они заявили, что масштабирование больших языковых моделей (LLM) «маловероятно» или «крайне маловероятно» приведет к достижению искусственного общего интеллекта (AGI).
«Уже после выхода GPT-4 стало очевидно, что рост производительности от масштабирования стал минимальным и чрезмерно дорогим», — заявил Стюарт Рассел, профессор Калифорнийского университета в Беркли.
Почему LLM не приближают нас к AGI
Трансформерные архитектуры, лежащие в основе современных LLM, требуют колоссальных ресурсов. В 2024 году индустрия генеративного ИИ привлекла $56 млрд инвестиций, но даже эти суммы не решают фундаментальных проблем:
- Ограниченность данных: Человеческие данные, необходимые для обучения, могут исчерпаться к 2030 году. Альтернативы — сбор личной информации или использование синтетических данных — ведут к деградации моделей.
- Энергопотребление: Выбросы CO₂ от дата-центров утроились с 2018 года.
- Архитектурные ограничения: Нейросети работают как «усложненные таблицы поиска», не способные к истинному пониманию.
Пример: несмотря на заявления о «сверхчеловеческом» уровне, ИИ для игры в го проигрывает обычным игрокам, если те используют нестандартные стратегии.
Кризис масштабирования
После GPT-4 прогресс замедлился. Китайская компания DeepSeek доказала, что сопоставимую производительность можно достичь с меньшими затратами. Это подрывает аргумент, что AGI — лишь вопрос денег. 79% опрошенных ученых считают, что ожидания от ИИ завышены.
- Плато в benchmark-тестах: Новые версии моделей не показывают качественного скачка.
- Отсутствие GPT-5: OpenAI так и не выпустила обещанную модель.
- Пузырь инвестиций: Многие стартапы в сфере генеративного ИИ обречены на провал.
Альтернативные пути развития
Эксперты видят потенциал в:
- Моделях рассуждений (Reasoning Models): Специализированные системы, тратящие больше вычислительных ресурсов на анализ запросов, демонстрируют более точные результаты.
- Гибридных системах: Комбинация LLM с другими методами машинного обучения.
- Вероятностном программировании: Позволяет создавать более гибкие и объяснимые модели.
«Индустрия делает ставку на высокодоходные приложения генеративного ИИ, но настоящие прорывы требуют 10–20 лет. Большинство стартапов разорятся, но несколько станут сверхуспешными», — отметил Томас Дитеррих, профессор Орегонского университета.
Текущие LLM — важный этап, но не конечная цель. Будущее ИИ лежит за принципиально новыми архитектурами, а не бесконечным масштабированием.