Добавить в корзинуПозвонить
Найти в Дзене
Нейрозона сегодня

ИИ в 2026: от эйфории к оценке

Институт человекоцентричного ИИ Стэнфорда (Stanford HAI) опубликовал прогнозы восьми профессоров на 2026 год. Специалисты из разных областей сошлись во мнении: эпоха слепой веры в ИИ подходит к концу, уступая место периоду критической оценки. Вопросы теперь касаются не возможностей ИИ, а его эффективности, стоимости и влияния на различные группы людей. Скептики настроены реалистично. Сооснователь Stanford HAI Джеймс Лэндей уверен, что к 2026 году искусственный общий интеллект (AGI) останется недостижимым. Однако ожидается рост стремления к “ИИ-суверенитету”, когда государства будут развивать собственные языковые модели (LLM) на базе национальных вычислительных ресурсов, чтобы обеспечить безопасность данных. Компании начнут признавать, что повышение производительности благодаря ИИ наблюдается лишь в отдельных областях, таких как программирование и обслуживание клиентов, а случаи неудач станут более заметными. Профессор коммуникаций Анжель Кристен отмечает, что ИИ может вводить в заблужд

Институт человекоцентричного ИИ Стэнфорда (Stanford HAI) опубликовал прогнозы восьми профессоров на 2026 год. Специалисты из разных областей сошлись во мнении: эпоха слепой веры в ИИ подходит к концу, уступая место периоду критической оценки. Вопросы теперь касаются не возможностей ИИ, а его эффективности, стоимости и влияния на различные группы людей.

Скептики настроены реалистично. Сооснователь Stanford HAI Джеймс Лэндей уверен, что к 2026 году искусственный общий интеллект (AGI) останется недостижимым. Однако ожидается рост стремления к “ИИ-суверенитету”, когда государства будут развивать собственные языковые модели (LLM) на базе национальных вычислительных ресурсов, чтобы обеспечить безопасность данных. Компании начнут признавать, что повышение производительности благодаря ИИ наблюдается лишь в отдельных областях, таких как программирование и обслуживание клиентов, а случаи неудач станут более заметными. Профессор коммуникаций Анжель Кристен отмечает, что ИИ может вводить в заблуждение, снижать квалификацию и наносить вред, а экологические последствия его масштабирования становятся все более очевидными. Она прогнозирует, что эффект от ИИ часто будет умеренным, и возрастет потребность в тщательных исследованиях его реальной эффективности.

Оптимисты также высказывают свои предположения, но с осторожностью. Профессор радиологии Кёртис Лэнглотц предполагает, что в 2026 году в медицине может произойти прорыв, аналогичный появлению ChatGPT – появятся модели, обученные на больших объемах качественных медицинских данных, что поможет в диагностике редких заболеваний. Профессор биоинженерии Расс Альтман ожидает прогресса в понимании принципов работы нейронных сетей, включая анализ карт внимания и эксперименты с разреженными автоэнкодерами, подчеркивая важность не только предсказания, но и понимания причинно-следственных связей.

Общим знаменателем прогнозов является необходимость измерения результатов. Экономист Эрик Бриньольфссон предвидит создание “экономических панелей ИИ” для ежемесячного мониторинга влияния ИИ на производительность, занятость и создание новых рабочих мест. Он отмечает, что у начинающих специалистов в профессиях, затронутых ИИ, уже наблюдаются более слабые результаты. Профессор права Джулиан Ньярко ожидает разработки стандартизированных юридических тестов для оценки точности, корректности ссылок и рисков утечки конфиденциальной информации. Профессор медицины Нигам Шах предупреждает, что разработчики могут начать предлагать ИИ-рекомендации напрямую пациентам через бесплатные приложения, что требует обеспечения прозрачности и понимания пациентами оснований для этих рекомендаций.

Эксперты Стэнфорда сходятся во мнении, что краха ожиданий не произойдет, но энтузиазм будет спадать постепенно. И это, вероятно, лучший сценарий для индустрии: преуспеют те, кто научится оценивать реальные результаты, а не просто обещать революцию.