Найти в Дзене
Neuro Almanac

С чем мы имеем дело - существующие уровни автономности ИИ и прогноз на будущее

В ноябре 2023 Google DeepMind выдала статью в MIT Review, посвященную уровням ИИ, а точнее AGI (искусственному общему интеллекту). С того времени, информация расширилась, дополнилась, и теперь DeepMind подает статью "Уровни AGI для операционализации прогресса на пути к AGI" на ICML 2024, которая пройдет в Вене с 21-го по 27-е июля этого года. The International Conference on Machine Learning - это Международная конференция по машинному обучению (ICML) - одна из ведущих конференций по машинному обучению в мире. Статья "Позиция: Уровни AGI для операционализации прогресса на пути к AGI", опубликованная в июне 2024 года, рассматривает проблему определения и классификации искусственного общего интеллекта (AGI). AGI — это концепция, описывающая систему ИИ, способную выполнять задачи на уровне человека. В статье авторы предлагают рамки для оценки и сравнения моделей AGI, а также обсуждают риски и возможности, связанные с развитием AGI. В этой статье есть интересная Таблица 2, которая представл
Двое ученых эпохи классицизма ведут беседу под неусыпным оком ИИ
Двое ученых эпохи классицизма ведут беседу под неусыпным оком ИИ

В ноябре 2023 Google DeepMind выдала статью в MIT Review, посвященную уровням ИИ, а точнее AGI (искусственному общему интеллекту).

С того времени, информация расширилась, дополнилась, и теперь DeepMind подает статью "Уровни AGI для операционализации прогресса на пути к AGI" на ICML 2024, которая пройдет в Вене с 21-го по 27-е июля этого года.

The International Conference on Machine Learning - это Международная конференция по машинному обучению (ICML) - одна из ведущих конференций по машинному обучению в мире.

Группа ученых за столом в лаборатории посреди цветов, зелени и прекрасного пейзажа за стеклами помещения
Группа ученых за столом в лаборатории посреди цветов, зелени и прекрасного пейзажа за стеклами помещения

Статья "Позиция: Уровни AGI для операционализации прогресса на пути к AGI", опубликованная в июне 2024 года, рассматривает проблему определения и классификации искусственного общего интеллекта (AGI). AGI — это концепция, описывающая систему ИИ, способную выполнять задачи на уровне человека. В статье авторы предлагают рамки для оценки и сравнения моделей AGI, а также обсуждают риски и возможности, связанные с развитием AGI.

В этой статье есть интересная Таблица 2, которая представляет собой классификацию уровней автономии ИИ и их связь с уровнями AGI (Artificial General Intelligence), а также потенциальные риски, которые могут возникнуть на каждом уровне.

В таблице перечислены шесть уровней автономии:

  1. Уровень автономии 0: Нет ИИ
  • Примеры систем: Аналоговые подходы (например, рисование карандашом на бумаге), цифровые рабочие процессы без ИИ (например, набор текста в текстовом редакторе, рисование в графической программе).
  • Уровни AGI: Нет ИИ.
  • Риски: Неприменимо (существующие риски).
  1. Уровень автономии 1: ИИ как инструмент
  • Примеры систем: Поиск информации с помощью поисковой системы, редактирование текста с помощью программы для проверки грамматики, чтение знаков с помощью приложения для машинного перевода.
  • Уровни AGI: Возможен Emerging Narrow AI, Вероятен Competent Narrow AI.
  • Риски: Потеря навыков (например, чрезмерная зависимость), нарушение устоявшихся отраслей.
  1. Уровень автономии 2: ИИ как консультант
  • Примеры систем: Использование языковой модели для суммирования набора документов, ускорение программирования с помощью модели генерации кода, потребление развлекательного контента с помощью сложной рекомендательной системы.
  • Уровни AGI: Вероятен Expert Narrow AI или Emerging AGI.
  • Риски: Возможные риски связаны с неправильным использованием рекомендаций или доверие ИИ в критических ситуациях.
  1. Уровень автономии 3: ИИ как соавтор
  • Примеры систем: Совместная работа над проектами, где ИИ вносит значительный вклад, но человек сохраняет общий контроль.
  • Уровни AGI: Вероятен Competent AGI.
  • Риски: Частичная утрата контроля человеком, зависимость от ИИ в процессе принятия решений.
  1. Уровень автономии 4: ИИ как эксперт
  • Примеры систем: Системы, которые выполняют сложные задачи без непосредственного вмешательства человека, но при этом все еще под наблюдением человека.
  • Уровни AGI: Вероятен Advanced AGI.
  • Риски: Сложности в контроле и мониторинге, потенциальные ошибки в сложных сценариях.
  1. Уровень автономии 5: ИИ как агент
  • Примеры систем: Полностью автономные системы, которые могут действовать независимо от человека и принимать решения без необходимости постоянного контроля.
  • Уровни AGI: Вероятен Full AGI.
  • Риски: Потенциально высокий риск из-за полной автономии, необходимость четкого определения и контроля целей и ограничений для ИИ.
Ученые ведут увлеченную беседу в окружении роботизированных организмов
Ученые ведут увлеченную беседу в окружении роботизированных организмов

Мы спросили у ChatGPT: "по твоему мнению, системы каких уровней автономностей уже существуют (приведи конкретные примеры), и сколько времени потребуется, чтобы появились системы с наивысшим уровнем автономности?"

Ниже его ответ:

"На сегодняшний день уже существуют системы ИИ, которые можно отнести к различным уровням автономии, вплоть до уровня 4. Рассмотрим каждый уровень автономии с примерами:

Уровни автономии и примеры существующих систем

1. Уровень автономии 0: Нет ИИ

- Примеры: Аналоговые подходы, такие как рисование карандашом на бумаге или набор текста в текстовом редакторе без использования ИИ.

2. Уровень автономии 1: ИИ как инструмент

- Примеры:

- Поисковые системы: Google, Bing – помогают находить информацию.

- Грамматические проверки: Grammarly – корректирует текст.

- Машинный перевод: Google Translate – переводит текст между языками.

3. Уровень автономии 2: ИИ как консультант

- Примеры:

- Суммирование документов: Использование GPT-3 для создания резюме документов.

- Рекомендательные системы: Netflix, Amazon – рекомендуют фильмы и товары на основе предпочтений пользователя.

- Автодополнение кода: GitHub Copilot – помогает программистам писать код, предлагая фрагменты на основе контекста.

4. Уровень автономии 3: ИИ как соавтор

- Примеры:

- Творческие работы: DALL-E – создает изображения на основе текстовых описаний.

- Помощники для написания текстов: GPT-4 – помогает писать статьи, сценарии и другие тексты с активным участием пользователя.

5. Уровень автономии 4: ИИ как эксперт

- Примеры:

- Автономные транспортные средства: Автомобили Tesla с системой Autopilot – могут управлять транспортным средством в определенных условиях без вмешательства водителя.

- Медицинские диагнозы: ИИ-системы для анализа медицинских изображений (например, обнаружение рака по рентгеновским снимкам) – могут ставить предварительные диагнозы без участия врача.

Будущее систем с наивысшим уровнем автономности

Уровень автономии 5: ИИ как агент - еще не достигнут, однако ведутся активные исследования и разработки в этом направлении. Этот уровень подразумевает полную автономность и способность ИИ принимать решения без вмешательства человека.

Прогноз по времени

Предсказать точное время появления систем с наивысшим уровнем автономности (уровень 5) достаточно сложно, однако можно рассмотреть несколько факторов:

1. Технологический прогресс: Прогресс в аппаратном обеспечении, таких как квантовые компьютеры и специализированные процессоры для ИИ, может ускорить развитие AGI.

2. Алгоритмы и модели: Продолжающееся улучшение алгоритмов машинного обучения и моделей, таких как GPT и другие, способствует развитию AGI.

3. Этические и социальные вопросы: Внедрение AGI требует решения множества этических и социальных вопросов, связанных с безопасностью и контролем.

Большинство экспертов сходятся во мнении, что создание AGI и систем с уровнем автономности 5 может занять от 10 до 30 лет. Это предположение основано на текущем темпе прогресса и потенциале для значительных прорывов в технологии."

Полностью автономный антропоморфный ИИ
Полностью автономный антропоморфный ИИ

В нашем онлайн журнале НЕЙРО АЛЬМАНАХ есть хорошая статья, посвященная Сингулярности, в ней рассматривается как само понятие последней, благодаря спецпроекту от Национального портала в сфере ИИ, так и последние корректировки от Рэя Курцвейла, который перед выходом своей новой книги, дал интервью The Economist, в котором объяснил, почему всё будет быстрее, чем мы думаем.

Читайте, задавайтесь вопросами) Мы всегда готовы ответить, если понадобимся.