Недавний прогресс в Искусственном интеллекте (ИИ) заставляет нас поднять вопрос: куда всё это развитие ведёт?
Макс Тегмарк предлагает задуматься над этим вопросом, давая хорошую аналогию наступления ИИ на выполняемые человеком задания со всемирным потопом
На картинке представлен абстрактный ландшафт выполняемых заданий, где высота ландшафта над уровнем воды в море означает то, насколько трудно для ИИ выполнять каждую задачу так, как делает человек, а уровень моря показывает то, что ИИ может делать уже сегодня.
С развитием ИИ повышается уровень моря; в этом ландшафте задач происходит что-то наподобие глобального потепления. Очевидный вывод — избегать заниматься работой на береговой линии, которая очень скоро будет автоматизирована и разрушена.
Но здесь возникает более важный вопрос:
Насколько высоко поднимется уровень воды?
Повысится ли её уровень в итоге до всемирного затопления, соперничая с интеллектом человека во всех заданиях?
Это — определение сильного искусственного интеллекта — СИИ, который с самого начала был святым Граалем исследований по ИИ.
Исходя из этого, те, кто говорит: «Да, всегда будет работа, которую люди смогут делать лучше машин», — попросту говорят о том, что у нас никогда не будет СИИ.
Конечно мы еще можем выбирать работу, выполняемую людьми, или даём людям доход и цель в существующих рабочих местах; но СИИ, в любом случае превратит нашу жизнь, какой мы знаем, в ту жизнь, в которой люди больше не будут самыми умными существами.
Поэтому, если уровень воды действительно достигает СИИ, затем дальнейший прогресс ИИ будет движим не людьми, а самим ИИ, это значит, что есть возможность того, что дальнейший прогресс ИИ будет более быстрым способом, чем типичные исследования учёных с временны́ми масштабами развития в несколько лет, что увеличит неоднозначную возможность интеллектуального взрыва, где рекуррентно само улучшающийся ИИ быстро обгоняет человеческий интеллект, создавая так называемый суперинтеллект.
Спасибо, что дочитали до конца! Подписывайтесь на канал DigEd, ставьте лайки публикациям!