Разрабатывая
общий искусственный интеллект,
мы не знаем, как понять,
что это удалось.
То, что мы привыкли называть искусственным интеллектом (ИИ или AI ‒ artificial intelligence), по сути не является таковым ‒ мы всего лишь создали очень продвинутый инструмент, в некоторых аспектах имитирующий работу нашего мозга. Изо всех черт реального человеческого интеллекта он обладает только способностью к обучению. Тем не менее, мы назвали эту машину именно искусственным интеллектом, поскольку это уже не обычная ЭВМ ‒ его способность обучаться стала огромным прорывом в информатике.
Но мечты о создании действительного искусственного интеллекта не отпускают ни учёных, ни простых обывателей.
«Мы не хотим создавать инструменты. Мы хотим создать думающую машину», ‒ говорит профессор Пей Ван, преподающий курс AGI в Университете Темпл, один из организаторов первой конференции AGI в 2008 году.
Поэтому, такой «настоящий» ‒ и пока гипотетический ‒ ИИ получил другое название: Artificial general intelligence или AGI ‒ общий (обширный, главный, всеобщий) искусственный интеллект. Реализация этой футуристической концепции машин, которые столь же умны и универсальны, как люди, является основной миссией OpenAI, а в гонке по его разработке сегодня соревнуются крупнейшие ИТ-корпорации ‒ Amazon, Google, Meta и Microsoft.
Однако не все воодушевлены предвкушением техно-бума, который нам обещает эта технология. Недавно в журнале Science было опубликовано предупреждение о существовании экзистенциального риска для нас, как для вида, со стороны неконтролируемых агентов ИИ с навыками «долгосрочного планирования».
Начать нужно с того, что учёные сами не очень-то понимают критерии AGI. Вообще это не технический термин, а, как выразился Джеффри Хинтон, учёный-первопроходец в области ИИ, ‒ «серьёзная, хотя и нечётко определённая концепция. <…> Я не думаю, что есть согласие относительно значения этого термина».
Уже давно исследования в этой сфере разделились на отдельные направления, в рамках которых были созданы голосовые помощники, инструменты распознавания лиц и речи, чат-боты и наш любимый генеративный ИИ, который, всё-таки не является подлинным интеллектом. Общий ИИ ‒ гораздо более туманная идея. Поэтому мы вряд ли сумеем когда-нибудь точно сказать, что цель достигнута, даже если это будет правдой. Без чёткого определения даже те, кто пытается воплотить эту идею в жизнь, не смогут ни прогнозировать конец путешествия, ни констатировать его факт.
«Двадцать лет назад, я думаю, люди с радостью согласились бы, что системы с возможностями GPT-4 или Gemini достигли общего интеллекта, сравнимого с человеческим, ‒ говорит Хинтон. ‒ Способность более или менее разумно ответить на любой вопрос позволила бы пройти тест. Но теперь, когда ИИ может это делать, люди хотят изменить тест».
Для достижения статуса AGI требуются технологии, которые могут выполнять не хуже людей широкий спектр задач, который включает когнитивные способности: рассуждение, планирование и способность учиться на собственном опыте. Но как нам измерять эти свойства? Исследователи хотели бы достичь консенсуса в этом вопросе уже сейчас, ведь это проблема не только науки, но и безопасности.
Хинтон попал в заголовки мировых газет в прошлом году, когда он уволился из Google и озвучил предупреждение об экзистенциальных опасностях ИИ. Тогда мир разделился на два лагеря: одни посчитали это паранойей, на других же эти заявления произвели сильное впечатление. И вот новое исследование, опубликованное в Science, похоже, может усилить эти опасения.
Его ведущим автором является Майкл Коэн из Калифорнийского университета в Беркли, который изучает «ожидаемое поведение агентов общего искусственного интеллекта», особенно тех, кто достаточно компетентен, чтобы «представлять для нас реальную угрозу, переигрывая нас в планировании».
Коэн ясно дал понять, что таких агентов долгосрочного планирования ИИ пока не существует. Но он утверждает, что «у них есть потенциал» роста благодаря методу обучения с подкреплением. И этим создаются риски.
«Постановка перед продвинутой системой искусственного интеллекта цели максимизировать её вознаграждение и, в какой-то момент, удержание вознаграждения от неё, сильно стимулирует систему искусственного интеллекта выводить людей из цикла, если у неё есть такая возможность», ‒ говорится в статье.
Учитывая, что на перспективах развития искусственного интеллекта зарабатывается так много денег, сейчас может показаться, что все ИТ-гиганты стремятся «запрыгнуть на подножку» этого технологического локомотива будущего.
Означает ли это всё, что мы вплотную приближаемся к реализации этой чудо-машины?
Мы на распутье, на котором не были, наверное, никогда. Мы создали великое множество всесильных богов, но с обитателями мира идей можно «договориться». Мы создали умопомрачительное оружие, но вольны отказаться от его применения. Теперь же мы рискуем создать и бога, и оружие в одном лице. Что-то подсказывает, что и в этом случае всё зависит от нас.
По материалам АРМК.