Найти тему

AGI - это искусственный интеллект, способный думать и учиться как человек.

Оглавление

Однажды вечером в сентябре прошлого года Себастьен Бубек, исследователь машинного обучения в Microsoft, пережил уникальный опыт, который заставил его задуматься об истинных возможностях искусственного интеллекта. Бубек получил ранний доступ к GPT-4, передовому алгоритму генерации текста, разработанному OpenAI, и обновленной модели машинного обучения, лежащей в основе широко популярного чат-бота ChatGPT. Бубек работал над проектом по интеграции GPT-4 в поисковую систему Bing компании Microsoft, когда он и его коллеги заметили, что новая система ИИ удивительно отличается от всего, что они видели раньше.

Как и его предшественники, GPT-4 был обучен на огромных объемах текста и кода, чтобы распознавать статистические закономерности и делать прогнозы на их основе. Но для Бубека результаты работы системы были не просто статистически правдоподобными предположениями. Он увидел в ответах ИИ нечто более удивительное.

В ту ночь Бубек проснулся с идеей. Он хотел проверить пределы возможностей GPT-4, поэтому попросил систему сгенерировать код на TikZ, непонятном языке программирования, используемом для создания научных диаграмм, чтобы нарисовать единорога. Примечательно, что, несмотря на то, что GPT-4 был обучен только работе с текстом, он смог создать рисунок единорога, используя комбинацию овалов, прямоугольников и треугольника.

Для Бубека это был признак того, что ИИ становится по-настоящему интеллектуальным, с абстрактным пониманием элементов единорога. Но поскольку возможности ИИ продолжают расти, возникают насущные вопросы о том, насколько мы можем ему доверять и каков его истинный потенциал и риски. ChatGPT от OpenAI на базе GPT-3 ошеломил мир своей способностью писать стихи и прозу, решать проблемы кодирования и синтезировать знания из Интернета. Однако это также вызвало обеспокоенность по поводу потенциальной возможности академического мошенничества, дезинформации и массовой безработицы, что привело к опасениям, что такие компании, как Microsoft, спешат разработать технологию, которая может оказаться опасной.

Чтобы понять весь потенциал и риски ИИ, нам необходимо иметь четкое представление о его возможностях и ограничениях. Хотя исследователи согласны с тем, что ChatGPT и подобные системы наделяют компьютеры новыми и значительными навыками, они только начинают изучать это поведение и понимать, что происходит за подсказками. Поскольку ИИ продолжает развиваться, именно от нас зависит, насколько ответственно и на благо человечества мы будем его использовать.

OpenAI хвастается впечатляющими результатами GPT-4 на экзаменах в адвокатуру и медицинскую школу, но ученые, изучающие человеческий интеллект, высказывают опасения по поводу удивительных возможностей ИИ и их отличий от наших собственных. Хотя склонность моделей к выдумыванию широко известна, различия гораздо глубже. Поскольку миллионы людей ежедневно пользуются этой технологией, а компании вкладывают значительные средства в ее будущее, понимание этой загадки приобретает критическое значение.

Разногласия

Поскольку исследователи Microsoft продолжают работать с GPT-4, они сталкиваются с проблемой понимания степени его интеллекта и того, как он сопоставим с человеческим интеллектом. Команда опубликовала документ, в котором утверждается, что ранние эксперименты показали "искры искусственного общего интеллекта", что свидетельствует о способности системы выполнять задачи, выходящие за рамки конкретного программирования и отражающие более общий интеллект. Однако использование термина AGI встретило отпор со стороны некоторых исследователей ИИ, которые сочли его симптомом нынешней шумихи.

Критики утверждали, что инвестиции Microsoft в OpenAI и потенциальная возможность GPT-4 приносить прибыль компании послужили стимулом для раздувания ее потенциала при преуменьшении ее ограничений. Другие высказывали опасения по поводу неспособности системы последовательно воспроизводить ответы на подсказки и ставили под сомнение надежность конструкции системы. Хотя GPT-4 продемонстрировала замечательные возможности, некоторые исследователи предостерегают от чрезмерного доверия к этой технологии и призывают продолжить изучение, чтобы лучше понять ее ограничения и потенциальные предубеждения.

Все согласны с тем, что функционирование GPT-4 и других мощных языковых моделей ИИ не похоже на биологическое функционирование мозга или когнитивные процессы человеческого разума. Эти алгоритмы требуют огромного количества обучающих данных, гораздо большего, чем необходимо человеку для приобретения языковых навыков. Опыт", который наделяет GPT-4 и другие модели интеллектуальными способностями, приобретается не в процессе взаимодействия с миром и дидактического диалога, а путем обработки огромного количества информации. Кроме того, не обладая рабочей памятью, ChatGPT вынужден полагаться на то, что при каждом повороте он будет загружать себе историю разговора для поддержания его связности. Несмотря на эти недостатки, GPT-4, несомненно, является значительным достижением, и исследователи интеллекта считают, что для изучения его возможностей необходимы дополнительные исследования.

Разум ИИ

В январе была опубликована научная статья, подготовленная группой лингвистов, нейробиологов и компьютерщиков из Массачусетского технологического института, Калифорнийского университета и Техасского университета в Остине. В работе исследовалось, насколько способности больших языковых моделей, таких как GPT-4 и ChatGPT, отличаются от человеческих.

Группа пришла к выводу, что, хотя эти модели демонстрируют впечатляющие лингвистические навыки, они не понимают по-настоящему язык и то, как его использовать в мире. Возможно, именно поэтому эти модели испытывают трудности с пониманием социальных отношений, того, как устроен физический мир, и того, как мыслят люди. Кроме того, то, как эти модели используют язык, предсказывая слова, наиболее вероятные после заданной строки, очень отличается от того, как люди говорят или пишут, чтобы передать концепции или намерения. Это может привести к тому, что чат-боты будут следовать и отражать язык подсказок пользователей до абсурда.

Джош Тененбаум, автор январской статьи и профессор Массачусетского технологического института, изучающий человеческое познание и способы его исследования с помощью машин, говорит, что GPT-4 замечателен, но сильно отличается от человеческого интеллекта по нескольким параметрам. Например, у него отсутствует мотивация, которая имеет решающее значение для человеческого разума. Он также говорит, что между GPT-3 и GPT-4 и ChatGPT произошли некоторые ключевые инженерные изменения, которые сделали их более способными, например, обучение на больших объемах компьютерного кода.

Однако Тененбаум говорит, что полученные способности не совпадают с общим интеллектом, который характеризует человеческий интеллект. Он говорит, что "мы создаем задачи - и мы создаем машины, которые их решают".

Кайл Маховальд, доцент кафедры лингвистики Техасского университета в Остине и еще один автор январской статьи, говорит, что было бы ошибкой основывать какие-либо суждения на единичных примерах способностей GPT-4. Он говорит, что инструменты когнитивной психологии могут быть полезны для оценки интеллекта таких моделей, но задача осложняется непрозрачностью GPT-4.

Можно ли считать GPT-4 шагом к AGI, зависит только от вашей точки зрения. Наиболее удовлетворительный ответ может дать полное переопределение этого термина. "В наши дни я считаю, что это AGI, поскольку это вид интеллекта и он носит общий характер, но мы должны быть немного менее истеричными в отношении того, что означает AGI", - говорит Ноа Гудман, доцент психологии, информатики и лингвистики в Стэнфордском университете.

В целом, хотя такие модели ИИ, как GPT-4 и ChatGPT, впечатляют своими возможностями, они все еще сильно отличаются от человеческого интеллекта и не имеют таких ключевых аспектов, как мотивация и способность придумывать для себя новые цели на основе своих желаний и потребностей.