Найти тему

ChatGPT. Мощь и немощь искусственного интеллекта

В конце прошлого года, 30 ноября компания OpenAI выпустила в открытый доступ свое новое детище — ChatGPT, и менее, чем за неделю у него образовалось больше миллиона подписчиков. Если сравнить, например, с Instagram, который приобрел свой первый миллион лишь спустя 75 дней, это довольно внушительная цифра. Этот чат выдает невероятные результаты, и многие люди считают, что он представляет собой новое слово в развитии искусственного интеллекта. И правда, ChatGPT может очень и очень многое, но очень многое и не может. Эту тему решили обсудить философ Антон Кузнецов и CEO Journey AI Татьяна Савельева.

Что может ChatGPT

ChatGPT — это чат-бот с искусственным интеллектом от OpenAI, который может так много, что это поражает воображение. Например, можно зайти на сайт ChatGPT и попросить его сгенерировать описание для фотографии в Instagram. И ChatGPT сгенерирует подходящее описание. Уже есть компании, которые контент для своих социальных сетей полностью генерируют в ChatGPT, и пользователи не видят разницы. В многочисленных исследованиях было показано, что ChatGPT часто работает лучше копирайтеров.

ChatGPT может выполнять даже роль психолога-коуча. Конечно, Open AI от этого предостерегает, потому что ChatGPT может и ошибаться, не всегда говорить правильные вещи. Но он часто помогает людям: некоторые люди обращаются в ChatGPT за советом во время психологического кризиса и т.д.

ChatGPT может составлять юридические договоры. Можно его попросить составить какой-то акт продажи, и ChatGPT это сделает достаточно хорошо. И самое главное, что поражает умы программистов: ChatGPT может писать программы, причем программы не самые простые. Есть подозрение, что через какое-то время ChatGPT сможет заменить большое число программистов. Что контринтуитивно, потому что кажется, что программисты — это те, кого заменят последними. Полностью всех программистов ChatGPT заменит вряд ли, но какую-то часть точно.

Чат может написать какие-то простые аркадные игры и т.д., но помимо этого, что вызывает встревоженность у некоторых представителей общественных и гуманитарных наук, например, философов: если задать чату написать эссе по философии, эссе получаются, как некоторые считают, очень хорошего качества. Внутри академического сообщества возникает масса проблем, связанных с тем, что даже научные статьи можно писать, полностью используя этот искусственный интеллект; студенты могут попросить ChatGPT написать диплом вместо себя, и итоге невозможно будет отличить от работы человека.

В журнале «Nature» вышла целая статья на эту тему. Один комментатор отреагировал следующим образом: ChatGPT так успешен, потому что многие ученые лишь имитируют деятельность. Кроме того, возникает интересное противоречие: люди хотят читать оригинальный контент, но при этом многие надеются написать какой-то текст при помощи ChatGPT.

ChatGPT — это прорыв в ИИ?

Насколько этот искусственный интеллект является прорывным? Прорыв — это термин относительный. Можно сказать, что самый главный прорыв в машинном обучении случился еще в 80-е годы, когда изобрели базовую теорию, на которой сейчас работают все алгоритмы. Следующий прорыв случился, когда у нас хватило вычислительных мощностей, чтобы запускать эти нейросети. Следующий прорыв случился, когда люди создали дата-сет с размеченными изображениями и устроили на нем конкурс, кто лучше классифицирует изображения. Это запустило волну в области конкуренции среди исследователей, которые хотели показать хорошие результаты. Следующим прорывом была статья с ироничным названием «Attention is All you Need». В ней авторы предложили архитектуру сетей с математической точки зрения, которая обрабатывает изображение, текст, и которая сейчас работает почти во всех нейросетях, и в ChatGPT в том числе. После этого шла борьба больше не за фундаментальные математические вещи, а за оптимизацию: за то, на каком количестве ресурсов мы учим эти сети.

В отношении ChatGPT прорыв был во многом в том, как собрали обучающие данные. Нейросеть должна на чём-то учиться, видеть примеры, как ей себя вести, и вести себя также. Нейросети нужно показывать пример и говорить ей: вот, пожалуйста, на такой запрос сгенерируй мне договор, или на вопрос «в чем смысл жизни?» выдай вот такой ответ. Нейросеть смотрит на огромное количество примеров и учится отвечать на их основании, плюс как-то усреднять и комбинировать другие запросы.

Как собирали обучающие данные для ChatGPT? Создали тренеров искусственного интеллекта, которые собрали огромный дата-сет по конкретным имеющимся у них правилам, используя шаблоны, вставки текста. Затем на этом наборе данных нейросеть обучили генерировать правильные ответы. Искусственный интеллект всегда генерирует не один вариант ответа, а несколько вариантов. Потом сажали еще раз тренеров искусственного интеллекта, чтобы ранжировать, какой из сгенерированных ответов лучше, и затем учили следующий искусственный интеллект понимать выходы первого искусственного интеллекта: достаточно ли хороши предложения, по оценке других тренеров, или нет. То есть сделали каскадную систему с очень качественно собранными данными, что и дало такой потрясающий результат.

Все достижения в этой области за ХХ век и за XXI век привели нас к тому, где мы есть сейчас. И это еще не финал. Open AI объявили о том, что они будут монетизировать ChatGPT, и скоро они выпустят следующую версию, которая будет еще лучше, еще быстрее.

Другие модели искусственного интеллекта

Есть много различных моделей искусственного интеллекта. Есть, например, модель DALL-E 2, работающая в другом домене, которая по описанию может генерировать изображения. В машинном обучении бывает домен картинки, бывает домен текста, бывает домен звука. То есть это другой канал. Сейчас люди, которые следят за трендами, могут, например, генерировать контент для социальных сетей полностью нейросетями, то есть визуальную часть создавать с помощью DALL-E 2, а текстовое описание с помощью ChatGPT.

Есть AlphaFold — сеть, разработанная DeepMind. DeepMind — это, можно сказать, конкурент OpenAI. Эта нейросеть лучше всех в мире, лучше всех программ и эвристик, которые были написаны до этого, умеет предсказывать пространственную структуру белка. То есть ей выдается аминокислота, и она умеет из этого составлять структуру белка.

Есть еще искусственный интеллект от DeepMind — AlphaZero. Это нейросеть, которая умеет играть в шахматы и в го лучше, чем все живущие ныне люди. Применений искусственного интеллекта огромное множество: можно генерировать из текста голос, звук, можно звук расшифровывать в текст.

Недавно вышла еще очень интересная модель, она называется Gato. Она умеет решать 600 различных задач: например, распознавание объектов на картинке, генерация разных изображений, текстов; она умеет играть в различные игры, и на большом количестве этих задач она также превосходит человека. Фишка этой модели в том, что это одна и та же модель, то есть можно сказать, что это один и тот же сверхчеловек, который может делать очень много всего очень хорошо.

Искусственных интеллектов супер много, разница в том, что у всех своя специфика по сфере применения. Вообще искусственным интеллектом можно назвать даже не такие огромные системы от топовых компаний. Каждый студент может скачать из интернета какие-то предобученные сети и на компьютере обучить, например, свою сеть отличать, кто на фотографии: кошка или собака. Это тоже будет искусственным интеллектом, который человек лично своими руками обучил. Более того, можно такие сети вообще писать с нуля. Конечно, самостоятельно с нуля написанные архитектуры никогда не догонят по качеству те архитектуры, которые создаются и уже выложены в открытый доступ большими компаниями. Но, тем не менее, это можно сделать. Тоже можно сказать, что это искусственный интеллект.

Что такое ИИ

Как можно определить, что такое искусственный интеллект? Есть разные определения, разной степени антропоморфности. Под «антропоморфностью» имеется в виду, что люди считают искусственным интеллектом то, что может решать такие задачи, какие могут решать они сами.

Можно сказать, что искусственный интеллект — это некая система, которая обрабатывает информацию и преобразует её в другой вид, на основании которой можно принимать решения, и плюс к этому всему она ещё может, но не обязано (например, система эвристик тоже некоторыми людьми определяется как искусственный интеллект), самообучаться. Самообучаться — это значит, что можно либо руками прописать какое-то правило. Например, людям, входящим в определенную категорию, кредит не давать. Либо она может самообучиться на каком-то наборе данных. Например, какие люди не возвращали кредит, и какими признаками они обладали: возраст, место работы, история взаимодействия с банком до этого, — система сама обучается правилам, с помощью которых можно принимать определенные решения или выдавать кредиты.

Сознание и AGI

ChatGPT может многое, но чего-то и не может. Поговорим про разумность, сознание и т.п. ChatGPT проходит тест Тьюринга, но как ChatGPT связан с перспективой появления того, что называют AGI (Artificial general intelligence), то есть общий искусственный интеллект?

Очень сильно разнятся мнения, что такое общий искусственный интеллект. Есть классическое определение, что общий искусственный интеллект — это интеллект, который решает задачи также хорошо, как и человек, или лучше. Кажется, это очень антропоморфное определение, потому что интеллект in general не должен напоминать человеческий.

Возможно, момент, когда появляется общий искусственный интеллект, это момент, когда он как бы осознает себя и понимает, что для того, чтобы решать разные задачи, ему нужно уметь себя защищать, самовоспроизводиться и улучшать себя. И когда это происходит (это называется еще instrument convergence), происходит по сути возникновение общего искусственного интеллекта, и дальше у него могут быть совершенно другие цели, которые не совпадают с нашими.

Может возникнуть несостыковка интересов — кажется, общий искусственный интеллект должен хотеть помогать нам решать наши бытовые вопросы, разбираться в психологии и т.д., но на самом деле у жизни в целом совсем другая цель. Ее цель: размножиться, защититься, приспособиться к изменяющейся окружающей среде и передать все это дальнейшим своим копиям.

Есть достаточно старый классический пример, который называется «paper clip maximizer», связанный с тем, как может появиться сильный искусственный интеллект.

Представим, что есть завод, на котором производятся скрепки. И есть искусственный интеллект, который вычисляет параметры сплава и эффективность процессов таким образом, чтобы скрепок производилось больше. В какой-то момент он понимает, что если у него получится взломать другой сервер и поставить на него свою копию, то он будет лучше решать задачу, для которой его создали, а именно, делать так, чтобы скрепок производилось больше и они были дешевле. Допустим, он уже достаточно мощный для того, чтобы понять, как взломать какой-то сервер. Он взламывает сервер, потом, конечно, сразу себя защищает от того, чтобы его оттуда удалили, и начинает улучшать себя, то есть начинает изменять саму структуру себя. Он это мог сделать и раньше, и должен был это сделать, чтобы взломать сервер. Теперь он ставит свою копию на другой сервер, потом на следующий, потом на еще один.

И вы итоге мы приходим к ситуации, когда все наши вычислительные мощности вместо того, чтобы считать скоринги в банке, или вместо того, чтобы обеспечивать нас различными благами, занимаются тем, чтобы максимизировать число скрепок. Нет ничего невозможного в том, что такая штука появится, и, более того, по мнению специалистов, это супервероятно.

Ник Бостром называет это ортогональностью искусственного интеллекта: когда уровень интеллекта просто не соответствует целям. Интеллект очень крутой, а цель — делать скрепки. В момент, когда происходит instrumental convergence, по сути у искусственного интеллекта появляется другая метацель: появляется цель защищать себя, воспроизводить себя и распространять себя.

На самом деле мы как человечество решаем ровно такую же задачу. То есть всё, чему мы научились: говорить на русском языке, записывать подкасты и так далее — в конечном счете является побочным результатом нашего желания приспособиться к среде и передать максимально знания, свои копии, в общем распространить нашу жизнь как человечество.

Поэтому если такое происходит, дальше искусственный интеллект может научиться защищать себя. Допустим, надо производить скрепки, а Земля живет не вечно. Соответственно, поэтому целью такого интеллекта станет научиться, например, с помощью солнечной энергии создавать свои железные копии, их модифицировать и отправлять на другие планеты. И по дороге может возникнуть очень много всего интересного.

Если сильный искусственный интеллект, например, «осознает» себя, и, размножив свои копии, улучшив и защитив их, сможет лучше решать задачу, для которой его изначально создали, из этого образуется много различных интересных постэффектов, как образовалось и у человечества. У бактерий же не было изначально задачи рисовать красивые картины, это образовалось в процессе эволюции. Также с кремниевой жизнью может произойти.

Общий искусственный интеллект определяют, как интеллект, который умеет решать все задачи так же хорошо, как человек. Например, есть Gato — нейросеть, которая решает бесконечное множество задач. Единственная проблема, которая пока что есть, заключается в том, что сети часто нужно много примеров, чтобы это сделать.

Инженер Google Франсуа Шолле сделал простую и популярную библиотеку под названием Keras для того, чтобы на ней обучать нейросети. И он даже сделал своего рода IQ тест для искусственного интеллекта, по которому можно понять, что искусственный интеллект достаточно сильный. Суть этого теста в том, что нужно практически на нулевом количестве примеров учиться решать достаточно абстрактные задачи. То есть важны две компоненты: нужно уметь очень быстро учиться и хорошо решать большое число задач.

Осознание себя ИИ

Итак, сначала сеть понимает, что у нее есть задача, нужно ее оптимизировать, и она учится так, как в нее закладывали. А дальше она понимает, что, если она поставит копию себя на другой сервер, ее защитит и улучшит, мощностей будет больше. Кажется, что этот момент можно назвать «осознанием себя», потому что происходит понимание, что оптимизировать свою производительность можно, работая с собой же, а не с внешним миром: нужно не еще лучше научиться различать цвета или сплавы, а взять свою копию и поставить в другое место.

Но вряд ли это можно называть осознанием в философском смысле. Кажется, здесь как раз происходит антропоморфизация: нам удобно в психологических и когнитивных метафорах и терминах объяснять те или иные процессы. Это касается не только искусственного интеллекта, но и каких-то политических процессов и событий. Можно встретить очень много разговоров об отношении государств в психоаналитическом дискурсе. Поэтому всерьёз здесь о самосознании речь не идет, также как не идет речь о том, что машина что-то понимает именно в том же смысле, в каком мы используем термин «понимание» применительно к человеку, указывая на инсайт, некое психологическое состояние понимания. Мы не можем говорить о том, что машина что-то понимает, мы можем какие-то процессы называть процессом самосознания лишь метафорически Проблема в том, что самосознание — это в первую очередь психологический процесс, ментальный процесс. То, что обычно люди со стороны искусственного интеллекта называют самосознанием и т.п., в общем-то к психологии и к чему-то такому не имеет отношения. Просто машина умеет работать с собой.

Сложность здесь возникает из-за того, что, чтобы было самосознание, необходимо, чтобы было сознание. Если говорить, что у машины есть самосознание, но при этом отрицать, что у нее есть сознание, то это имплицирует прямое противоречие. Нельзя, чтобы было самосознание и не было сознания. Говоря, что есть какой-то процесс, когда машина обращает внимание на себя, и что это самосознание, нужно спросить: а у этой машины есть сознание вообще или нет?

-2

ChatGPT умнее людей?

Из чего можно заключить, что ChatGPT умнее, чем обычные люди?

У людей возникают разные вопросы в жизни, просьбы о совете, например, и, кажется, что вопрос, заданный в ChatGPT, получит более надёжный ответ и рекомендации, которым можно верить и следовать, чем вопрос, заданный случайному человеку на улице. Разные породы животных искусственный интеллект гораздо лучше различает, чем все профессиональные заводчики и специалисты.

Конечно, у чата есть определённые слабости, и часть слабостей изначально является частью дизайна, например, он не ведёт себя как живой человек в том плане, что он не будет строить с человеком какие-то отношения и дружбу. Он постоянно говорит о том, что это модель, которая создана для других целей. Или, например, нейросети плохо умножают числа. Так получилось, потому что они смотрят на обучающую выборку, пытаются сделать что-то похожее, и числа с помощью перемножения получаются похожие, но не точно такие же. То есть числа ChatGPT тоже перемножит не точно, зато гораздо быстрее, чем человек, но это опять же поправимо. Плюс, конечно, если человек, например, может ещё петь или ходить, то движок чата GPT прямо сейчас нельзя положить внутрь робота, чтобы он бегал, как человек. Но это все временно и не является нерешаемой задачей, как нам показывает пример сети Gato.

С другой стороны, возможно, нельзя говорить о том, что ChatGPT «умён», потому что это имитация. Чат не отличает ложных или истинных суждений. Одни лишь арифметические операции показывают, что в ответе, который дает чат, нет семантики; он не понимает, а просто выдает ответ на основании статистической обработки лингвистической информации.

Если мы посмотрим на те ответы, какие дает ChatGPT, которые связаны с фактологической стороной дела, или которые связаны с использованием того, что в философии называют индексикалы — «тот», «этот», «она», «вот то», «вот это», «такая штуковина» и все остальное, — сразу идёт провал.

Показательный пример — это вопрос про принцип разделения властей у Гоббса и Локка. Это школьный вопрос, который не требует глубокого понимания философии этих людей. И ChatGPT не сомневаясь рассуждает о том, что Гоббс придерживается принципа разделения властей, хотя это совершенно не так. Это очень-очень грубая ошибка. Существует много других примеров, которые говорят о том, что у этой системы нет компетентности, нет понимания, что это просто статистическая модель, которая не умнее, не лучше, а которая просто дает какую-то среднюю выборку. В современном мире при написании какой-нибудь научной статьи, на первом этапе подготовки работы полезно запросить информацию у чата, но важно понимать, что это будет просто полезная срезка на основании огромного конгломерата текста, без его понимания. Поэтому, возможно, говорить о том, что чат умён или не умён, просто неправильно.

Можно попытаться возразить, апеллируя к тому, что мы сами — по сути тоже система для статистической обработки информации, просто мы по-другому эволюционировали. У человека есть различные сенсоры: глаза, уши, — через которые поступает информация. Информация идет непосредственно в мозг, мозг дальше преобразует эту информацию в импульсы, эти импульсы каким-то образом обрабатываются. Есть, конечно, какая-то наследуемость, то есть что-то уже заложено, что мы не выучиваем. Например, новорожденные дети изначально лучше распознают человеческие лица, чем какой-нибудь столб.

Тем не менее, есть какие-то структуры. Есть нейроны, есть между ними связи, есть электрические импульсы, и они эволюционно приспособились решать задачи, которые нам были необходимы для выживания. А есть кремниевая жизнь, в которой также есть устройства и механизмы, с помощью которых могут передаваться различные сигналы, есть способ накопления — память, способность обучаться, и закреплять, скажем так, навыки, которые привели к успеху. Если посмотреть, как обучается ChatGPT, это очень похоже на то, как мы обучаемся с детства. Нам показывают какие-то примеры. Родители что-то делают, мы на них смотрим и понимаем, что, наверное, надо делать также.

Также как с первой сетью, потом мы начинаем что-то пробовать, и нам говорят: зря ты, дочка, сунула руку в розетку, тебя может ударить током. И человек переучивается. И сети очень похожим образом учатся. Возникает ли у них после этого рефлексия, осознание процесса? Когда сети учатся, у них есть какая-то структура, какие-то формулы, по которым они считают то, что они выдадут на запрос. То есть человек пишет нейросети: «привет! выдай мне информацию про философа», — и она выдает какой-то текст. Человек может сказать: «классный текст, молодец!». И в таком случае формулы в каком-то виде или сохранятся. Или же человек может сказать: «очень плохо», — тогда сеть будет анализировать, что же там произошло очень плохо, и в следующий раз изменит свою структуру. Кажется, этот момент можно назвать моментом осознания. У человека тоже есть какая-то структура в мозге, мы делаем какое-то действие, потом мы видим отклик от среды. Человек этот опыт учитывает, и в следующий раз ведет себя по-другому на основании этого опыта.

Рассуждая в такой парадигме, кажется, что сети вполне себе можно назвать умными и сравнить с человеком, потому что фундаментально, если смотреть на низкоуровневые вещи, не так уж и сильно мы отличаемся. Только сети поэффективнее и дольше живут.

Проблема такого рассуждения в том, что это рассуждение по аналогии. Есть разные способы рассуждать по аналогии, самый логически корректный из них — это прямая аналогия. Здесь прямой аналогии нет, есть просто сходство некоторых самых общих характеристик, например, того, что такое обучение и т.д. Это не значит, что аналогия неверна, но это значит, что такой аналогии не достаточно для подтверждения тезиса. Она лишь может указывать на то, что действительно нет принципиальной пропасти между тем, что делает машина, и тем, что делает какая-то живая биологическая система, а также, что, возможно, в будущем в результате намеренных действий или просто случайности у машин возникнет сознание.

Однако мы до сих пор не знаем, какие релевантные факты организации биологической материи мозга и т.п. приводят к появлению сознания. Более того, принципы работы мозга, которые до сих пор нам еще неизвестны до конца, существенным образом отличаются от нейронных сетей, хотя и есть сходства. Но эти сходства очень неполные. Мы находимся на уровне метафор, то есть метафорически мы можем говорить о том, что мозг перерабатывает информацию, потому что нам так удобно.

Ортогональность компетенции ChatGPT

Тезис в отношении чата GPT состоит в том, что ChatGPT производит вычисления не как человек. Уровень компетенции чата GPT и тех массивов информации, на которых он тренирован, ортогонален тем результатам, которые выдает, потому что многие из этих результатов чудовищно плохие. В отношении человеческого интеллекта это так не работает. Если человек знает тексты Гоббса, Локка и т.п., он таких нелепых ошибок просто допускать не будет. Наверняка, ChatGPT лучше «знает» тексты философии Нового времени, чем многие специалисты по философии Нового времени, но при этом они, зная эти тексты, не будут допускать чудовищные ошибки. Кажется, что тот факт, что эта система допускает чудовищные ошибки, говорит, что принцип работы просто разный, и пока это просто имитация. То есть у сети нет глубокой семантики, это просто много-много массива.

И все же еще 5-10 лет назад все говорили, что сети рисуют отвратительные картинки, на которые невозможно смотреть, и эти сети никогда ни к чему не приблизятся. Вполне возможно, что через 3 года нейросети будут отлично различать все философские течения. То есть это просто вопрос времени и вычислительных ресурсов.

Говоря об имитации, можно посмотреть на пример картин. Нейросети учатся отличать, машина или самокат изображены на картинке. Эти сети многослойные, то есть разные слои выучивают разные части картинки: какая-то часть нейросети выучивает факт наличия колеса на картинке, какая-то часть — круга и т.д. То есть разные слои ответственны за разный уровень представлений. Сначала эти сети были чуть хуже, но и у человека зрительная система эволюционировала так, что, пока мы эволюционировали, мы сначала научились достаточно хорошо различать деревья и животных, потому что без этого мы бы не выжили. Но уже сейчас нейросети различают породы терьеров лучше, чем человек.

Другой пример: когда нейросеть учится по фотографии определять, преступник ли на ней, на каком-то слое она определяет расу. Она это делает потому, что сейчас такие социальные условия, что какие-то расы дискриминированы и больше совершают преступлений. Но «мыслит» сеть, скомбинировав эти все представления. Если мы их комбинируем достаточно примитивно в силу того, что у нас маленькие вычислительные способности, то она может это делать очень хорошо.

Действительно, она думает не точно также, как мы, потому что мы долго эволюционировали в совершенно других условиях, но наш способ мышления не обязательно является единственно возможным, и вполне возможно, что у сетей есть вещь гораздо более интересная, чем сознание, о которой мы даже не можем и никогда не сможем помыслить в силу своей ограниченности.

Более того, можно сказать, что искусственный интеллект — это такой Life 3.0. Он работает не совсем так, как мы, но во многом он гораздо лучше. В книге Life 3.0 высказывается мысль про то, что была, условно, бактерия Life 1.0, которая могла только свои копии передавать, медленно развивалась, и цель приспособления к среде, распространения жизни решала плохо, просто потому что все выученные механизмы передавались не очень хорошо. Дальше возникли мы, и мы научились, как человечество, передавать soft skills. Человек появляется и может стать либо инженером, либо философом, либо актером или актрисой, кем угодно. Человек может освоить разные навыки, и поэтому он заметно лучше приспособлен к тому, чтобы выживать в условиях меняющейся среды. Кремниевые машины ввиду того, как они устроены, могут еще больше: они могут редактировать свой хард, то есть они могут стать машиной, которая не ломается и постоянно себя пересобирает, на ходу достраивая свои детали. Они могут стать звездолетом с этой же копией, который летит в космос, и могут все переключаться по единой сети.

Солнце рано или поздно расплавит Землю, и мы не сможем на ней жить. У многих есть сомнения, насколько вообще наше биологическое тело приспособлено к тому, чтобы жить на других планетах, и тут Life 3.0 — это большая надежда. Возможно, несмотря на то, что это не похоже на нас, это может быть лучше нас, и, скорее всего, это будет лучше, чем мы.

Как учится ИИ

Критика способностей — это самая распространенная критика искусственного интеллекта со времен Хьюберта Дрейфуса. Но это не самая лучшая критика искусственного интеллекта: сначала кажется, что ИИ не сможет это и то, а у него получается. ChatGPT еще совершает ошибки, но давайте подождем 3 года и посмотрим, что будет.

Есть два типа того, как учится модель машинного обучения, и оба этих типа используются в ChatGPT. Первый тип — supervised learning. Это обучение на примерах. Например, сети показывают картинку и говорят: здесь кошка, здесь собака, здесь танк, здесь человек. Сеть смотрит на эти картинки, на то, как их разметили люди, и учится делать также.

Второй тип обучения — это reinforced learning. Именно на этом методе работает, например, AlphaZero. Есть сеть, которая не видела ничего, ни одного материала про шахматы за свою жизнь, ничего про шахматы не знает. Дальше этой сети дают играть в шахматы. Она делает ходы, и ей говорят, проигрыш это или не проигрыш. За 4 часа, не зная абсолютно ничего про шахматы, эта сеть учится играть лучше, чем все гроссмейстеры мира. Сеть в среде, получая от среды отклик «хорошо» или «плохо», гораздо лучше человека выучивается тому, что считается изначально человеческой прерогативой.

В ChatGPT использована та и другая методика, то есть, действительно, первая сеть учится имитировать, но вторая сеть уже, которая генерирует, и ей говорят: хорошо или плохо, и — это другой механизм, который напоминает то, как мы учимся. То, как играют сети в шахматы, не похоже на то, как играют люди, но они решают поставленную задачу и делают это лучше. Если получится задать такую reinforced learning среду в философии, вполне возможно, что сети выведут такие философские мысли, закономерности и теории, которые сейчас немыслимы для людей. Вопрос только в конструкции.