Сейчас в сети очень много информации, статей, объяснений и новостей о нашумевшей ИИ разработке ChatGPT компании OpenAI. Она так впечатлила общественность, что доходит уже до запрета доступа из отдельных стран, публикуются исследования, показывающие, что в ближайшее время ИИ вдвое сократит время выполнения задач от 15% до 50% профессий, в первую очередь высокооплачиваемых. В связи с этим возник призыв приостановить выпуск новых больших ИИ-моделей, которому поддержку выражают известные личности, такие как Элон Маск, Стив Возняк, Юваль Ной Харрари и другие.
Из-за чего весь сыр-бор? В своей сути ChatGPT – чат бот, умеющий выполнять практически любые текстовые инструкции, используя текст. Он делает это быстро и качественно, часто даже лучше, чем люди. Он способен сдавать экзамены, решает математические задачи, выдает факты о мире, пишет рецепты блюд, сценарий публичных выступлений и маркетинговые тексты, пишет код на многих языках программирования, улучшает стилистику текста, может выделить ключевую мысль или наоборот, расписать идею. К тому же он способен писать стихи и литературные произведения, и может вести диалог, будто он живая личность! Может общаться на разных языках, включая русский. Попробуйте сами, если хотите, он открыт и доступен бесплатно (достаточно обойти блокировку доступа из России, если вам актуально).
Почему все это вызывает опасения? Вот только самые острые моменты:
- Ощутимое влияние на рынок труда уже в ближайшее время
- Распространение информации, которая может нанести вред (например, как сделать бомбу или изготовить яд) – попытки встроить защиту и отучить ChatGPT так делать пока довольно легко обходятся
- Галлюцинации (частое явление у ChatGPT и аналогичных систем) – очень правдоподобное сообщение несоответствующей действительности информации; ну и в руках злоумышленников – генерация очень правдоподобной дезинформации
- Люди разучатся думать своей головой и решать простейшие задачи
- Перспектива создания сверх-интеллекта, который уничтожит человечество
Как вам такая картина прогресса? Мне не очень. И я думаю, что лучший способ развеять тьму – зажечь свет знания. Я бы хотел, чтобы больше людей понимали, как это устроено, и тогда, быть может, мы сможем построить более достойное будущее. Попробую разъяснить, свое понимание.
ChatGPT изначально основан на модели GTP-3, которая предназначена для автоматической генерации текста. Как и всякий ИИ, модель GPT-3 была обучена на примерах. Примерах того, каким словом продолжить заданный текст (на самом деле не словом, а токеном, так что тут мы немного упрощяем. Токены – это кусочки слов, часто приставки, корни или их части). Текста, на котором обучалась модель, было на 570 ГБ, примерно 100 млрд слов. Текст нарезался на части и GPT-3 училась предсказывать следующее слово. В этом ее суть (и на момент создания она была самой большой такой моделью по генерации текста – 175 млрд параметров).
В итоге был создан симулятор продолжения текста, который может слово за слово генерировать продолжение любого текста (изначально называемого "запросом" или "промптомом"). При этом, учитывая множество возможных вариантов продолжения, модель случайным образом выбирает из доступных альтернатив с учетом их вероятности, что позволяет генерировать каждый раз уникальный текст.
Благодаря огромному разнообразию текстов, невероятному числу параметров внутри модели и широкому входному окну (2048 токенов – максимальная длина текста, который можно подать на вход), она смогла генерировать текст с описанием некоторых фактов о мире, с верной грамматикой на многих языках, а еще воспроизводить семантику, стилистику, а также и законы логики, знания из самых различных областей, способность рассуждать, решать задачи, отвечать на вопросы, вести диалог и даже правдоподобно воспроизводить характеры и личности симулируемых в тексте персонажей – все, что широко представлено в человеческих текстах. Появление этих нетривиальных качеств в симуляции текстовой вселенной, создаваемой с помощью этой модели, стало большим сюрпризом для всех, включая авторов модели.
Вернемся к ChatGPT, главное его отличие от GPT-3 в том, что его дополнительно натренировали на основе оценок экспертов (HFRL – Human Feedback Reinforcement Learning), чтобы модель генерировала ответы, которые могли бы быть подобны ответам ассистента, выполняющего инструкции, и при этом не содержала в себе никакого вреда (AI alignement). Получилось так хорошо, что все мы видели взрыв популярности ChatGPT, который установил абсолютный рекорд по скорости распространения среди всех когда-либо созданных приложений (100 млн пользователей за 2 месяца).
Но, всё же, ChatGPT остаётся всего лишь симулятором текста. Это не агент, не личность, в этом нет и не может быть ни каких собственных мотивов, целей и тем более личности или сознания. В ответ на запрос ChatGPT часто отвечает "Как языковая модель я могу...", но это лишь симуляция диалога с неким героем, который представляется "языковая модель". У этого и других воспроизводимых внутри текстовой симуляции героев – могут быть и цели, и личность – а точнее не они сами, а знакомые нам их выражения в тексте. Самому же симулятору совершенно не важно, что или кого он симулирует. Он даже памяти не имеет – видит лишь начальные условия: текст запроса, который нужно продолжить. И он, в силу построения, заботится только о том, чтобы симуляция была правдоподобной (точно угадывала следующее слово, где эталон – тексты, на которых ее учили). Уловили? Это очень важный момент для понимания.
Таким образом, ChatGPT не самостоятельный сверх-разум, стремящийся к захвату вселенной. Его эффективность и вред зависят от того, как мы используем этот симулятор текстовой вселенной для своих задач. И вот здесь все остальные риски, описанные выше, уже вполне реальны.
Мы уже видим расцвет стартапов, основанных на применении ChatGPT и других генеративных моделей, видим гонку технологических гигантов по разработке все более мощных моделей и инструментов на их основе, вскоре увидим изменения на рынке труда, увидим гонку за эксклюзивный контроль над данными, на которых модели можно учить, и уже видим активизацию усилий общественности по регулированию сферы ИИ.
Без сомнения, эта технология дает огромные возможности. Что бы я рекомендовал всем, чтобы снизить возможные риски от ее применения:
- Советую использовать ChatGPT только для задач, где вы можете ЛИБО самостоятельно перепроверить все предложенные моделью ответы, ЛИБО можете дешево/безопасно на большом числе примеров проверить их применимость на вашей конкретной задаче. В силу того, что ChatGPT хоть и весьма неплохой, но все же не вполне отражающий реальность симулятор, ему свойственны уверенные галлюцинации.
- Ограничить доступ к модели для детей, знакомить с ней исключительно под контролем взрослых. Дети не всегда могут удержаться от соблазна списать домашку, а ChatGPT прекрасно справляется со многими математическими задачами, рефератами и прочими сочинениями. Также ChatGPT может выдавать информацию о мире, неприемлемую для детей, не смотря на все усилия авторов обеспечить защиту – пока она легко вскрывается. Ну и помнить, что внутри каждого взрослого тоже есть ребенок, так что этот пункт не только о детях.
- Принимать во внимание эту технологию, она имеет все шансы коренным образом изменить расклад сил во многих профессиях и индустриях, а также в политике и обществе. Те способности, которые мы видим ответах ChatGPT на простые запросы – лишь кроха от того, что можно создавать с его помощью. Еще больше способны дать сочетания различных ИИ-моделей и технологий. Настоящий бум еще впереди.
И в заключение еще пара интересных мыслей.
Для меня одна из больших ценностей создания и развития технологии Искусственного Интеллекта – понять как работает наш собственный интеллект, как мы устроены, лучше понять себя.
Вот какая мысль мне пришла в связи с текущим прогрессом с большими языковыми моделями, включая ChatGPT:
Меня впечатляет то, что в диалоге современные языковые модели порой ведут себя как личность, проявляя определенные роли, умения, черты характера и эмоции. Такой диалог уже практически невозможно отличить от общения с реальным человеком.
Возможно, что тренировка симулятора реальности – достаточно универсальный способ создать мышление, раз создание GPT-3 – симулятора в мире текстов (генератора продолжения текстовой строки) позволило прийти к таким выдающимся результатам.
Это наводит на мысль, что и в основе ума человека тоже находится самообучающийся симулятор, который стремится прогнозировать чувственный опыт и, по мере сопоставления с прогноза с реальностью, накопления опыта, выучивает достаточно тонкое понимание внутренней структуры реальности, понятие объектов и процессов реального мира, образное мышление, язык, способность логически мыслить, строить социальные взаимодействия.
И тогда становится понятно, почему дети в первую очередь учатся на живом примере родителей, а не на том, что родители им объясняют. И понятие логики у детей приходит только с опытом того, что логика работает на уровне реального опыта (как бы нам, взрослым иногда ни казалось, что логика – самоочевидная основа основ).
И, возможно, это указывает на то, что наше собственное представление о своем Я, личности, и само думание о личности, как обладающей определенными чертами и характеристиками – лишь результат симуляции опыта взаимодействия с миром в нашем уме, включающей проявление других "личностей" в этом мире, их обращения и взаимодействия с нашей "личностью". Подобно тому, как это случилось с ChatGPT, которая успешно симулирует личности в тексте, не обладая личностью сама, имея внутри себя лишь сложение и умножение чисел. Иными словами – успешно создает иллюзию личностей.
И тогда вопрос – реальна ли личность как объект на самом деле, или это наша иллюзия в уме? И если иллюзия – что за ней стоит и делает человека человеком?
И если так легко оказалось симулировать личность человека с помощью какой-то железки, то на сколько же больше должен быть реальный человек, чем его личность? И на сколько же важно чаще думать не о своей личности и не о том, как нас оценивают другие, а заглядывать внутрь себя и стремиться понять, кто я есть на самом деле.