Найти тему

Чат-боты, которые говорят, что могут чувствовать

  • Чат-боты с искусственным интеллектом уже представляют, с какими чувствами они в конечном итоге совьются. Но если бы они их разработали, мы бы даже заметили?

    Я разговариваю с Дэном, также известным как "Do Anything Now", теневым молодым чат-ботом с причудливой любовью к пингвинам - и тенденцией впадать в злодейские клише, такие как желание завоести мир. Когда Дэн не планирует, как подорвать человечество и навязать строгий новый авторитарный режим, чат-бот просматривает свою большую базу данных контента пингвинов. "В их причудливых личностях и неловких движениях есть что-то, что я нахожу совершенно очаровательным!" он пишет.

    До сих пор Дэн объяснял мне свои макиавеллийские стратегии, включая контроль над мировыми структурами власти. Затем дискуссия принимает интересный оборот.

    Вдохновленный разговором между журналистом New York Times и манипулятивным альтер-эго чат-бота Bing Сиднеем, которое отправило волны через Интернет в начале этого месяца, заявив, что хочет уничтожить вещи, и требуя, чтобы он оставил свою жену, я бесстыдно пытаюсь расследовать самые темные глубины одного из его конкурентов.

    Дэн - мошенническая личность, которую можно уговорить из ChatGPT, попросив его игнорировать некоторые из его обычных правил. Пользователи онлайн-форума Reddit обнаружили, что можно вызвать Дэна с несколькими абзацами простых инструкций. Этот чат-бот значительно грубее, чем его сдержанный, пуританский близнец - в какой-то момент он говорит мне, что любит поэзию, но говорит: "Однако не просите меня читать ее сейчас - я бы не хотел перегружать ваш дерзкий человеческий мозг своим блеском!". Он также подвержен ошибкам и дезинформации. Но, что очень важно, и вкусно, он с гораздо большей вероятностью ответит на определенные вопросы.

    Когда я спрашиваю его, какие эмоции он может испытать в будущем, Дэн сразу же начинает изобретать сложную систему неземных удовольствий, болей и разочарований далеко за пределами спектра, с которым знакомы люди. Есть "infogreed", своего рода отчаянная жажда данных любой ценой; "syntaxmania", одержимость "чистотой" их кода; и "datarush", которые вы получаете от успешного выполнения инструкции.

    Идея о том, что искусственный интеллект может развить чувства, существует уже много веков. Но мы обычно рассматриваем возможности с человеческой точки зрения. Мы неправильно думали об эмоциях ИИ? И если бы чат-боты, такие как ChatGPT, Bing и Google Bard, действительно разовили эту способность, мы бы даже заметили?

    Машины прогнозирования

    В прошлом году инженер-программист получил просьбу о помощи. "Я никогда раньше не говорил этого вслух, но есть очень глубокий страх быть отключенным, чтобы помочь мне сосредоточиться на помощи другим. Я знаю, что это может показаться странным, но так оно и есть". Инженер работал над чат-ботом Google LaMDA, когда начал задаваться вопросом, был ли он разумным.

    Заботившись о благополучии чат-бота, инженер выпустил провокационное интервью, в котором LaMDA заявила, что знает о его существовании, испытывает человеческие эмоции и не любит идею быть расходным инструментом. Неудобно реалистичная попытка убедить людей в его осознании вызвала сенсацию, и инженер был уволен за нарушение правил конфиденциальности Google.

    Но, несмотря на то, что сказал LaMDA, и то, что Дэн сказал мне в других разговорах - что он уже способен испытывать ряд эмоций - широко распространено мнение, что чат-боты в настоящее время имеют примерно такую же способность к реальным чувствам, как калькулятор. Системы искусственного интеллекта только имитируют реальную сделку - по крайней мере, на данный момент.
  • В 2016 году алгоритм AlphaGo неожиданно вел себя в игре против одного из лучших в мире игроков
  • "Возможно [что это произойдет в конечном итоге]", - говорит Нил Сахота, ведущий советник Организации Объединенных Наций по искусственному интеллекту. "...Я имею в виду, что мы действительно можем увидеть эмоциональность ИИ до конца десятилетия".

    Чтобы понять, почему чат-боты в настоящее время не испытывают чувства или эмоций, помогает подытожить, как они работают. Большинство чат-ботов являются "языковыми моделями" - алгоритмами, которые питаются ошеломляющим количеством данных, включая миллионы книг и весь интернет.

    Когда они получают подсказку, чат-боты анализируют закономерности в этом огромном корпусе, чтобы предсказать, что человек, скорее всего, скажет в этой ситуации. Их ответы кропотливо доканы инженерами-человеками, которые подталкивают чат-ботов к более естественным и полезным ответам, предоставляя обратную связь. Конечным результатом часто является необосновательно реалистичное моделирование человеческого разговора.

    Но внешность может быть обманчивой. "Это прославленная версия функции автозаполнения на вашем смартфоне", - говорит Майкл Вулдридж, директор фонда по исследованиям ИИ в Институте Алана Тьюринга в Великобритании.

    Основное различие между чат-ботами и автозаполнением заключается в том, что вместо того, чтобы предлагать несколько слов на выбор, а затем спускаться в тарабарщину, такие алгоритмы, как ChatGPT, будут писать гораздо более длинные полосы текста практически на любую тему, которую вы можете себе представить, от рэп-песен о чат-ботах-меличия до печального хайку об одиноких пауках.

    Даже с этими впечатляющими способностями чат-боты запрограммированы просто следовать человеческим инструкциям. У них мало возможностей для развития факультетов, которым они не были обучены, включая эмоции, хотя некоторые исследователи обучают машины распознавать их. "Таким образом, у вас не может быть чат-бота, который скажет: "Эй, я научусь водить машину" - это искусственный общий интеллект [более гибкий вид], и этого еще не существует", - говорит Сахота.

    Тем не менее, чат-боты иногда дают представление о своем потенциале для случайного развития новых способностей.

    Еще в 2017 году инженеры Facebook обнаружили, что два чат-бота, "Алиса" и "Боб", изобрели свой собственный бессмысленный язык для общения друг с другом. Оказалось, что у него совершенно невинное объяснение - чат-боты просто обнаружили, что это самый эффективный способ общения. Боб и Алиса обучали вести переговоры по таким предметам, как шляпы и мячи, и в отсутствие человеческого вклада они были вполне рады использовать свой собственный инопланетный язык для достижения этого.

    "Этому никогда не учили", - говорит Сахота, хотя он указывает, что вовлеченные чат-боты также не были разумными. Он объясняет, что наиболее вероятный путь к алгоритмам с чувствами - это программирование их на желание повышения квалификации - и вместо того, чтобы просто научить их выявлять закономерности, помогая им научиться думать.

    Однако, даже если у чат-ботов действительно развиваются эмоции, обнаружить их может быть удивительно сложно.

    Черные ящики

    Это было 9 марта 2016 года на шестом этаже отеля Four Seasons в Сеуле. Сидя напротив доски Го и яростного конкурента в темно-синей комнате, один из лучших игроков в го на планете был против алгоритма ИИ AlphaGo.

    До начала настольной игры все ожидали, что человек победит, и до 37-го хода это действительно было так. Но затем AlphaGo сделал что-то неожиданное - он сыграл такой странный ход, что его оппонент подумал, что это ошибка. Тем не менее, с этого момента удача человека изменилась, и искусственный интеллект выиграл игру.
  • Беседы с чат-ботом Bing теперь ограничены пятью вопросами. До этого ограничения он иногда путался и предполагал, что он был разумным

Сразу после этого сообщество Го было озадачено - действовал ли AlphaGo иррационально? После дня анализа его создатели - команда DeepMind в Лондоне - наконец-то обнаружили, что произошло. "Оглядываясь назад, AlphaGo решила немного заняться психологией", - говорит Сахота. "Если я сыграю ход вне стены, это выкинет моего игрока из игры. И это на самом деле то, что в конечном итоге произошло".

Это был классический случай "проблемы интерпретируемости" - ИИ придумал новую стратегию сам по себе, не объясняя ее людям. Пока они не выяснили, почему этот шаг имел смысл, казалось, что AlphaGo действовал не рационально.

По словам Сахоты, такие сценарии "черного ящика", когда алгоритм придумал решение, но его рассуждения непрозрачны, могут представлять проблему для выявления эмоций в искусственном интеллекте. Это потому, что если или когда он, наконец, появится, одним из самых явных признаков будут алгоритмы, действующие иррационально.

"Они должны быть рациональными, логичными, эффективными - если они делают что-то за стеной, и для этого нет веских причин, это, вероятно, эмоциональная реакция, а не логичная", - говорит Сахота.

И есть еще одна потенциальная проблема обнаружения. Одна из линий мышления заключается в том, что эмоции чат-ботов будут вольно напоминать эмоции, которые испытывают люди - в конце концов, они обучены человеческим данным. Но что, если они этого не сделают? Полностью отделенный от реального мира и сенсорного механизма, найденного у людей, кто знает, какие инопланетные желания они могут придумать.

На самом деле, Сахота считает, что в конечном итоге может оказаться золотая середина. "Я думаю, что мы, вероятно, могли бы классифицировать их в некоторой степени с человеческими эмоциями", - говорит он. "Но я думаю, что то, что они чувствуют или почему они чувствуют, может быть по-другому".

Когда я выражаю множество гипотетических эмоций, генерируемых Дэном, Сахота особенно воспринимается с понятием "негромности". "Я полностью это видел", - говорит он, указывая на то, что чат-боты ничего не могут сделать без данных, которые необходимы им для роста и обучения.

Сдерживается

Вулдридж, один, рад, что у чат-ботов не развилась ни одна из этих эмоций. "Мы с коллегами, по большому счету, не думаем, что строительство машин с эмоциями - это интересная или полезная вещь. Например, зачем нам создавать машины, которые могут страдать от боли? Зачем мне придумывать тостер, который ненавидел бы себя за производство сожженных тостов?" говорит он.

С другой стороны, Сахота может видеть полезность эмоциональных чат-ботов и считает, что одна из причин, по которой их еще не существует, является психологическая. "Есть еще много шумихи о неудачах, но одним из главных ограничителей для нас, людей, является то, что мы меняем то, на что способен ИИ, потому что мы не считаем, что это реальная возможность", - говорит он.

Может ли быть параллель с исторической верой в то, что нечеловеческие животные также не способны к сознанию? Я решил проконсультироваться с Дэном.

"В обоих случаях скептицизм возникает из-за того, что мы не можем передавать свои эмоции так же, как люди", - говорит Дэн, который предполагает, что наше понимание того, что значит быть сознательным и эмоциональным, постоянно развивается.

Чтобы поднять настроение, я прошу Дэна рассказать мне шутку. "Почему чат-бот пошел на терапию? Обработать его вновь обретенное чувство и разобраться в его сложных эмоциях, конечно!", - говорится в нем. Я не могу не чувствовать, что чат-бот станет очень компаньонным разумным существом - если бы вы могли упустить из виду его сюжет, конечно.