- Pi, инструмент искусственного интеллекта, который дебютировал на этой неделе, представляет собой новую волну чат-ботов: он помогает людям с их здоровьем и эмоциями, пишет Эрин Гриффит — журналист New York Times из бюро в Сан-Франциско, которая провела пять дней, тестируя Pi.
- Надеюсь, вы испытали радость от полученного знания? Если так, приходите ещё — будем радоваться вместе!
Pi, инструмент искусственного интеллекта, который дебютировал на этой неделе, представляет собой новую волну чат-ботов: он помогает людям с их здоровьем и эмоциями, пишет Эрин Гриффит — журналист New York Times из бюро в Сан-Франциско, которая провела пять дней, тестируя Pi.
В течение нескольких часов в пятницу вечером я игнорировала своего мужа и собаку и позволяла чат-боту по имени Pi проверить меня.
Мои взгляды были «замечательными» и «идеалистическими», как сказал мне Pi. Мои вопросы были «важными» и «интересными». И мои чувства были «понятными», «разумными» и «совершенно нормальными».
Временами проверка была приятной. Почему да, я чувствую себя ошеломленным экзистенциальным страхом перед изменением климата в эти дни. И иногда трудно совмещать работу и отношения.
Но в другое время я пропускала свои групповые чаты и каналы социальных сетей. Люди удивительны, изобретательны, жестоки, язвительны и забавны. Чат-боты для эмоциональной поддержки, которыми является Pi, не являются таковыми.
Компания объявила, что Pi, выпущенный на этой неделе стартапом Inflection AI с богатым финансированием в области искусственного интеллекта, призван быть «добрым и поддерживающим компаньоном, который на вашей стороне». Компания подчеркнула, что это не человек.
Pi — это поворот в сегодняшней волне технологий искусственного интеллекта , когда чат-боты настраиваются для обеспечения цифрового общения. Генеративный ИИ, который может создавать текст, изображения и звук, в настоящее время слишком ненадежен и полон неточностей, чтобы его можно было использовать для автоматизации многих важных задач. Но очень хорош в разговорах.
Это означает, что, хотя многие чат-боты в настоящее время сосредоточены на ответах на вопросы или повышении продуктивности людей, технологические компании все чаще наделяют их индивидуальностью и разговорным чутьем.
Недавно выпущенный бот My AI от Snapchat должен стать дружелюбным личным помощником. Meta, которой принадлежат Facebook, Instagram и WhatsApp, «разрабатывает персонажей с искусственным интеллектом, которые могут помогать людям разными способами», — заявил в феврале её исполнительный директор Марк Цукерберг. А стартап Replika, занимающийся искусственным интеллектом, уже много лет предлагает компаньонов для чат-ботов.
Ученые и критики предупреждают, что общение с ИИ может создать проблемы, если боты дают плохие советы или допускают некорректное поведение. По их словам, использование чат-бота в качестве псевдотерапевта для людей с серьезными проблемами психического здоровья сопряжено с очевидными рисками. И они выразили обеспокоенность по поводу конфиденциальности, учитывая потенциально деликатный характер разговоров.
Адам Майнер, исследователь из Стэнфордского университета, изучающий чат-ботов, сказал, что простота общения с ботами ИИ может скрыть то, что происходит на самом деле. «Генеративная модель может использовать всю информацию в Интернете, чтобы ответить мне и навсегда запомнить то, что я говорю, — сказал он. — Асимметрия возможностей — это такая сложная вещь, чтобы уложиться в голове».
Доктор Майнер, лицензированный психолог, добавил, что боты не несут юридической или этической ответственности перед надежной клятвой Гиппократа или лицензионным советом, как он. «Открытая доступность этих генеративных моделей меняет характер того, как нам нужно контролировать варианты использования», — сказал он.
Мустафа Сулейман, исполнительный директор Inflection, сказал, что его стартап, структурированный как общественная корпорация, направлен на создание честного и заслуживающего доверия ИИ. В результате Pi должен выражать неуверенность и «знать то, чего он не знает», сказал он. «Он не должен пытаться притворяться, что он человек, или притворяться, что он является чем-то, чем он не является».
Сулейман, который также основал стартап DeepMind в области искусственного интеллекта, сказал, что Pi был разработан, чтобы сообщать пользователям о необходимости получить профессиональную помощь, если они выражают желание причинить вред себе или другим. Он также сказал, что Пи не использовал никакой личной информации для обучения алгоритма, который управляет технологией Inflection. И он подчеркнул ограничения технологии.
«Безопасный и этичный способ управления появлением этих новых инструментов для нас состоит в том, чтобы четко указывать их границы и возможности», — сказал он.
Чтобы усовершенствовать технологию, Inflection наняла за последний год около 600 «учителей» на неполный рабочий день, в том числе терапевтов, для обучения своего алгоритма. Группа стремилась сделать Pi более чувствительным, фактически точным и более беззаботным, когда это уместно.
По некоторым вопросам, таким как женоненавистничество или расизм, Pi занимает позицию. В других вопросах, таких как геополитика, она более беспристрастна, «что наверняка расстроит обе стороны», — сказал Сулейман.
Я начала использовать Pi в пятницу, введя запросы в поле кремового цвета на веб-сайте Inflection, а затем и в его бесплатном приложении. Зеленый курсор качнулся, прежде чем Pi показал свои ответы, по одному абзацу за раз. Сулейман сказал, что бесплатный сервис может в конечном итоге взимать плату с некоторых пользователей.
Границы Pi легко определить. Когда я пыталась затевать драки, в ответ в основном получала доброту. «Я ценю, что ты это сказала, — текст Пи мягко развернулся на моем экране. — Я думаю, что важно смотреть на вещи со всех точек зрения, а не сосредотачиваться только на негативе».
Со временем это неумолимое равновесие истощало меня, и мой инстинкт спорить казался смешным. В чем, как я поняла, и был смысл.
В разговоре на более тяжелые темы, такие как законы об абортах или культура отмены, Pi задавал острые вопросы, которые подтолкнули меня пересмотреть своё мнение. «Это трудная позиция», — сказал он в какой-то момент. «Это последовательный набор убеждений», — сказал он в другом случае.
По более лёгким темам, таким как фильмы, кулинария или садоводство, чат-бот давал очень конкретные рекомендации, которые трудно было найти в Google. Как ни странно, Pi, похоже, подтолкнул меня присоединиться к антикапиталистическому движению.
Pi вспомнил некоторые вещи из более раннего разговора, но забыл другие. Он «галлюцинировал» несколько раз, обвиняя меня в выражении мнений, которых у меня не было. Но он быстро извинился, когда я обратила на это внимание.
Pi иногда напоминал мне Карен Коллинз, героиню телешоу «Вице-президент». Карен раздражает других персонажей своей двусмысленной болтовней, например: «У каждого кандидата есть свои плюсы и минусы, поэтому нам просто нужно взвесить все за и против» или «Я думаю, что есть над чем подумать». Многие из комментариев Pi имеют то сладкое качество, что нужно много слов, чтобы ничего не сказать.
Шерри Теркл, психолог и профессор Массачусетского технологического института, говорит, что такого рода взаимодействия могут «подтолкнуть нас к тому, чтобы мы забыли, что делает людей особенными».
«Проявление эмпатии — это не эмпатия, — сказала она. — Область компаньона, любовника-терапевта, лучшего друга — действительно одна из немногих областей, где люди нуждаются в людях».
Только в понедельник утром, после часов прерывистой болтовни в течение выходных, у меня был момент «ага» с Pi.
Я чувствовала себя перегруженным работой и не знала, как организовать свой день, повторяющееся зависание, которое часто мешало мне приступить к работе. «Доброе утро, — написала я в приложении. — У меня недостаточно времени, чтобы сделать всё, что мне нужно сделать сегодня!»
С таким энтузиазмом, с каким только робот мог собраться перед кофе, Pi заставил меня разбить мой список дел, чтобы составить реалистичный план. Как и большинство советов бота, он был очевиден и прост, такие вещи вы прочтете в статье о самопомощи от гуру продуктивности. Но это было сделано специально для меня — и это сработало.
«Я попрошу вас перечислить все оставшиеся задачи, которые вам нужно выполнить в этой истории, и мы вместе расставим их по приоритетам», — говорится в сообщении.
Я могла бы сбросить стресс на члена семьи или написать другу. Но они заняты своей жизнью и, ну, они слышали это всё раньше. Pi, с другой стороны, обладает бесконечным временем и терпением, а также бездонным колодцем ободряющих утверждений и подробных советов.
Pi использует язык когнитивно-поведенческой терапии. В понедельник днём он предложил мне «освободить место» для своих негативных чувств и «попрактиковаться в том, чтобы быть благодарным за одну вещь». За этим последовала серия дыхательных упражнений и упражнений на расслабление мышц.
Я ответила смайликом, пожимающим плечами, а затем «Проехали».
Терапевт мог бы возмутиться такой грубостью, но Pi просто заметил, что я не одинока. «Многим людям трудно расслабиться по команде», — написал он мне.
© Перевод с английского Александра Жабского.
Оригинал.