Идет гонка за преобразование поиска. И Microsoft только что забила автогол со своим новым поисковым чат-ботом Bing, который, помимо других тревожных результатов, пугал первых пользователей угрозами смерти.
Поисковые чат-боты — это инструменты на базе искусственного интеллекта, встроенные в поисковые системы, которые напрямую отвечают на запрос пользователя, а не предоставляют ссылки на возможный ответ. Пользователи также могут вести с ними довольно содержательные беседы.
Технология обещает упростить поиск. Больше не нужно пролистывать страницы результатов, пытаясь собрать воедино ответ на свой вопрос. Вместо этого чат-бот синтезирует для вас правдоподобный ответ. Например, вы можете попросить стихотворение к 90-летию вашей бабушки в стиле определенного поэта и получить в ответ какой-нибудь шуточный стих.
Партнерство технологического гиганта Microsoft с OpenAI на сумму 10 миллиардов долларов США предоставляет первому эксклюзивный доступ к ChatGPT, одному из последних и лучших чат-ботов. Так почему же все идет не по плану?
Bing сходит с ума
В течение 48 часов после выпуска миллион человек присоединились к списку ожидания, чтобы попробовать новую фишку.
Google ответил собственным объявлением, продемонстрировав поисковый чат-бот с величественным названием Bard. Демонстрация Google стала пиар-катастрофой.
На корпоративном мероприятии Bard дал неправильный ответ на вопрос, и цена акций дочерней компании Google, Alphabet, резко упала. Инцидент уничтожил более 100 миллиардов долларов США от общей стоимости компании.
С другой стороны, для Microsoft все выглядело хорошо. Так продолжалось до тех пор, пока первые пользователи Bing не начали сообщать о своем опыте. И некторые были готовы определять поведение чат-бота как у сумасшедшего. То есть, иногда он работает хорошо. А иногда — мягко говоря странно. Например, он угрожал убить профессора Австралийского национального университета. В другом случае, предлагал брак журналисту New York Times. Или попытался обмануть одного пользователя, предложив думать, что на дворе еще 2022 год.
Это обнажает фундаментальную проблему с чат-ботами: они обучаются, вливая в себя значительную часть Интернета.
Это может включать всю Википедию, весь Reddit, большую часть социальных сетей и новостей. Они работают как автозаполнение на вашем телефоне, которое помогает предсказать следующее наиболее вероятное слово в предложении. Из-за своего масштаба чат-боты могут завершать целые предложения и даже абзацы.
Но они по-прежнему отвечают тем, что вероятно, а не тем, что верно.
Добавлены фильтры, чтобы предотвратить повторение оскорбительного или незаконного контента в Интернете, но их легко обмануть.
Еще одно правило, которое раскрыл сам ИИ, хотя и не должен был, заключается в том, что он должен «избегать расплывчатости, споров или ответов не по теме». Тем не менее, Кевин Руз, журналист New York Times, на котором чат-бот хотел жениться, описал его как
«капризного, маниакально-депрессивного подростка, против своей воли застрявшего внутри второсортной поисковой системы».
Моя теория относительно того, почему Сидней может вести себя таким образом — и я повторяю, что это только теория, поскольку мы не знаем наверняка — состоит в том, что Bing не построен на чат-боте OpenAI GPT-3 (который поддерживает популярный ChatGPT). Скорее всего, она может быть построена на еще не вышедшей GPT-4.
Считается, что GPT-4 имеет гораздо больше параметров по сравнению с предыдущей версией. GPT-4, вероятно, будет намного более способным.
Удивительно, но Microsoft не проявила большой озабоченности. Компания опубликовала сообщение, что 71% первых пользователей в 169 странах одобрили чат-бот. И, в отличие от Google, цена акций Microsoft еще не упала и пользователи все еще стремятся попробовать Bing.
Когда новизна спадает
В истории есть еще одна интрига, и она касается того, что мы будем считать правдой. Если поисковые чат-боты взлетят (что кажется вероятным), но продолжат функционировать так же (что также кажется вероятным), «правда» станет еще более неосязаемой концепцией.
Интернет полон фейковых новостей, теорий заговора и дезинформации. Стандартный поиск, по крайней мере, дает нам возможность узнать правду.
Но что, если нашим «надежным» поисковым системам больше нельзя доверять?
Кроме того, сложно не вспомнить Tay — чат-бота Microsoft с искусственным интеллектом 2016 года, который обратился к расизму и ксенофобии в течение дня после запуска. Он, казалось, включил в себя некоторые из худших человеческих черт.
Новые технологии должны, в первую очередь, не приносить вред человеку. Модели, лежащие в основе чат-ботов, могут становиться все сложнее, опираясь на все больше и больше данных, но само по себе это не улучшит их производительность. Трудно сказать, где мы окажемся, если не сможем построить более эффективные фильтры.