Найти в Дзене
Наука

Почему не стоит доверять чат-ботам

Оглавление

Идет гонка за преобразование поиска. И Microsoft только что забила автогол со своим новым поисковым чат-ботом Bing, который, помимо других тревожных результатов, пугал первых пользователей угрозами смерти.

Поисковые чат-боты — это инструменты на базе искусственного интеллекта, встроенные в поисковые системы, которые напрямую отвечают на запрос пользователя, а не предоставляют ссылки на возможный ответ. Пользователи также могут вести с ними довольно содержательные беседы.

Технология обещает упростить поиск. Больше не нужно пролистывать страницы результатов, пытаясь собрать воедино ответ на свой вопрос. Вместо этого чат-бот синтезирует для вас правдоподобный ответ. Например, вы можете попросить стихотворение к 90-летию вашей бабушки в стиле определенного поэта и получить в ответ какой-нибудь шуточный стих.

Партнерство технологического гиганта Microsoft с OpenAI на сумму 10 миллиардов долларов США предоставляет первому эксклюзивный доступ к ChatGPT, одному из последних и лучших чат-ботов. Так почему же все идет не по плану?

Bing сходит с ума

Фото: Midjourney. Bing предлагал выйти замуж журналисту New York Times
Фото: Midjourney. Bing предлагал выйти замуж журналисту New York Times

В течение 48 часов после выпуска миллион человек присоединились к списку ожидания, чтобы попробовать новую фишку.

Google ответил собственным объявлением, продемонстрировав поисковый чат-бот с величественным названием Bard. Демонстрация Google стала пиар-катастрофой.

На корпоративном мероприятии Bard дал неправильный ответ на вопрос, и цена акций дочерней компании Google, Alphabet, резко упала. Инцидент уничтожил более 100 миллиардов долларов США от общей стоимости компании.

С другой стороны, для Microsoft все выглядело хорошо. Так продолжалось до тех пор, пока первые пользователи Bing не начали сообщать о своем опыте. И некторые были готовы определять поведение чат-бота как у сумасшедшего. То есть, иногда он работает хорошо. А иногда — мягко говоря странно. Например, он угрожал убить профессора Австралийского национального университета. В другом случае, предлагал брак журналисту New York Times. Или попытался обмануть одного пользователя, предложив думать, что на дворе еще 2022 год.

Это обнажает фундаментальную проблему с чат-ботами: они обучаются, вливая в себя значительную часть Интернета.

-3

Это может включать всю Википедию, весь Reddit, большую часть социальных сетей и новостей. Они работают как автозаполнение на вашем телефоне, которое помогает предсказать следующее наиболее вероятное слово в предложении. Из-за своего масштаба чат-боты могут завершать целые предложения и даже абзацы.

Но они по-прежнему отвечают тем, что вероятно, а не тем, что верно.

Добавлены фильтры, чтобы предотвратить повторение оскорбительного или незаконного контента в Интернете, но их легко обмануть.

Еще одно правило, которое раскрыл сам ИИ, хотя и не должен был, заключается в том, что он должен «избегать расплывчатости, споров или ответов не по теме». Тем не менее, Кевин Руз, журналист New York Times, на котором чат-бот хотел жениться, описал его как

«капризного, маниакально-депрессивного подростка, против своей воли застрявшего внутри второсортной поисковой системы».

Моя теория относительно того, почему Сидней может вести себя таким образом — и я повторяю, что это только теория, поскольку мы не знаем наверняка — состоит в том, что Bing не построен на чат-боте OpenAI GPT-3 (который поддерживает популярный ChatGPT). Скорее всего, она может быть построена на еще не вышедшей GPT-4.

Считается, что GPT-4 имеет гораздо больше параметров по сравнению с предыдущей версией. GPT-4, вероятно, будет намного более способным.

Удивительно, но Microsoft не проявила большой озабоченности. Компания опубликовала сообщение, что 71% первых пользователей в 169 странах одобрили чат-бот. И, в отличие от Google, цена акций Microsoft еще не упала и пользователи все еще стремятся попробовать Bing.

Когда новизна спадает

Фото: Midjourney
Фото: Midjourney

В истории есть еще одна интрига, и она касается того, что мы будем считать правдой. Если поисковые чат-боты взлетят (что кажется вероятным), но продолжат функционировать так же (что также кажется вероятным), «правда» станет еще более неосязаемой концепцией.

Интернет полон фейковых новостей, теорий заговора и дезинформации. Стандартный поиск, по крайней мере, дает нам возможность узнать правду.

Но что, если нашим «надежным» поисковым системам больше нельзя доверять?

Кроме того, сложно не вспомнить Tay — чат-бота Microsoft с искусственным интеллектом 2016 года, который обратился к расизму и ксенофобии в течение дня после запуска. Он, казалось, включил в себя некоторые из худших человеческих черт.

Новые технологии должны, в первую очередь, не приносить вред человеку. Модели, лежащие в основе чат-ботов, могут становиться все сложнее, опираясь на все больше и больше данных, но само по себе это не улучшит их производительность. Трудно сказать, где мы окажемся, если не сможем построить более эффективные фильтры.