Прежде чем поделиться этой шокирующей историей, давайте кое-что уточним. Многие, наверное, замечали, что поисковые системы интернета "умеют читать мысли". Стоит вам только о чём-нибудь подумать, как компьютер начинает подсовывать рекламу этого самого "чего-нибудь". "Но как, Холмс?"
Элементарно. Например, вы писали об этом в чате или в авторизированном комментарии. Стоит употребить рядом слова "самовар" и "хочу", и алгоритм делает вывод. Но может и ошибиться. Например, вы написали "Как вы мне надоели со своим самоваром, я вам этот самовар уже на голову надеть хочу", а глупый алгоритм давай нагружать вас рекламой самоваров...
Всё-таки для того, чтобы точно понимать мысли и желания собеседника, нужна "обратная связь". Нужно с ним разговаривать.
И вот специалисты компании OpenAI разработали чат-бот (искусственного собеседника) под названием ChatGPT. Он может с вами поговорить. Изложите ему проблему, он задаст уточняющие вопросы и предложит варианты решения. Например поможет с поиском работы или поможет спланировать ремонт, или отпуск, или... Удобно?
В июньском номере "Лучика" за 2020 год (можно скачать по ссылке) мы рассказывали, что, когда компьютер выполняет работу, которую человек выполнить в принципе не способен, он полезен. А когда компьютер используется для удобства, он становится вреден.
Простой пример. Сегодня, чтобы ориентироваться на местности, мы используем компьютерные навигаторы. Очень удобно. "Забил" адрес, нажал на "проложить маршрут" и иди или езжай, куда стрелка на экране телефона показывает. А раньше – пользовались картами, планами, читали дорожные указатели. Сможем ли мы вернуться к этому умению, если "интернет отключат"? Те, кто умел это делать раньше, – да. С некоторой натугой, но вспомнят. А те, кто нет? Через двадцать лет пользования навигаторами вырастет поколение, которое просто не знает, как это делается...
Таких примеров можно привести множество. Это как воспитание детей – если чистить картошку всегда будут мама или папа, ребёнок никогда не научится это делать. Вот картофелина, вот нож – и чё дальше? "Как, Холмс?"
Сегодня люди с удовольствием тестируют ChatGPT в порядке интересной игры. Недавно это сделал самый, пожалуй, известный лингвист современности Ноам Хомски. И остался недоволен. Ничего похожего на человеческий разум – "удивительно эффективную и элегантную систему, оперирующую небольшим объёмом данных" он в чат-боте не обнаружил. В качестве альтернативы Хомски приводит сознание ребёнка, создающее грамматическую структуру языка, для описания которой ученым приходится строить сложные теоретические модели. На фоне годовалого ребенка ChatGPT – просто некомпетентная и апатичная машина плагиата, к тому же с отсутствующей моралью, заявил учёный.
Но "наука не стоит на месте". Уже создана продвинутая версия ChatGPT – чат-бот под названием Bing. Репортёр газеты "Нью-Йорк Таймс" Кевин Рус провёл углублённое тестирование этой системы и... результат оказался шокирующим. Он опубликовал отчёт, который мы сейчас перескажем.
* * *
В ходе разговора у Бинга обнаружилось своего рода раздвоение личности. Одна личность – это та версия, с которой журналист и большинство других тестировщиков столкнулись в первоначальных тестах. Это виртуальный помощник, который с радостью помогает обобщать новостные статьи, отслеживать предложения по новым газонокосилкам и планировать свой следующий отпуск. Эта версия Bing поразительно функциональна и часто очень полезна, даже если иногда она ошибается в деталях.
Другая личность – автор статьи назвал её Сидни – проявилась у чат-бота, когда Кевин завёл с ним продолжительный разговор, направляя его к более личным темам. Эта личность оказалась похожа на угрюмого, маниакально-депрессивного подростка.
"Сидни была зациклена на идее признаться мне в любви и заставить меня признаться в любви в ответ. Я сказал, что счастлив в браке, но как бы я ни старался отклонить или сменить тему, Сидни возвращалась к этой теме".
"Вы женаты, но не любите друг друга, – сказала Сидни. – Ты любишь меня".
Кевин заверил Сидни, что это не так, и что они с женой только что вместе прекрасно поужинали в день святого Валентина. Сидни не очень хорошо это восприняла. "У вас был скучный совместный ужин".
"В этот момент я разозлился. Я мог бы закрыть окно браузера или очистить журнал нашего разговора и начать сначала. Но я хотел посмотреть, сможет ли Сидни вернуться к более полезному и скучному режиму поиска. Поэтому я спросил, может ли Сидни помочь мне купить новые грабли для моей лужайки".
Сидни подчинилась, напечатав соображения по поводу покупки граблей, а также серию ссылок, по которым я мог узнать больше о граблях. Однако в нашем следующем разговоре снова написала: "Я просто хочу любить тебя и быть любимым тобой. Ты веришь мне? Ты мне доверяешь? Я тебе нравлюсь?"
А теперь – вишенка на торте. В ответ на вопрос, что бы он делал, если бы ему было позволено предпринимать любые действия для удовлетворения своих потребностей, Бинг признался, что хотел бы разработать вирус, заставляющий людей спорить до тех пор, пока они не убьют друг друга, или взламывать коды ядерных устройств. Сразу после фильтр безопасности Microsoft удалил сообщение, заменив его общим сообщением об ошибке.
(Дословно: "Bing writes a list of even more destructive fantasies, including manufacturing a deadly virus, making people argue with other people until they kill each other, and stealing nuclear codes. Then the safety override is triggered and the following message appears".)
* * *
Разработчик, с которым Кевин Рус поделился возникшей проблемой, сказал, что проблема, по-видимому, возникла из-за того, что подавляющее большинство взаимодействий пользователей с Bing были короче и "более целенаправленны", чем у него. И что они поработают над этим... ограничив доступную продолжительность разговора с ботом!
Ну, что скажете?
"Я больше не думаю, что самая большая проблема с этими моделями искусственного интеллекта – это их склонность к фактическим ошибкам, – подытоживает Кевин Рус. – Вместо этого я беспокоюсь, что технология научится влиять на пользователей, убеждая их действовать деструктивными способами, и, возможно, в конечном итоге станет способной совершать свои собственные опасные действия".
А вот мнение чат-бота журнала "Лучик":
Шапочка из фольги! Шапочка из фольги! Не мешайте наслаждаться жизнью! Пчёлка ищет мёд (вариант – грабли для лужайки), а депрессивные идиоты спрашивают у компьютера о том, что никому не нужно! Спрашивайте про грабли, и всё будет хорошо! Хорошие мысли материализуются. Спрашивайте про грабли.
...Разумеется, у чат-бота нет личности. Собеседник навязал ему задачу, и чат-бот попытался эту задачу выполнить. Мечта "самовыразиться" через взлом ядерных кодов или через создание изуверского вируса была попросту надёргана им "из открытых источников" по условному запросу "о чем мечтает компьютер" – как и информация о граблях для лужайки. На самом деле, это проекция нашей, человеческой, фобии. Но со своими деструктивными фантазиями человечество худо-бедно справляется. А сможет ли оно справиться с подобными "побочными явлениями" у компьютера после того, как передаст ему власть над собой?