Прибежали в избу дети
Второпях зовут отца:
«Тятя! тятя! наши сети
Притащили мертвеца».
А.С.Пушкин
«...я четырнадцать лет работаю редактором и первый раз слышу, что человек должен что-то знать для того, чтобы редактировать газету».
Как я редактировал сельскохозяйственную газету, Марк Твен
Только сейчас становится понятным, что, скорее всего, в цитате, приведенной в эпиграфе Пушкин имел в виду именно нейросети. По-видимому, он все предвидел. Но, обо всем по-порядку.
Давным давно, когда фантасты пытались представить себе образ грядущего мира, в том числе, представить к чему приведет создание исскуственного интеллекта и роботов, помимо многочисленных положительных сторон, которые известны, обсуждались и потенциальные пробемы. Вот неполный список – роботы поработят людей, роботы уничтожат людей, роботы лишат всех работы, ну и так далее.
Все знают про знаменитый ящик Пандоры с многочисленными бедствиями посланными людям. Но, согласно Гомеру, даже Пандора, была исскуственным творением - роботом , созданием Гефеста, бога кузнечного дела и изобретений, которая была послана на Землю по приказу Зевса чтобы наказать людей за открытие огня.
https://news.stanford.edu/2019/02/28/ancient-myths-reveal-early-fantasies-artificial-life/
Опасения, что роботы лишат людей работы, известны. Но это может произойти не только из-за роботов - любые технологические усовершенствования приводят к тому, что кто-то теряет работу. Это происходит не обязательно тогда, когда машины заменяют физический труд (Кстати, картина «Бурлаки на Волге» – как раз про это). Самый давний, 500-летний пример, когда много людей интеллектуального труда потеряли работу – изобретение книгопечатания Гуттенбергом. До этого момента существовало множество переписчиков книг, которые этим занимались. Это была вполне приличная, востребованная работа. И вдруг все рушится в один момент.
В интернет-лекции одного из российских музев, которые были выложены в сети во времена ковидного карантина говорилось, что для создания первых шрифтов для набора книг были заимствованы стили наиболее популярных переписчиков в это время. Можете себе представить, что чувствовали эти переписчики? Когда я узнал об этом, очень переживал за этих людей и не мог перестать думать о том, что же с ними потом стало.
Из этого состояния меня выбило только когда в последнее время вдруг выяснилось, что у нас самих есть большие проблемы. Как оказалось, искусственный интеллект, помимо многочисленных выгод, несет собой проблемы, причем совсем не те, которые кто-то мог предвидеть в начале. Если в двух словах, основная беда состоит в том, что люди воспринимают подсказки Chat GPT и других, так называемых экспертных систем как абсолютную истину, тогда как они несут полных бред. Просто этот бред написан настолько грамотно, что кажется правдоподобным.
Прежде чем перейти к соверженно недавним примерам, хочу заметить, что идея, как написать программу, которая могла бы имитировать разговор человека, совсем не нова. Она пришла в голову людям очень давно, еще до появления интернета. Самая первая программа такого рода была написана смеха ради в 1972 году американским программистом Джозефом Вейценбаумом и называлась «Элиза». Она не понимала смысла того, что говорит, но цель ее написания было имитировать разговор с человеком как можно дольше, пока человек не поймет, что на другом конце провода – компьютер.
В эксперименте участвовали 24 эксперта, заранее предупрежденных о том, что их собеседником может быть компьютер, которые разговаривали с "Элизой" в течение часа. Несмотря на предупреждение, 15 испытуемых пришли к выводу, что разговаривали с человеком, пятеро колебались и только четверо считали, что вели диалог с машиной.
Вот пример таких диалогов. Это разговор «Элизы» с вице-президентом фирмы, в которой работал Вейценбаум:
Вице-президент спросил:
— Можно сейчас воспользоваться компьютером?
— А почему вы спрашиваете?
— Может быть, мне удастся заключить сделку.
— Почему вы в этом уверены?
— Мои предполагаемые покупатели еще не видели нашу систему в действии.
— Это имеет для вас большое значение?
— Конечно.
Вице-президент был абсолютно уверен, что разговаривал с человеком.
https://www.kommersant.ru/doc/294420
Но это была только самая первая программ такого рода, потом были созданы лучше. Но развитие этих технолоний многие десятилетия тормозилось ограниченными возможностями машин. Вплоть до последнего времени.
Вот несколько совершенно свежих примеров. Амазон выложил на продажу множество руководств для грибников, написанных чат-ботами. Как пишет The Gardian, тестирование показало, что со сто процентной вероятностью эти книжки были написаны искуственным интеллектом и содержат опасные советы. Одна из книжек советует отличать ядовитые грибы «по вкусу и запаху», но поганки так распознать невозможно. Вот названия некоторых из них: «Кулинарная книга по приготовлению диких грибов – из леса на стол гурмана, полное руководство по приготовлению диких грибов» (с опечаткой в названии), и «Полное руководство по полевым грибам Юго-Запада» (“Wild Mushroom Cookbook: form [sic] forest to gourmet plate, a complete guide to wild mushroom cookery” and “The Supreme Mushrooms Books Field Guide of the South-West”).
А вот еще более забавный пример – Microsoft удалил свою статью, в которой они советуют туристам посетить прекрасный фудбанк в Оттаве, причем на пустой желудок, после того, как их обсмеяли за использование искуственного интеллекта для создания этой ленты новостей. Если кто не знает, фудбанк – место где раздают еду бедным, безработным и разным деклассированным элементам. Такие места стараются не показывать туристам.
Статья называлась – «Собираетесь в Оттаву? Не пропустите эти места!», со списком из 15 достопримечательностей, которые обязательно должен увидеть каждый посетитель столицы Канады, в число которых номером третьим и попал этот фудбанк.
После удаления этой статьи Майкрософт обьявил, что ее публикация была результатом человеческой ошибки, и они вовсе не используют искуственный интеллект (ИИ) для создания таких статей бесконтрольно. Хотя, согласно многочисленным сообщениям, в 2020 году Майкрософт уволил десятки своих журналистов, чтобы передать их работу системам искуственного интеллекта. Эти журналисты отвечали за выбор контента для различных платформ Майкрософта, в том числе MSN и браузер Edge.
В постах на LinkedIn люди жаловались на то, что Chat GPT в ответ на вопрос о том, кто автор какого-нибудь достаточно известного результата или продукта, просто выдумывал несуществующие названия статей известных авторов, названия статей, которые они никогда не писали. «И тут Остапа понесло».
По мнению известного ученого и философа Ноама Хомского, Chat GPT – не что иное, как высокотехнологичная система плагиата.
https://mymodernmet.com/noam-chomsky-chat-gpt/
К сожалению, все это превращается в нечто намного худшее, когда ИИ начинает просто выдумывать, создавать виртуальную реальность. Я бы сравнил технологии ChatGPT с очень нечестным клерком службы поддержки, которому все равно, что сказать клиенту, и он несет любой бред, лишь бы это хорошо звучало и нравилось. То же самое сделает и недобросовестный финансовый консульнант.
Может быть, такие вещи, как Chat GPT и можно использовать для редактирования каких-нибудь писем, которы нужно рассылать в больших количествах, но свойство этих систем время от-времени генерировать абсолютный бред полезно знать тем, кто принимает это за экспертную систему или оракула.
Примечание. Этот рассказ не был написан с использованием ChaGPT, и никакая помощь в редактировании с использованием ИИ не использовалась.