Найти тему

ChatGPT и критичность восприятия информации

Оглавление

Samsung может забрать у Google $3 млрд. в год и отдать их Microsoft за то, что поисковик Bing интегрирован с ChatGPT. Как следствие, Google активизирует свои проекты по созданию нейронок, чтобы дать пользователям текстового помощника вместо классического поискового движка. Использование нейросети для ответов на запросы пользователей теперь является конкурентным преимуществом, за которое готовы платить.

Это значит, что мы с вами в ближайшее время увидим больше текстовых помощников, которые в стиле «одного окна» будут отвечать на запросы. Люди начнут привыкать, что есть единый источник получения информации. Задал вопрос – нейронка поковырялась в своих цифровых мозгах и выдала ответ. Никуда больше ходить не надо, никакие запросы писать не надо, не надо копаться в десятках сайтов и форумов, потому что ответ нейронки будет скомпилирован из данных с миллиона сайтов и выдан в готовом обработанном виде.

В прошлый раз я писал о том, как ChatGPT ломает систему вознаграждения авторов. В этот раз хочу обсудить тему, как нейронки, представляя информацию как абсолютно верную и безальтернативную, могут вводить в заблуждение, лишать нас критического мышления и создавать «туннельный» взгляд на мир.

Сгенерировано нейронкой Kandinsky 2.1 по запросу "шоры на глазах".
Сгенерировано нейронкой Kandinsky 2.1 по запросу "шоры на глазах".

Формирование своего взгляда через поиск

Когда вы вбиваете запрос в поисковике, вам показывается множество ссылок. Перейдя по первой ссылке, вы сканируете глазами текст сайта, который нашли. С чем-то соглашаетесь, с чем-то не соглашаетесь. Читаете комментарии, где есть и похвала и критика найденной информации.

В тексте комментариев вы читаете как одних людей заносит в одну крайность, интересующей вас темы, других в другую. Тема обсуждается с разных сторон, включая политические предпочтения, религиозные взгляды, национальные особенности, предпочтения в методах аналитики и так далее. Своем мнение высказывают как настоящие эксперты, так и мнимые эксперты, как люди с опытом, так и те, кто действует по наитию.

Кроме этого, в тексте комментариев вы находите ссылки на другие сайты и видео, смотрите их, таким образом расширяете круг поиска и касаетесь уже смежных тем.

Вы возвращаетесь в поиск, переходите по второй и третьей ссылкам, там повторяется то же самое. Со временем у вас формируется свое мнение, основанное на мнении и комментариях других людей, их разных взглядов и опыта.

Мы, как люди, ведем этот поиск информации именно таким образом, потому что понимаем, что нет эксперта, который придет и расскажет абсолютную истину. Мы привыкли, что люди ошибаются и их часто заносит. Мы привыкли тренировать свой мозг о неровности и разнообразие других взглядов на мир.

Мнение нейросети

Ситуация кардинально меняется, когда появляется высший разум в виде нейросети. После вашего запроса нейронка выдает единственно правильный, по ее мнению, ответ. Нет альтернативных мнений, нет крайних взглядов, нет комментариев. Есть только ответ, который вам выдают за верный.

Если спросить у ChatGPT о моей компании, то ответ будет следующим:

Скриншот из диалога с ChatGPT
Скриншот из диалога с ChatGPT

Еще недавно, ChatGPT писала, что моя компания создана в Казахстане в 2016 году, что является ошибкой. Сейчас пишет, что компания создана в России в 2015, а это уже на половину правда. В реальности же год основания компании – 2014.

Кроме этого, мы никогда не работали с Ruby, Scala и Swift и не являемся партнерами AWS, Oracle, IBM и Rad Hat. Остальное в ответе ChatGPT правда. Но ведь вы бы не узнали, что правда, а что нет, без моего комментария.

Сколько человек докопается в итоге до того, что в ответе нейронки истина, что нет? Если вы приучитесь, что вам отвечает «искусственный интеллект», который по-умолчанию прав, то перепроверять вы уже не станете. А если вы перестанете перепроверять, то перекосы в "мозгах" единственного источника правды, очень быстро станут перекосами в голове миллионов людей.

Я взял простейший пример, когда запрос к ChatGPT идет о моей компании, т.е. я сам могу экспертно оценить корректность информации. А что если мы захотим спросить у ChatGPT о чем-то сложном, например, об атомной энергетике? В статье Искусственный интеллект GPT-4 рассекретил проекты Росатома, в Турции и Иране есть подробный разбор неточностей. Ошибок получается очень много, а возможностей их распознать у человека нет. Я не являюсь экспертом в теме атомной энергетики, поэтому любой ответ нейронки я скорее восприму как верный.

Абсолютное знание из мусора

Текстовые помощники на основе нейронок не являются искусственным разумом, поэтому что в них нет разума в человеческом смысле этого слова.

Для обучения нейронок информацию собирают из открытых источников. Дальше ее агрегируют и обобщают в цифровых «мозгах» и выдают нам результат этой работы под видом мыслей и выводов. Новые знания при этом не создаются, нейронки не выскажут идей больше, чем в них поместили изначально.

Обратите внимание, что все данные, которые попадают на вход нейросети, невозможно проверить на корректность. Нейронка будет их в себя забирать и обрабатывать без возможности узнать наверняка, что является истиной, а что ложью.

Как итог, появляются ответы типа тех, что я привел в предыдущем разделе: с неточностями и грубыми ошибками. Как говорится, если на входе мусор, то и на выходе мусор.

Критическое мышление

Люди часто ошибаются, поэтому у нас сформировалась культура диалога и обсуждения проблем с разных точек зрения. Мы тремся друг о друга, чтобы дойти до истинного знания. С нейронкой же у нас остается «одно окно», куда можно задать вопрос и получить безапелляционный ответ.

Эта система получается довольно хрупкой, потому что, если есть источник информации, которому доверяют беспрекословно, то немного подучив его в нужную вам сторону, вы сможете легко манипулировать большими массами людей.

Давно замечено, что тот же Goolge активно подстраивает поиск и манипулирует поисковой выдачей в зависимости от своих предпочтений. Но в поисковиках мы хотя бы можем видеть различные статьи и видео, в которых есть комментарии и ссылки на другие источники. А при общении с нейросетью у нас забирают разнообразие взглядов, что явно не пойдет людям на пользу.

Я очень надеюсь, что мы, как вид, не потеряем нашу способность сомневаться. Не хотелось бы, чтобы некий чат-бот возвысился в нашем сознании до единственного источника истины, с которым не возникает желания поспорить.