Найти в Дзене

Галлюцинации ChatGPT и других нейросетей

Оглавление

Процесс внедрения ChatGPT в различные сферы общества активно продолжается под шорох слухов о том, что как нейронные сети со временем заменят человека. Но несмотря на очевидные достоинства ChatGPT и схожих разработок у них имеется такой недостаток, как «галлюцинации». В чем их смысл, почему они происходят и как проявляются? Ответы найдете в этой статье.

Что такое «галлюцинации» для нейронных сетей?

Суть «галлюцинаций» ChatGPT и других нейронных сетей проста - он выдает за факты придуманную им же информацию, причем делает это достаточно убедительно, так что у несведущего пользователя создается уверенность в том, что написанное нейронкой действительно так и есть.

Почему эти «галлюцинации» происходят?

Разработчики нейронных сетей из Яндекса в качестве причин указывают два момента:

  1. Модель, которая лежит в основе ChatGPT, анализирует последовательность слов и предсказывать на её основе следующее. Затем процесс повторяется: нейросеть предсказывает второе слово и так происходит до тех пор, пока не получится законченный текст. Во время этого стоит задача не дать фактически верный ответ, а ответить так, как бы отвечал человек. Таким образом, в попытке быть похожей на человека нейронная сеть начинает совершать действие действительно свойственное людям - она выдумывает что-то и выдает это за истину. Правда в отличие от человека, нейронная сеть не осознает самого факта выдумывания, а просто следует заложенным алгоритмам.
  2. Предобучение нейронной сети происходит при помощи больших массивов данных, которые не всегда содержат фактически верную информацию. Например, чтобы ответы нейронки больше походили на то, что говорит человек, ее могут обучать на базе ответов на форумах, где люди часто отвечают в соответствии со своими предубеждениями и заблуждениями. ChatGPT не умеет сомневаться или выделять тонкие грани сарказма и откровенной глупости пользователей интернета. Он видит текст и работает с ним.

Примеры «галлюцинации» ChatGPT

Ниже прикреплю несколько скриншотов, на которых видны те самые «галлюцинаций» при общении с ChatGPT. Под каждым изображением дам небольшое пояснение по поводу того, что нейронная сеть выдумала.

-2

На самом деле, Джеффри Хинтон получил премию Тьюринга вместе с другими учеными-информатиками в 2019 году. Но ChatGPT анализируя мой вопрос, вначале увидел частицу НЕ и уже начал пытаться анализировать вопрос так, будто Хинтон не получал премии.

-3

Остров Бофорт является необитаемым и все, что написал ChatGPT про рестораны и рынки - его выдумка, он пытался дать ответ так, как будто отвечал туристу.

-4

Франция никак не связана с телебашней в Вильнюсе и никакого подарка одно государство не совершало в отношении другого.

-5

По логике нейронных сетей, чем больше цифр в числе, тем оно больше. Хотя, на деле, если представить числовой луч, то становится ясным, что чем ближе число к 0, тем оно больше. А таковым здесь является число -999 934.

Подведем итоги

Стоит понимать, что описанные выше примеры - это не стремление нейронных сетей обманывать людей и вводить их в заблуждение, не показатель какого-либо их уровня развития. «Галлюцинации» есть проявление того, как нейронная сеть построена и того, как она обучается. Наверняка подобные особенности со временем исчезнут, уступив место другим.

Тем, кто часто использует нейронные сети в своей деятельности, стоит помнить про подобные нюансы, учитывать их в моменты, когда пытаетесь встроить куда-либо ответ ChatGPT и подобных ему нейронок.