Найти в Дзене

Продолжаем погружать вас в терминологию ИИ: сегодня расскажем о галлюцинациях ИИ

Галлюцинации ИИ представляют собой интересное явление, когда системы ИИ создают впечатления или результаты, которые могут быть ошибочно восприняты как реальные, хотя на самом деле они не имеют прямого аналога в реальном мире или не соответствуют ожиданиям.
💬
Вот несколько примеров галлюцинаций, которые могут возникать при работе с нейронными сетями и другими формами ИИ:

🚨 Ошибочное распознавание объектов: в 2022 году были зафиксированы случаи, когда ИИ ошибочно штрафовал водителей за непристёгнутый ремень на левом сидении(при том, что автомибили были с правым рулем). Это происходило из-за того, что система воспринимала пассажирское сидение как место водителя из-за недостаточного обучения или неправильного анализа данных.

😵 Искусственное производство данных: нейронные сети могут создавать контент, который кажется новым, но на самом деле основан на обучающих данных. Например кейс с адвокатом Стивеном Шварцем, который использовал ChatGPT для поиска юридических прецедентов. Сгенерированные ответы представлялись ему как реальные дела, которые могли бы быть использованы в его работе. Однако, в действительности, эти дела были лишь результатом алгоритма ИИ, не имеющего фактических связей с реальными юридическими ситуациями.

🧛‍♂️ Дискриминация и предвзятость: некоторые нейронные сети могут проявлять предвзятость при принятии решений, включая оценку кандидатов на работу или анализ данных для правоохранительных органов. Например, в 2014 году некоторые системы ИИ, используемые в рекрутинге, демонстрировали склонность к дискриминации по полу или национальности, что приводило к несправедливым решениям при приёме на работу.

🎨 Ошибки в рендеринге: при обработке изображений или создании виртуальных сцен нейронные сети иногда могут допускать ошибки в рендеринге, что приводит к появлению лишних, деформированных или неправильно расположенных объектов. Например, на сгенерированных изображениях часто можно обнаружить неестественные позы или аномальные части тела у персонажей.

💡 Отсутствие контекста и логики: некоторые системы ИИ могут проявлять недостаток понимания контекста или логики в предоставляемой информации, что приводит к нелогичным или неправдоподобным выводам. Например, нейронные сети, работающие с естественным языком, иногда создают тексты, которые нелепы или несвязны с предыдущим контекстом.

Эти примеры говорят о том, что даже продвинутые системы искусственного интеллекта могут допускать ошибки и порождать результаты, которые требуют внимательной проверки и доработки со стороны разработчиков.

Но и пользователь может улучшить результаты работы ИИ:

📌 конкретика в запросах, четкие и последовательные инструкции;

📌 давайте нейросети больше входной информации и проверяйте факты. Не стоит верить на слово всему, что скажет нейросеть. Проверьте информацию, если есть ошибки, укажите на них. В следующий раз нейросеть справится лучше.

А вы сразу заметили галлюционацию на картинке?