Галлюцинации ИИ представляют собой интересное явление, когда системы ИИ создают впечатления или результаты, которые могут быть ошибочно восприняты как реальные, хотя на самом деле они не имеют прямого аналога в реальном мире или не соответствуют ожиданиям.
💬 Вот несколько примеров галлюцинаций, которые могут возникать при работе с нейронными сетями и другими формами ИИ:
🚨 Ошибочное распознавание объектов: в 2022 году были зафиксированы случаи, когда ИИ ошибочно штрафовал водителей за непристёгнутый ремень на левом сидении(при том, что автомибили были с правым рулем). Это происходило из-за того, что система воспринимала пассажирское сидение как место водителя из-за недостаточного обучения или неправильного анализа данных.
😵 Искусственное производство данных: нейронные сети могут создавать контент, который кажется новым, но на самом деле основан на обучающих данных. Например кейс с адвокатом Стивеном Шварцем, который использовал ChatGPT для поиска юридических прецедентов. Сгенерированные ответы представлялись ему как реальные дела, которые могли бы быть использованы в его работе. Однако, в действительности, эти дела были лишь результатом алгоритма ИИ, не имеющего фактических связей с реальными юридическими ситуациями.
🧛♂️ Дискриминация и предвзятость: некоторые нейронные сети могут проявлять предвзятость при принятии решений, включая оценку кандидатов на работу или анализ данных для правоохранительных органов. Например, в 2014 году некоторые системы ИИ, используемые в рекрутинге, демонстрировали склонность к дискриминации по полу или национальности, что приводило к несправедливым решениям при приёме на работу.
🎨 Ошибки в рендеринге: при обработке изображений или создании виртуальных сцен нейронные сети иногда могут допускать ошибки в рендеринге, что приводит к появлению лишних, деформированных или неправильно расположенных объектов. Например, на сгенерированных изображениях часто можно обнаружить неестественные позы или аномальные части тела у персонажей.
💡 Отсутствие контекста и логики: некоторые системы ИИ могут проявлять недостаток понимания контекста или логики в предоставляемой информации, что приводит к нелогичным или неправдоподобным выводам. Например, нейронные сети, работающие с естественным языком, иногда создают тексты, которые нелепы или несвязны с предыдущим контекстом.
Эти примеры говорят о том, что даже продвинутые системы искусственного интеллекта могут допускать ошибки и порождать результаты, которые требуют внимательной проверки и доработки со стороны разработчиков.
Но и пользователь может улучшить результаты работы ИИ:
📌 конкретика в запросах, четкие и последовательные инструкции;
📌 давайте нейросети больше входной информации и проверяйте факты. Не стоит верить на слово всему, что скажет нейросеть. Проверьте информацию, если есть ошибки, укажите на них. В следующий раз нейросеть справится лучше.
А вы сразу заметили галлюционацию на картинке?