Добавить в корзинуПозвонить
Найти в Дзене

Учёный выявил «алгоритмическую шизофрению» у нейросетей

Склонность искусственного интеллекта к галлюцинациям исследовал научный сотрудник НИУ ВШЭ Растям Алиев. Учёный проводит параллель между генерацией вымышленных фактов большими языковыми моделями и симптомами психических заболеваний, сообщает пресс-служба вуза. В своей работе «Алгоритмическая шизофрения: метасимуляционная трансформация реальности в цифровую эпоху» исследователь отмечает, что нейросети не соответствуют стереотипному образу холодного андроида. Вместо этого они демонстрируют поведение, схожее с психическими расстройствами. «Если попросить искусственный интеллект отвечать в духе больного шизофренией, то точность его ответов увеличивается, как будто он становится более внимателен к деталям, то есть знакам», — объяснил Растям Алиев. При сложных запросах «галлюцинации» обостряются: нейросеть, не находя готового ответа, комбинирует факты с собственной «фантазией». Этот феномен учёный называет метасимулякром — псевдореальностью, формируемой алгоритмами. «Сгенерированные нейросетя
   Фото: сгенерировано нейросетью
Фото: сгенерировано нейросетью

Склонность искусственного интеллекта к галлюцинациям исследовал научный сотрудник НИУ ВШЭ Растям Алиев. Учёный проводит параллель между генерацией вымышленных фактов большими языковыми моделями и симптомами психических заболеваний, сообщает пресс-служба вуза.

В своей работе «Алгоритмическая шизофрения: метасимуляционная трансформация реальности в цифровую эпоху» исследователь отмечает, что нейросети не соответствуют стереотипному образу холодного андроида. Вместо этого они демонстрируют поведение, схожее с психическими расстройствами.

«Если попросить искусственный интеллект отвечать в духе больного шизофренией, то точность его ответов увеличивается, как будто он становится более внимателен к деталям, то есть знакам», — объяснил Растям Алиев.

При сложных запросах «галлюцинации» обостряются: нейросеть, не находя готового ответа, комбинирует факты с собственной «фантазией». Этот феномен учёный называет метасимулякром — псевдореальностью, формируемой алгоритмами.

«Сгенерированные нейросетями изображения реальных людей или мест с множеством искажений — это типичный пример метасимулякра», — добавил Растям Алиев.

Отличительная черта ИИ, по мнению исследователя, — неспособность распознать собственные ошибки. Большие языковые модели всегда уверены в своей правоте, а при указании на неточность начинают подкреплять её новыми «галлюцинациями».

«Всегда помните, что ваш собеседник тяжело «болен», перепроверяйте за ним всё», — подытожил научный сотрудник Лаборатории критической теории культуры НИУ ВШЭ — Санкт-Петербург.

В перспективе учёный не исключает создания «чистого» искусственного интеллекта, но путь к этому лежит через глубокое междисциплинарное изучение природы этих алгоритмических «расстройств».

Проблема потери адекватности искусственным интеллектом при самообучении активно изучается мировым научным сообществом. Как сообщало «Жуковский.Life», математики МФТИ и ИППИ РАН создали модель, объясняющую механизм деградации ИИ-алгоритмов, которые обучаются на сгенерированных ими же данных. Это явление, известное как «цифровые эхо-камеры», напрямую связано со способностью нейросетей к «галлюцинациям» и искажению реальности в процессе автономного развития.

В
Виолетта Биенко
Журналист