Научный сотрудник Лаборатории критической теории культуры НИУ ВШЭ — Санкт-Петербург Растям Алиев представил исследование, в котором проанализировал склонность больших языковых моделей к генерации вымышленных фактов, или «галлюцинациям». В своей статье «Алгоритмическая шизофрения: метасимуляционная трансформация реальности в цифровую эпоху» учёный проводит параллель между этим явлением и симптомами психических расстройств, сообщает портал «Научная Россия». Растям Алиев отметил, что распространённый образ ИИ как холодного и неэмоционального андроида соответствует скорее расстройству аутистического спектра. Однако в реальности нейросети демонстрируют иное поведение: они интерпретируют эмоциональные оттенки текста и создают когнитивные искажения. Учёный указывает, что если попросить ИИ отвечать в духе человека с шизофренией, точность его ответов может возрастать, будто он начинает лучше улавливать детали и знаки. Особенно ярко галлюцинации проявляются при сложных запросах. Не находя готов