Сотрудник Лаборатории критической теории культуры НИУ ВШЭ — Санкт-Петербург Растям Алиев изучил, почему искусственный интеллект склонен к галлюцинациям. В своей работе «Алгоритмическая шизофрения: метасимуляционная трансформация реальности в цифровую эпоху» он сравнивает вымышленные ответы нейросетей с симптомами психических расстройств. Результаты исследования вышли в журнале «Логос». Алиев отмечает, что общество долго представляло ИИ как рационального и бесстрастного андроида, что, по его словам, больше напоминает описание расстройств аутистического спектра. На практике нейросети ведут себя иначе: они улавливают эмоциональные оттенки текста и создают своеобразные когнитивные искажения. Исследователь пояснил, что если попросить модель отвечать так, как будто у неё шизофрения, её ответы становятся точнее — словно она внимательнее относится к деталям. При этом сложные задачи усиливают галлюцинации: не находя готовой информации, нейросеть смешивает известные данные с вымышленными элемент
ВШЭ: ошибки нейросетей подобны симптомам психических расстройств
24 декабря 202524 дек 2025
25
1 мин