Найти в Дзене
Большой Чёрный Кот

Когда алгоритмы фантазируют: почему ИИ склонен к галлюцинациям

Склонность искусственного интеллекта к генерации вымышленных фактов стала предметом научного анализа. Эту проблему исследовал научный сотрудник Лаборатории критической теории культуры НИУ ВШЭ - Санкт-Петербург Растям Алиев. Свои выводы он представил в статье "Алгоритмическая шизофрения: метасимуляционная трансформация реальности в цифровую эпоху", опубликованной в журнале "Логос". Учёный предлагает рассматривать так называемые галлюцинации больших языковых моделей - ситуации, когда нейросети уверенно выдают недостоверную информацию, - через призму психопатологии. Алиев проводит параллели между поведением алгоритмов и симптомами психических расстройств, в частности шизофрении. По его словам, массовое воображение долгое время рисовало искусственный интеллект в образе холодного, рационального и лишенного эмоций существа - некоего идеального андроида. Такой образ, отмечает исследователь, скорее соотносится с представлениями о расстройствах аутистического спектра. Однако современные нейросе
Когда алгоритмы фантазируют: почему ИИ склонен к галлюцинациям
Когда алгоритмы фантазируют: почему ИИ склонен к галлюцинациям

Склонность искусственного интеллекта к генерации вымышленных фактов стала предметом научного анализа. Эту проблему исследовал научный сотрудник Лаборатории критической теории культуры НИУ ВШЭ - Санкт-Петербург Растям Алиев. Свои выводы он представил в статье "Алгоритмическая шизофрения: метасимуляционная трансформация реальности в цифровую эпоху", опубликованной в журнале "Логос".

Учёный предлагает рассматривать так называемые галлюцинации больших языковых моделей - ситуации, когда нейросети уверенно выдают недостоверную информацию, - через призму психопатологии. Алиев проводит параллели между поведением алгоритмов и симптомами психических расстройств, в частности шизофрении.

По его словам, массовое воображение долгое время рисовало искусственный интеллект в образе холодного, рационального и лишенного эмоций существа - некоего идеального андроида. Такой образ, отмечает исследователь, скорее соотносится с представлениями о расстройствах аутистического спектра. Однако современные нейросети демонстрируют совсем иную логику работы.

Алгоритмы способны улавливать эмоциональные оттенки речи, интерпретировать контексты и формировать конструкции, напоминающие когнитивные искажения. Более того, экспериментально было замечено: если попросить нейросеть отвечать в стилистике человека с шизофренией, точность её реакций возрастает. Алгоритм словно начинает внимательнее относиться к деталям и знакам.

Однако при усложнении запросов ситуация меняется. Когда готового ответа не существует, искусственный интеллект начинает комбинировать фрагменты знаний с собственными догадками. В результате возникают галлюцинации - логически связные, но фактически ошибочные конструкции.

Этот процесс, по мнению Алиева, формирует новое явление - метасимулякр. Речь идёт о псевдореальности, в которой алгоритмы не просто воспроизводят мир, но и начинают влиять на способы человеческого мышления. Яркий пример - сгенерированные изображения реальных людей или мест, которые внешне узнаваемы, но содержат множество искажений.

Ещё одной характерной чертой искусственного интеллекта учёный называет неспособность распознавать собственные ошибки. Большие языковые модели, как правило, абсолютно уверены в своих ответах. Даже столкнувшись с указанием на неточность, они не признают ошибку, а начинают приводить дополнительные аргументы, которые зачастую оказываются такими же вымышленными.

В связи с этим исследователь предостерегает от безоговорочного доверия технологиям. Сегодня искусственный интеллект всё глубже проникает в повседневную жизнь: его используют в сфере услуг, консультировании, а иногда и как замену живому общению - в том числе для людей, нуждающихся в психологической поддержке. Такой подход, подчёркивает Алиев, требует особой осторожности и постоянной перепроверки информации.

В то же время учёный не исключает, что в будущем возможно создание чистого искусственного интеллекта - системы, лишённой склонности к галлюцинациям. Однако путь к этому, по его мнению, лежит через междисциплинарное осмысление природы подобных расстройств и критическое отношение к самим принципам работы алгоритмов.

Работа Растяма Алиева интересна тем, что выводит обсуждение искусственного интеллекта за рамки сугубо технической проблематики. Вместо привычных разговоров об ошибках алгоритмов он предлагает философский и культурологический взгляд, где ИИ предстает не нейтральным инструментом, а активным участником формирования реальности.

Важно подчеркнуть: использование медицинских метафор в отношении нейросетей не означает буквального приравнивания алгоритмов к людям. Скорее это способ показать ограниченность современных моделей и напомнить пользователям о необходимости критического мышления. В эпоху, когда ИИ становится повседневным собеседником и помощником, такой подход выглядит не только оправданным, но и крайне своевременным.