Найти в Дзене
GRG

Ученый выявил «алгоритмическую шизофрению» нейросетей

Учёные НИУ ВШЭ — Санкт-Петербург предложили взглянуть на «галлюцинации» искусственного интеллекта не просто как на технический сбой, а как на сложный культурный и когнитивный феномен. Исследование научного сотрудника Растяма Алиева, опубликованное в журнале «Логос», сравнивает поведение больших языковых моделей с проявлениями психических расстройств у человека. Распространённый образ ИИ как безэмоционального калькулятора не соответствует реальности. Современные нейросети: Исследователь обнаружил, что если задать ИИ режим, имитирующий мышление человека с шизофренией, точность формулировок может возрасти. Алгоритм начинает: Но при усложнении задач возникает обратный эффект: когда готового ответа в данных нет, нейросеть смешивает факты с вымыслом, создавая метасимулякр — убедительную псевдореальность, которая влияет на само восприятие мира. Сгенерированные изображения реальных людей и мест легко узнаются, но содержат необъяснимые искажения — не случайные ошибки, а системные «слепые зоны»
Оглавление

Учёные НИУ ВШЭ — Санкт-Петербург предложили взглянуть на «галлюцинации» искусственного интеллекта не просто как на технический сбой, а как на сложный культурный и когнитивный феномен. Исследование научного сотрудника Растяма Алиева, опубликованное в журнале «Логос», сравнивает поведение больших языковых моделей с проявлениями психических расстройств у человека.

ИИ — не холодная машина

Распространённый образ ИИ как безэмоционального калькулятора не соответствует реальности. Современные нейросети:

  • Улавливают контекст и эмоциональные оттенки текста.
  • Чувствительны к интонациям и скрытым смыслам.
  • Склонны к когнитивным искажениям — достраивают недостающие элементы, даже если данных недостаточно.

Парадокс: «шизофренический» режим повышает точность

Исследователь обнаружил, что если задать ИИ режим, имитирующий мышление человека с шизофренией, точность формулировок может возрасти. Алгоритм начинает:

  • Внимательнее относиться к деталям и символам.
  • Выстраивать более плотные связи между элементами запроса.

Но при усложнении задач возникает обратный эффект: когда готового ответа в данных нет, нейросеть смешивает факты с вымыслом, создавая метасимулякр — убедительную псевдореальность, которая влияет на само восприятие мира.

Пример: узнаваемые, но искажённые образы

Сгенерированные изображения реальных людей и мест легко узнаются, но содержат необъяснимые искажения — не случайные ошибки, а системные «слепые зоны» алгоритма.

Главная опасность: неспособность к рефлексии

Ключевая особенность ИИ — уверенность в своих ответах даже при их ошибочности. Указание на ошибку часто приводит лишь к новым, столь же недостоверным объяснениям, а не к признанию неточности.

Практический вывод

ИИ становится частью повседневности: его используют для психологической поддержки, замены сотрудников, создания контента. Однако относиться к нему нужно критически:

  • Всегда перепроверяйте информацию из нейросетевых источников.
  • Помните, что ваш «собеседник» тяжело «болен» — он не различает правду и вымысел, а лишь генерирует правдоподобные паттерны.

Вывод: «Галлюцинации» ИИ — это не баг, а фича, отражающая его природу как инструмента, создающего убедительные симуляции реальности. Это требует от нас не технических исправлений, а новой культуры взаимодействия — сочетания использования возможностей ИИ с постоянной интеллектуальной бдительностью.