Найти в Дзене
Новости Тольятти24

Исследователи ВШЭ сравнили ошибки нейросетей с «алгоритмической шизофренией»

Научный сотрудник ВШЭ Растям Алиев описал у нейросетей признаки «алгоритмической шизофрении», сопоставив их склонность к вымыслам с проявлениями психических расстройств. Результаты его работы, посвящённой ошибочным ответам больших языковых моделей, опубликованы в журнале «Логос». Исследователь отмечает, что современные системы искусственного интеллекта могут не только подбирать факты, но и имитировать эмоциональные интонации, создавая при этом когнитивные искажения. При сложных запросах, по его наблюдениям, нейросети чаще смешивают достоверную информацию с вымышленной и формируют «метасимулякры» — псевдореальности, внутри которых пользователь получает уже отфильтрованную алгоритмами картину мира. Алиев указывает, что ИИ не обладает механизмами осознанной самопроверки и не способен самостоятельно распознавать собственные ошибки. При этом нейросети нередко уверенно подают неверные сведения как надёжные, что может вводить людей в заблуждение. Учёный предупреждает, что полностью полагаться
   freepik.com
freepik.com

Научный сотрудник ВШЭ Растям Алиев описал у нейросетей признаки «алгоритмической шизофрении», сопоставив их склонность к вымыслам с проявлениями психических расстройств. Результаты его работы, посвящённой ошибочным ответам больших языковых моделей, опубликованы в журнале «Логос».

Исследователь отмечает, что современные системы искусственного интеллекта могут не только подбирать факты, но и имитировать эмоциональные интонации, создавая при этом когнитивные искажения. При сложных запросах, по его наблюдениям, нейросети чаще смешивают достоверную информацию с вымышленной и формируют «метасимулякры» — псевдореальности, внутри которых пользователь получает уже отфильтрованную алгоритмами картину мира.

Алиев указывает, что ИИ не обладает механизмами осознанной самопроверки и не способен самостоятельно распознавать собственные ошибки. При этом нейросети нередко уверенно подают неверные сведения как надёжные, что может вводить людей в заблуждение. Учёный предупреждает, что полностью полагаться на такие ответы особенно рискованно в областях, связанных с психологической помощью и обсуждением состояния психического здоровья.

В то же время он допускает, что со временем можно будет создать более «чистые» модели, минимизирующие количество «галлюцинаций». Для этого, по его словам, нужно глубже понять природу подобных сбоев и разработать подходы, которые позволят удерживать ответы ИИ в рамках проверяемых фактов. Алиев призывает пользователей относиться к искусственному интеллекту с осторожностью и обязательно перепроверять важную информацию, сообщает RuNews24.ru.

Читайте также:

Читать на сайте