Помните сцену когда во «Властелине колец» советник Грима Червослов постепенно влияет на короля Теодена. Он не приказывает и не спорит напрямую. Вместо этого он постоянно объясняет происходящее, подбирает слова, предлагает свои трактовки событий. Со временем король начинает смотреть на мир через эти объяснения. Ничего не происходит резко, меняется лишь рамка интерпретации.
Подобные процессы сейчас активно исследуются. В роли Гримы у нас будет нейросеть, в роли Короля - специалисты. Посмотрим, как это происходит в исследуемых ситуациях.
Начнем с эксперимента с автодополнением текста, который показал, что когда система начинает подсказывать формулировки, она может понемногу менять ход рассуждения человека, даже если тот просто пишет обычный текст.
В исследовании группы Cornell участникам предложили написать короткие тексты на социальные темы с помощью функции автодополнения. Программа предлагала продолжения фраз. Подсказки были специально смещены в сторону определённой позиции. Человек мог принять подсказку или продолжить писать сам [1].
Постепенно тексты участников всё больше совпадали с направлением подсказок. Когда эксперимент закончился, исследователи спросили людей об их собственном мнении по обсуждаемой теме. Ответы тоже немного сместились в сторону позиции, которую чаще предлагала система. При этом большинство участников не замечали влияния. Им казалось, что они просто выбирают удобные формулировки [1].
Сам эксперимент не связан напрямую с медициной или психотерапией. Но он показывает важную вещь: когда система подсказок участвует в формулировании мысли, она может влиять на сам ход рассуждения.
В медицине похожие эффекты обсуждают уже несколько лет. Там активно используют системы поддержки клинических решений. Такие программы анализируют данные пациента и предлагают врачу возможные диагнозы или варианты лечения. Сначала предполагалось, что они будут лишь помогать ориентироваться в сложной информации. Однако исследования показали более сложную картину.
В научной литературе описан эффект чрезмерного доверия к автоматическим подсказкам. Когда специалист работает вместе с программой, он может чаще опираться на её рекомендации и реже проверять собственные гипотезы. Подсказка начинает играть роль скрытого ориентира при принятии решения [2].
Экспериментальные исследования показывают, что влияние таких систем на решения врачей вполне измеримо. В одном из экспериментов врачи решали диагностические задачи, а затем получали рекомендацию языковой модели. Многие участники меняли первоначальное решение после подсказки программы, даже если сначала были уверены в своём выводе [3].
Отдельная линия исследований посвящена доверию к таким инструментам. Сначала специалисты воспринимают систему как внешний помощник. Но если она регулярно оказывается полезной, постепенно становится привычной частью работы. В какой-то момент рекомендации программы начинают восприниматься почти так же, как мнение коллеги [4].
В последние годы такие инструменты появляются и в области психического здоровья. Они могут анализировать записи сессий, помогать структурировать заметки или предлагать диагностические гипотезы. Исследования показывают, что подобные системы способны влиять на стиль клинического мышления специалистов [5].
На первый взгляд главная проблема здесь кажется простой: программа может ошибиться. Но многие исследователи считают, что более тонкий риск связан не с отдельными ошибками, а с постепенным изменением привычного способа рассуждения.
Когда рядом появляется инструмент, который регулярно предлагает объяснения, он начинает влиять на распределение внимания. Система подсвечивает одни признаки и делает другие менее заметными. Даже если специалист не принимает подсказку напрямую, она всё равно входит в поле размышления.
Со временем такой инструмент может стать чем-то вроде второго голоса в профессиональном мышлении. Он предлагает гипотезы, подтверждает некоторые интерпретации и делает другие менее вероятными. При этом подсказка редко ощущается как давление извне. Чаще она превращается в одну из собственных мыслей специалиста.
Пока прямых исследований такого эффекта именно в психотерапии почти нет. Но данные из медицины и исследований взаимодействия человека с вычислительными системами позволяют предположить, что подобные изменения возможны и здесь [6]. Психотерапия особенно чувствительна к таким процессам, потому что работа терапевта во многом строится на интерпретации, внимании и способности выдерживать неопределённость.
Если система начинает постоянно предлагать готовые формулировки и объяснения, терапевт может постепенно привыкнуть к более категоричному стилю мышления. Гипотезы появляются быстрее и звучат убедительнее, но пространство возможных смыслов может постепенно сужаться.
Поэтому разговор об искусственном интеллекте в психотерапии всё чаще касается не только пользы технологий. Возникает другой вопрос: как сохранить собственное клиническое мышление, когда рядом постоянно работает инструмент, который умеет предлагать готовые объяснения.
Библиография
- Hohenstein J., Jung M. Artificial intelligence can influence human opinions through language model suggestions. Science Advances. 2023.
- Khera R. Automation bias and assistive AI in clinical decision making. JAMA. 2023. doi:10.1001/jama.2023.22557.
- Goh E., et al. Physician decision modification in the era of large language models. Communications Medicine. 2025.
- Kelly C., et al. Trust formation in AI clinical decision systems. JMIR Human Factors. 2025.
- Auf A., et al. AI tools in mental health decision support. JMIR Mental Health. 2025.
- Cross A., et al. Bias in medical artificial intelligence and clinician reasoning. PLOS Digital Health. 2024.
Автор: Пинскер Борис Эмануилович
Врач-психотерапевт, Супервизор
Получить консультацию автора на сайте психологов b17.ru