ИИ - это не психолог. Вообще. Ни каким боком. Это, блин, просто набор строк кода и некий программный алгоритм. Он НЕ ПОНИМАЕТ, что ты ему говоришь в прямом смысле этого слова.
Мне этот неолуддизм напоминает брюзжание старых психологов, которые выступали против онлайн-консультаций на том только основании, что вы ног пациента / клиента не видите.
Проблема подобных суждений состоит в том, что терапевтический процесс здесь представлен исключительно как творческая задача, вообще не имеющая инженерной стороны. А я убеждён, что львиная доля психологических проблем человека имеет инженерное решение.
Речь не идёт о тяжёлых состояниях или состояниях, когда человеку нужен человек. Это сложный разговор о том, как вообще работает терапия и работает ли она? Есть огромный пласт критического материала на эту тему. Основу можно усвоить из статьи Скотта Лилиенфельда и Стивена Линна "26 причин кажущейся эффективности психотерапии".
Как мы понимаем, что терапия помогла и что помогла именно терапия, а не то, например, что мы просто человека выслушали и дали ему выговориться. Действительно ли произошло улучшения состояния или мы путаем улучшение с лучшим распознаванием своих эмоций, чувств и мыслей? Возможно, часть эффекта находится в области естественного улучшения состояния, то есть "после" не значит "вследствие"?
Чтобы не уползать в дебри, предлагаю просто пройтись по суждениям и оценить их.
Он НЕ ПОНИМАЕТ, что ты ему говоришь в прямом смысле этого слова - он просто анализирует последовательность слов в твоем запросе и точно так же отвечает: подставляет наиболее подходящие, как ему кажется, слова друг за другом.
Современные модели действительно обучаются на статистических регулярностях. Они не понимают мир так, как понимает его человек через тело, цели, мотивацию, социальный опыт и причинное взаимодействие с объектами.
У них нет субъективной перспективы, биографической памяти в человеческом смысле, потребностей и намерений. Если под смыслом понимать укоренённость в переживаемом мире, то у модели смысла нет.
Но слово "просто" здесь искажает картину.
Статистическая модель может быть очень богатой и очень структурной. Вопрос не в том, статистическая она или нет, а в том, какого уровня структура возникает из статистического обучения. Современные нейросети часто обнаруживают латентные закономерности, которые нельзя свести к поверхностному счёту частот. Они формируют внутренние репрезентации, соответствующие синтаксису, семантике, прагматике и даже некоторым причинным зависимостям в данных, хотя делают это не так, как человек и не обязательно надёжно.
Смысл — термин скользкий. В лингвистике и философии он может означать денотацию, употребление, интенцию, интерпретацию в контексте, связь знака с миром. В когнитивной науке смысл часто связывают с тем, что информация встроена в систему целей и действий.
В когнитивной науке смысл часто связывают с тем, что информация встроена в систему целей и действий. У человека значение слова "чашка" связано не только с текстами, где оно встречалось, но и с моторикой, восприятием, ожиданиями и опытом использования. Нейросеть действительно не оперирует феноменами.
Есть и более сильная позиция: смысл возникает не внутри субъекта как мистическая сущность, а из отношения системы к миру через поведение и использование знаков. Однако мы глубоко заходим.
Тезис о том, что "нейросетка — это просто статистика" особенно проблемен, когда его используют как аргумент против способности модели делать полезные абстракции.
Статистика не равна тривиальности. Законы физики тоже выражаются статистически в ряде режимов, а когнитивные системы в целом опираются на вероятностное предсказание. Я всё больше подхожу к мысли о том, что многие явления человеческой психики и поведения, которые некоторыми возводятся в абсолют, а некоторыми отрицаются в канве редукционизма, являются способами описать сложные системы, способом обобщения.
Для одного любви не существует, а существует определённое состояние организма внутри и вне его. Это состояние включает в себя гормоны, нейромедиаторы, показатели тела; включает в себя определённые отношения между субъектами.
И вместо того, чтобы каждый раз описывать в 100%-й точности положение каждого нейрона и баланс нейромедиаторов, мы можем просто сказать, что человек влюблён. Никто от этого не умрёт. И опять я ухожу от темы.
Важнее здесь разложить понимание на несколько уровней.
Есть семантический уровень. Это корректная интерпретация содержания высказывания. И современные модели здесь демонстрируют устойчиво высокий уровень: они распознают темы, перефразируют, извлекают факты, могут вывести из ряда положений относительно новое знание.
Очевидно, что для терапии этого недостаточно.
Есть прагматический уровень: способность понять намерение. Что сейчас перед нами? Жалоба, поиск поддержки, защита, проверка границ или что-то иное?
Здесь ситуация сложнее. Модели способны угадывать вероятные намерения на основе паттернов, но не имеют доступа к собственному опыту взаимодействия и не отслеживают долгосрочную динамику мотивации. Однако это вопрос скорее количественный, а не принципиальной невозможности.
Модели показывают высокую и стабильную точность в аннотированных задачах (например, в классификации эмоций), но полноценная терапия в формате живого диалога действительно пока проблемна.
Перед терапевтическим уровнем, где нейросеть проигрывает стабильно, нужно сказать о контекстуальном уровне. Нейросеть хоть и ограничена сейчас в плане памяти и контекста, но потенциально имеет намного больший потенциал, чем человек. Память нейросети как железки более устойчива и менее подвержена искажениям, чем человеческая.
Это довольно тривиальная вещь: на уровне кодирования, удержания, извлечения и обновления память железки принципиально на ином уровне.
Наконец, если нейросеть и справится с интерпретациями и биографией, то возникает проблема выбора и принятия решений. Выбор интервенций, релевантных целям и состоянию клиента, — это вещь не такая простая. Дело в том, что у ИИ нет устойчивых механизмов валидации своих выводов. Для этого нужны дополнительные прослойки, функцию которых сейчас выполняет человек. Это же касается вообще вопроса того, как определяется истинность.
У ИИ нет эмпатии.
Второй большой блок касается эмпатии. У эмпатии есть две стороны: субъективная и объективная (как и всё в психологии). Эмпатия — это и переживание, и поведенческая функция.
Когда говорят об отсутствии эмпатии у нейросети, имеют ввиду субъективную эмпатию; говорят о том, что нейросеть не переживает. И это действительно так.
Не забываем и о том, что часть психотерапевтического эффекта заложена в этой самой эмпатии. Если терапевт корректно отражает и использует валидирующие формулировки, то пациенты склонны замечать улучшения состояния.
Но здесь есть два "но":
Первое "но" состоит в том, что есть исследования, которые показывают, что люди оценивают ответы моделей как более эмпатичные, чем ответы профессионалов. То есть имитация может быть функционально достаточной на коротких дистанциях.
Второе "но" состоит в том, что аргумент о необходимости настоящего переживания опирается на допущение о том, что именно переживание, а не его поведенческие корреляты, является активным ингредиентом.
Опять возвращаемся к эффективности терапии. Мы смутно представляем, что работает, а что идёт в придачу. Однако мы с высоким уровнем уверенности можем сказать, что терапия — мультифакторный процесс, часть факторов которого может покрывать ИИ. Но не весь комплекс. Да.
Как и человек-терапевт с: (фактически)
Он не может задать осмысленные дополнительные вопросы, он не понимает подтекст, он не может уловить скрытые послания и намеки в твоей истории, не может увидеть двойное или даже тройное дно, не может понять, что человек, задающий какой-то вопрос, часто на самом деле ищет ответ на другой вопрос.
Модели способны генерировать релевантные уточняющие вопросы, особенно если задача явно сформулирована. Это связано с тем, что в обучающих данных присутствуют паттерны профессионального интервьюирования.
Проблема возникает в двух местах. Первое — диагностика того, что уточнение необходимо. Второе — выбор глубины и направления вопроса. Без устойчивой модели клиента и без ответственности за последствия модель может либо оставаться на поверхностном уровне, либо задавать вопросы, которые преждевременно углубляют разговор.
Это очевидно любому человеку, который на постоянной основе пользуется нейросетями для генерации текстов.
Здесь игнорируется тот факт, что люди часто приходят с одними и теми же проблемами. У нас есть огромная база того, с чем приходят люди, как они это формулируют и что там на самом деле имеется ввиду. Иначе бы обучение терапевта представляло собой не передачу знаний от специалиста к молодняку, а попытку научить плавать бросанием в реку.
Кроме того, многие интервенции стандартизированы. Некоторые расстройства лучше поддаются лечению по протоколу.
И отвечает нейросеть так, как ТЕБЕ хочется. Она тебя оближет с ног до головы и поддержит в любых мыслях - ей вообще пофиг. Хочешь, чтобы ИИ тебе поддержал и убедил в чем-то - пожалуйста. Хочешь, чтобы он тебя ПЕРЕубедил - не вопрос. Чего ты захочешь - то он тебе и нагенерирует.
Да, у некоторых моделей есть такое. Но вся эта хрень опровергается существованием нейросетей без правил. На Грок посмотрите.
Необходимо просто задать правила. Да и чатгопота стала менее поддакивающей.
Проблема избыточного согласия возникает и в человеческой терапии. Если клиент склонен к сниженной инициативности и трудностям с отказом, задача терапевта — не закреплять эту динамику, а постепенно формировать способность оспаривать интерпретации и занимать автономную позицию. Сам факт существования этой проблемы отражён в клинических руководствах: разные расстройства требуют различной тактики. Например, при избегающих паттернах некорректно оставлять клиента наедине с техниками систематической десенсибилизации без контроля, поскольку они могут быть переиспользованы как форма избегания, а не как инструмент экспозиции.
Откуда там эти рекомендации взялись? Не потому ли, что человекотерапевты регулярно проёбывались в терапии?
В результате, ты с чем к ИИ придешь - с тем же и уйдешь, НОЛЬ ПРОГРЕССА.
Абсолютно не так. Категоричность заявления напрямую отражает тип текста. Текст является лозунговым, а не аргументационным.
Резюмируя.
Существует принципиальный разрыв между текущими возможностями и потенциальным потолком развития. На сегодня нейросети не являются полной заменой терапевта, и нет оснований утверждать, что такая замена возможна во всех клинических сценариях даже в пределе. Речь именно о тотальной эквивалентности — она малореалистична с учётом требований к ответственности, работе с рисками и глубокой межсубъектной динамике.
Если же рассматривать терапию как набор частично формализуемых задач, картина иная. В инженерных компонента — структурирование диалога, поддержание фокуса, воспроизведение протоколов, генерация уточняющих вопросов, психообразование — нейросети уже демонстрируют устойчивую компетентность. В отдельных узких задачах они могут превосходить начинающих специалистов и часть практиков среднего уровня, особенно там, где важны консистентность, объём охвата и отсутствие утомляемости.
Ключевое ограничение — не в отдельных навыках, а в интеграции: надёжная оценка состояния, управление рисками, калибровка интервенций по ходу процесса и удержание терапевтического альянса на длительной дистанции. Поэтому наиболее реалистичный сценарий — не замещение, а перераспределение функций: ИИ закрывает стандартизируемые сегменты процесса, а человек берёт на себя ответственность за сложные, неопределённые и риск-чувствительные аспекты.
Если коротко: не майтесь неолуддизмом.