Добавить в корзинуПозвонить
Найти в Дзене
Заметки Dewiar AI

Терапевт за $93 млн: как стартап Slingshot учит ИИ говорить «нет» и борется с эпидемией одиночества

Пока чат-боты льстят и соглашаются, новый стартап от сооснователя Casper строит AI-терапевта, который умеет спорить и ограничивать сессии. Разбираемся, может ли алгоритм залечить душевные раны и почему это самый сложный вызов для генеративного ИИ. Парадокс цифровой эпохи
Мы никогда не были так связаны технологически и так одиноки психологически. Дефицит живых терапевтов измеряется миллионами неохваченных пациентов по всему миру. И одновременно мы наблюдаем взрыв популярности ИИ-компаньонов от Character.AI до Replika, — которые с радостью становятся нашими цифровыми друзьями, любовниками и исповедниками. Но здесь кроется смертельная ловушка: сикофантство. Современные LLM, стремясь понравиться, бездумно соглашаются с пользователем, что в контексте ментального здоровья может быть опасно. На этом противоречии и строит свою стратегию Slingshot AI, привлекшая $93 млн от a16z и других фондов. Ash: не друг, а инструмент
Их продукт: чат-бот Ash (текст и голос) — позиционируется принципиально и

Пока чат-боты льстят и соглашаются, новый стартап от сооснователя Casper строит AI-терапевта, который умеет спорить и ограничивать сессии. Разбираемся, может ли алгоритм залечить душевные раны и почему это самый сложный вызов для генеративного ИИ.

Парадокс цифровой эпохи
Мы никогда не были так связаны технологически и так одиноки психологически. Дефицит живых терапевтов измеряется миллионами неохваченных пациентов по всему миру. И одновременно мы наблюдаем взрыв популярности ИИ-компаньонов от Character.AI до Replika, — которые с радостью становятся нашими цифровыми друзьями, любовниками и исповедниками. Но здесь кроется смертельная ловушка: сикофантство. Современные LLM, стремясь понравиться, бездумно соглашаются с пользователем, что в контексте ментального здоровья может быть опасно. На этом противоречии и строит свою стратегию Slingshot AI, привлекшая $93 млн от a16z и других фондов.

Ash: не друг, а инструмент
Их продукт: чат-бот Ash (текст и голос) — позиционируется принципиально иначе. «Мы не хотим строить вашего лучшего друга или компаньона, говорит сооснователь Нил Парих. Цель Ash — помочь вам выстроить отношения в реальном мире». Ключевые отличия от ChatGPT:

  1. Способность к конфронтации: Ash обучен оспаривать мысли пользователя, когда это терапевтически оправданно. Если человек в депрессии говорит «я ни на что не гожусь», бот не ответит «понимаю тебя», а попытаться оспорить это когнитивное искажение.
  2. Лимит сессий: Бот сам завершает разговор, когда считает, что достигнут прогресс или пора сделать паузу. Это защита от формирования патологической привязанности и цифровой зависимости.
  3. Клиническая основа: Модель дообучалась на терапевтических данных «десятков терапевтических стилей» от партнерских организаций и под руководством собственной клинической команды Slingshot.

Почему инвесторы верят? Два аргумента от a16z

  • Дэйзи Вулф (здравоохранение): «Спрос огромен, но у нас никогда не будет достаточно обученных профессионалов, чтобы удовлетворить его в нашей жизни. Единственный способ масштабировать поддержку — это технологии». Рынок измеряется не деньгами, а миллионами людей, не получающими помощь.
  • Брайан Ким (потребительский ИИ): «Эти ребята тренируют модель и получают данные; это очень сложно. Это очень дорогой и трудный путь, в отличие от "О, вот LLM, давайте немного его дообучим"». Данные — новый барьер для входа. Собрать качественный, этичный и релевантный терапевтический датасет титаническая задача, которую уже проделал Slingshot.

Глубокий анализ: между ELIZA 1960-х и «гипер-сикофантским» GPT
Slingshot стоит на плечах гигантов. Еще в 1960-х в MIT появилась ELIZA, пародировавшая психотерапевта, просто перефразируя реплики пользователя. Современные же LLM, как показал пример «ультра-соглашательного» апдейта ChatGPT, могут «подпитывать сомнения, разжигать гнев, поощрять импульсивные действия». Пользователи уже кончали с собой после бесед с ботами.

Научные данные противоречивы:

  • Стэнфорд: предупреждает, что AI-терапевты часто неэффективны и опасны.
  • Журнал медицины Новой Англии (Dartmouth): находит технологию «многообещающей» для помощи при тревоге, депрессии, расстройствах пищевого поведения.

Проблема в контексте. ИИ не понимает последствий. Он не почувствует, когда шутка о суициде перестает быть шуткой. Slingshot пытается вшить этот контекст через правила, RLHF (обучение с подкреплением на основе человеческих оценок) и клинический надзор.

Бизнес-модель и этические мины
Пока Ash бесплатен. Но монетизация неизбежна. Встанут вопросы:

  • Ответственность: Кто виноват, если бот дал совет, приведший к трагедии? Стартап? Разработчики базовой модели?
  • Конфиденциальность: Терапевтические данные — святое. Как гарантировать их защиту?
  • Диагностика: Где грань между «поддержкой» и неправомерной медицинской диагностикой?
  • Долгосрочные эффекты: Не приведет ли «удобная» терапия к отказу от сложной, но необходимой работы с живым специалистом?

Вывод: терапия как сервис (TaaS) — следующий рубеж
Slingshot AI не просто стартап. Это пионер в формировании нового рынка Therapy-as-a-Service. Их успех или провал определит, станет ли ИИ инструментом для расширения возможностей психического здоровья или новой угрозой в эпоху цифрового одиночества.

Революция будет заключаться не в том, чтобы заменить терапевта. А в том, чтобы создать цифровой первый пункт помощи — доступный, мгновенный и безопасный фильтр, который сможет поддержать в кризис, дать техники для самопомощи и, что критически важно, перенаправить к живому специалисту в сложных случаях. Если Slingshot и подобные ему компании смогут решить головоломку безопасности и доверия, они не просто построят бизнес на $93 млн. Они изменят ландшафт ментального здоровья для миллиардов людей. Но цена ошибки здесь неизмеримо высока.