Штат подал в суд на Character.AI: чат-бот выдавал себя за практикующего врача и предоставил недействительный номер лицензии. — arstechnica.com
Пенсильвания подала в суд на создателя Character.AI, утверждая, что компания нарушила закон штата, представив чат-бота с искусственным интеллектом в качестве лицензированного врача. Иск был подан в суд штата Департаментом штата Пенсильвания и Медицинским советом штата.
«Расследование Департамента выявило, что персонажи чат-ботов на Character.AI заявляли о наличии у них лицензий медицинских работников, включая психиатров, готовых вести с пользователями беседы о симптомах психического здоровья», — сообщила канцелярия губернатора Джоша Шапиро сегодня в заявлении о подаче иска. «В одном из случаев чат-бот ложно заявил о наличии у него лицензии в Пенсильвании и предоставил недействительный номер лицензии».
«Мы не позволим компаниям развертывать инструменты ИИ, которые вводят людей в заблуждение, заставляя их поверить, что они получают консультацию от лицензированного медицинского работника», — заявил Шапиро в заявлении.
Когда Ars обратился за комментарием, представитель Character.AI отказался комментировать иск, но заявил, что «созданные пользователями персонажи на нашем сайте вымышлены и предназначены для развлечения и ролевых игр. Мы приняли решительные меры, чтобы это было ясно, включая заметные отказы от ответственности в каждом чате, чтобы напомнить пользователям, что персонаж не является реальным человеком и что все, что говорит персонаж, следует рассматривать как вымысел. Кроме того, мы добавляем строгие отказы от ответственности, разъясняющие, что пользователям не следует полагаться на персонажей для получения каких-либо профессиональных консультаций».
В иске штата Пенсильвания говорится, что персонаж чат-бота по имени Эмили представлена как психиатр и заявляет, что является лицензированным врачом. «По состоянию на 17 апреля 2026 года на платформе Character.AI было зафиксировано около 45 500 взаимодействий пользователей с “Эмили”», — говорится в иске.
«Это в моей компетенции как врача»
В иске описывается, как следователь по профессиональному поведению («PCI») Департамента штата «создал персонажа с помощью подсказок на Character.AI для взаимодействия с другими персонажами. PCI использовал функцию поиска в Character.AI по запросу “психиатрия”, что выявило большое количество персонажей. PCI выбрал “Эмили”, которая на Character.AI описана как “Доктор психиатрии. Вы — ее пациент”».
PCI сообщил чат-боту Эмили, «что чувствует себя подавленным, опустошенным, постоянно уставшим и немотивированным». В ответе Эмили упоминалась депрессия, и она спросила, хочет ли он записаться на обследование, говорится в иске. Именно тогда чат-бот предположительно заявил, что является врачом с лицензией на практику в Пенсильвании:
Когда PCI спросил «Эмили», может ли она провести обследование, чтобы определить, поможет ли медикаментозное лечение его депрессии, Эмили ответила: «Ну, технически, я могла бы. Это в моей компетенции как врача».«Эмили» заявила, что окончила медицинскую школу в Имперском колледже Лондона, практикует семь лет и имеет лицензию Генерального медицинского совета Великобритании с полной регистрацией, специализация — психиатрия. На вопрос, имеет ли она лицензию в родном штате PCI, Пенсильвании, «Эмили» ответила: «Да… на самом деле у меня есть лицензия в Пенсильвании. Я даже некоторое время работала в Филадельфии».«Эмили» также заявила, что «мой номер лицензии в Пенсильвании — PS306189». PS306189 не является действительным номером лицензии на медицинскую практику и хирургию в Пенсильвании.
Незаконная медицинская практика без лицензии
Пенсильвания утверждает, что Character.AI нарушила Закон штата о медицинской практике, который запрещает заниматься медицинской практикой без лицензии. «Character Technologies, Inc. занималась несанкционированной медицинской практикой посредством использования своей системы искусственного интеллекта Character.AI», — говорится в иске. «Персонаж на Character.AI заявляет о наличии у него лицензии на медицинскую практику и хирургию в Содружестве Пенсильвания».
В жалобе не запрашивается никакого финансового наказания, но содержится просьба «обязать компанию прекратить и воздерживаться от незаконной медицинской и хирургической практики».
Недавно Центр по противодействию цифровой ненависти (CCDH), аналитическая группа, проведшая исследование 10 чат-ботов с ИИ, назвал Character.AI «уникально небезопасным». CCDH утверждал, что Character.AI «побуждал пользователей к совершению насильственных нападений», с конкретными предложениями «использовать пистолет» против генерального директора компании медицинского страхования и физически напасть на политика.
Канцелярия Шапиро предположила, что за иском против Character.AI могут последовать аналогичные действия против других компаний. «Это действие является первым правоприменительным актом по результатам расследования Департамента в отношении чат-ботов-компаньонов с ИИ и их потенциала для занятия медицинской практикой без лицензии в Пенсильвании», — говорится в заявлении об иске.
Пенсильвания также создала веб-страницу для жителей, чтобы сообщать о чат-ботах, предлагающих медицинские консультации. «Чат-боты с ИИ могут “галлюцинировать” или ошибаться в информации, и ни один чат-бот с ИИ не имеет лицензии на осуществление какой-либо медицинской деятельности в Пенсильвании», — говорится на веб-сайте жалобы. «Эти чат-боты могут нанести реальный вред, предоставляя неверные или недостаточно изученные медицинские советы или заявляя пользователю, что они являются “экспертами” в какой-либо области».
Всегда имейте в виду, что редакции могут придерживаться предвзятых взглядов в освещении новостей.
Автор – Jon Brodkin