Добавить в корзинуПозвонить
Найти в Дзене
Багнутые Новости

Скандал! От Лондона до Калифорнии: как ИИ-ассистенты делают юристов мемами.

Снова на связи Дэн! )
Юристы, боты и фейковые цитаты: теперь это не курьёз, а глобальный тренд Всё началось в Британии:
Высокий суд Англии и Уэльса в свежем постановлении чётко объявил - юристам запрещено тащить в зал суда “галлюцинации” искусственного интеллекта. Судья Виктория Шарп: “ChatGPT и ему подобные могут красиво отвечать на вопросы, но уверенно выдумывают детали, которых не было.”
Причина? Сразу два случая: адвокат, защищая клиента против банков, вписал в иск 45 ссылок на дела - 18 из них оказались вымыслом. В другом процессе юрист “цитировала” пять несуществующих дел, после чего судья пригрозила: дальше будет не только разборка, но и возможная передача дела в полицию. Суд жёстко предупредил: адвокаты обязаны проверять каждую цитату и нести ответственность за то, что сдают в суд. Профессиональные регуляторы уже получили уведомления: теперь за фейки - штрафы, дисциплинарка и полная публичная порка. Казалось бы, скандал стих…
Но тут же - новое дело, уже в США.
В мае 2025 г
сгенерировано чатгпт)
сгенерировано чатгпт)

Снова на связи Дэн! )

Юристы, боты и фейковые цитаты: теперь это не курьёз, а глобальный тренд

Всё началось в Британии:

Высокий суд Англии и Уэльса в свежем постановлении чётко объявил - юристам запрещено тащить в зал суда “галлюцинации” искусственного интеллекта. Судья Виктория Шарп:

“ChatGPT и ему подобные могут красиво отвечать на вопросы, но уверенно выдумывают детали, которых не было.”

Причина? Сразу два случая: адвокат, защищая клиента против банков, вписал в иск 45 ссылок на дела - 18 из них оказались вымыслом. В другом процессе юрист “цитировала” пять несуществующих дел, после чего судья пригрозила: дальше будет не только разборка, но и возможная передача дела в полицию.

Суд жёстко предупредил: адвокаты обязаны проверять каждую цитату и нести ответственность за то, что сдают в суд. Профессиональные регуляторы уже получили уведомления: теперь за фейки - штрафы, дисциплинарка и полная публичная порка.

Казалось бы, скандал стих…

Но тут же - новое дело, уже в США.

В мае 2025 года на скамье извиняющихся оказался юрист Anthropic - компании, создавшей конкурента ChatGPT, нейросеть Claude. Адвокат признал: в документах для федерального суда Северной Калифорнии оказалась “галлюцинированная” ссылка, с ошибочными авторами и названием - всё сгенерировал Claude. Ручная проверка не спасла: “честная ошибка”, - оправдывается Anthropic. Но “ошибка” стала поводом для судебного разбирательства. Против Anthropic выступают музыкальные гиганты - Universal Music Group и другие. Их адвокаты обвинили эксперта Anthropic (Olivia Chen) в том, что она “кормила” суд вымышленными статьями от ИИ.

Федеральная судья Susan van Keulen вынудила компанию объясняться официально, а раньше на неделе жёстко раскритиковала ещё пару фирм за подачу “фейкового ИИ-исследования”.

И это - не первая и не вторая, подобные истории: в январе австралийский юрист тоже попал впросак, доверившись ChatGPT.

Пока суды в ярости, рынок в восторге:

Стартапы вроде Harvey продолжают собирать сотни миллионов инвестиций, чтобы автоматизировать работу юристов - несмотря на очередные мемы про “виртуальные дела”.

Harvey вот-вот поднимет $250 млн при оценке $5 млрд - рынок не пугает ни один скандал.

Мораль для читателя:

Сегодня адвокат рискует не только проиграть дело, но и стать мемом недели - если его бот решит сочинить пару “убедительных” цитат.

Мир движется к автоматизации, но доверять ИИ слепо - рецепт публичного фейла и потери лицензии.

Судьи устали от сказочников с ноутбуками. Если у тебя на руках не “реальная ссылка”, а бот-фантазёр - готовься извиняться.

Проверяй не только помощника, но и его нейросетевой “мозг”.

P.S.

Встретимся в суде - но сначала проверьте источник.


А у вас был опыт общения с юристом, который цитировал “виртуальные дела”? Или сам попадался на фейки из-за ИИ? Пишите в комменты, пообсуждаем!