Добавить в корзинуПозвонить
Найти в Дзене
IT Vibe

​​Фальшивые дела от ИИ: юристы продолжают “галлюцинировать” в суде

​​Фальшивые дела от ИИ: юристы продолжают “галлюцинировать” в суде В США всё больше юристов попадаются на том, что используют ИИ не для помощи, а для откровенной фальсификации судебных дел. И это уже системная история. Самый громкий случай в этом году: адвокат подал ходатайство по делу о банкротстве в Техасе, сославшись на якобы реальный прецедент Brasher v. Stewart (1985). Проблема в том, что никакого такого дела не было — это «галлюцинация» ИИ. Судья отреагировал жёстко: передал юриста в дисциплинарный комитет и обязал пройти шестичасовое обучение по ИИ. Мол, раз уж используешь — научись хотя бы понимать, где ты лжёшь в лицо суду. Французский юрист Дамьен Шарлотен даже запустил публичную базу данных, где отслеживаются случаи фальшивых дел, сгенерированных ИИ. Весной в неё попадало по 3–4 случая в месяц. Сейчас — по 3–4 в день. Всего уже 509 зарегистрированных кейсов, и это явно не предел. Наказания пока не работают: юристы продолжают «отмечать» в документах несуществующие прецеде

​​Фальшивые дела от ИИ: юристы продолжают “галлюцинировать” в суде

В США всё больше юристов попадаются на том, что используют ИИ не для помощи, а для откровенной фальсификации судебных дел. И это уже системная история.

Самый громкий случай в этом году: адвокат подал ходатайство по делу о банкротстве в Техасе, сославшись на якобы реальный прецедент Brasher v. Stewart (1985). Проблема в том, что никакого такого дела не было — это «галлюцинация» ИИ. Судья отреагировал жёстко: передал юриста в дисциплинарный комитет и обязал пройти шестичасовое обучение по ИИ. Мол, раз уж используешь — научись хотя бы понимать, где ты лжёшь в лицо суду.

Французский юрист Дамьен Шарлотен даже запустил публичную базу данных, где отслеживаются случаи фальшивых дел, сгенерированных ИИ. Весной в неё попадало по 3–4 случая в месяц. Сейчас — по 3–4 в день. Всего уже 509 зарегистрированных кейсов, и это явно не предел.

Наказания пока не работают: юристы продолжают «отмечать» в документах несуществующие прецеденты. Это напоминает злоупотребление ChatGPT на автопилоте: сгенерировал — вставил — отправил в суд. Удобно. Только вот правосудию от этого не легче.

Похоже, что намечается новая юридическая этическая драма: где заканчивается «инструмент», и начинается «фальсификация»? И кто должен нести ответственность за выдуманные ссылки — машина или человек?

#ИИ #суд #этика

🔳 IT Vibe News