«Тошнотворно пугающе»: Юридическая фирма осуждает небрежное использование ИИ в суде
Morgan & Morgan — фирма, позиционирующая себя как «крупнейшая в США юридическая компания по вопросам телесных повреждений», которая «борется за людей», — в этом месяце на своем опыте убедилась, что даже один юрист, бездумно ссылающийся на придуманные ИИ судебные дела, может подорвать репутацию всей компании, работающей по всей стране.
Переведено, но не озвучено командой LearnMore.tech с сайта https://arstechnica.com/
В письме, представленном в суде, директор Morgan & Morgan по трансформации Ятх Итаякумар предупредил более 1 000 юристов фирмы, что использование фальшивых дел, сгенерированных ИИ, в судебных документах может привести к дисциплинарным мерам, вплоть до увольнения.
«Это серьезный вопрос, — написал Итаякумар. — От этого зависит честность вашей юридической работы и ваша репутация».
Ошибка с ИИ: фальшивые дела в судебном процессе против Walmart
Проблемы Morgan & Morgan с ИИ начались в деле против Walmart, в котором утверждалось, что ритейлер был причастен к разработке якобы бракованного игрушечного ховерборда, который, как утверждается, стал причиной пожара в доме семьи. Несмотря на значительный опыт, ведущий юрист компании по этому делу Рудвин Аяла включил в судебные документы восемь ссылок на дела, которые адвокаты Walmart нигде не смогли найти, кроме как в ChatGPT.
«Эти ссылки, похоже, существуют только в мире искусственного интеллекта», — заявили адвокаты Walmart, призвав суд рассмотреть возможность наложения санкций.
Пока суд не вынес решения о санкциях, но Аяла был немедленно отстранен от дела, а его место занял его непосредственный руководитель, адвокат Т. Майкл Морган. Испытывая «огромное смущение» из-за ложных ссылок, которые привели к потере времени суда, Морган заключил соглашение с юристами Walmart о возмещении всех расходов, связанных с ответами на ошибочные документы. Он заявил, что этот случай должен стать «предостережением» как для его фирмы, так и для всех юридических компаний.
ИИ и юриспруденция: растущие риски
Согласно данным Reuters, за последние 2 года ошибочные ссылки на дела, сгенерированные ИИ, привели к осложнениям в, по меньшей мере, 7 судебных процессах. Некоторые юристы уже подверглись санкциям. В одном из ранних случаев в июне прошлого года адвокаты были оштрафованы на 5 000 долларов за использование «бессмысленного» текста, созданного чат-ботом. В другом случае в Техасе юрист был оштрафован на 2 000 долларов и обязан пройти курс по ответственному использованию генеративного ИИ в правовой сфере. Однако бывший адвокат Дональда Трампа Майкл Коэн избежал санкций, несмотря на то, что случайно предоставил своему защитнику три фальшивых судебных решения в рамках собственного уголовного дела.
Юридические фирмы пересматривает политику использования ИИ
В поданных в суд документах Морган пояснил, что только Аяла несет ответственность за ошибочные ссылки на ИИ в деле против Walmart. Он подчеркнул, что никто из других сотрудников фирмы «не знал и не подозревал», что представленные документы содержат сгенерированную ИИ информацию.
«Риск того, что суд может опираться на вымышленные дела при формировании общего права, — пугающая мысль», — заявил Морган, принося извинения суду и подчеркивая, что искусственный интеллект может быть «опасен при небрежном использовании».
Кроме того, Морган признал, что его фирме необходимо усилить обучение сотрудников по работе с ИИ-инструментами, которые компания использует с ноября 2024 года. Хотя фирма предупреждала юристов, что ИИ может генерировать недостоверные данные, Аяла, по его словам, «ошибочно» полагал, что «внутренний ИИ-помощник» способен не только находить судебные дела, но и составлять юридические документы.
«Этот крайне прискорбный случай стал для меня и нашей фирмы жестким уроком в мире, где искусственный интеллект становится неотъемлемой частью повседневной юридической практики, — заявил Морган. — ИИ — это мощный инструмент, но пользоваться им нужно с осторожностью. В праве не бывает коротких путей».
Меры по предотвращению ошибок в будущем
В попытке не допустить повторения подобных случаев компания Morgan & Morgan внесла ряд изменений в свою политику использования ИИ. В письме к юристам фирмы Итаякумар повторно напомнил, что ИИ нельзя использовать в качестве единственного инструмента для поиска судебных прецедентов и составления документов, так как «ИИ может генерировать правдоподобные, но полностью вымышленные данные».
«Как все юристы знают (или должны знать), задокументированы случаи, когда ИИ придумывает судебные решения, включая ложные ссылки, прецеденты и даже цитаты, — говорится в письме. — Если вы используете ИИ для поиска ссылок на судебные дела, каждое дело должно быть независимо проверено».
Эксперты по праву отмечают, что с ростом использования ИИ в юриспруденции юристам необходимо повышать свою цифровую грамотность, чтобы понимать «сильные и слабые стороны» таких инструментов.
В рамках новых мер Morgan & Morgan внедрила обязательное подтверждение перед доступом к внутренней ИИ-платформе. Теперь перед использованием ИИ-ассистента юристы должны поставить галочку, подтверждая, что осознают риск генерации ложной информации.
«Кроме того, рассматриваются дополнительные механизмы защиты и обучения, чтобы предотвратить любые случаи неправильного использования искусственного интеллекта», — сообщил суду Морган.
Помогут ли эти меры избежать санкций, пока неясно. Однако Итаякумар предупредил, что наряду с возможными штрафами, слепое доверие к ИИ может привести к непоправимому ущербу репутации компании или отдельного юриста.
«Бездумное использование ИИ равносильно цитированию неподтвержденных судебных решений, — заявил Итаякумар. — Проверка результатов работы ИИ — это ваша профессиональная и этическая обязанность. Несоблюдение требований по верификации может повлечь судебные санкции, дисциплинарные меры вплоть до увольнения, а также ущерб репутации. Каждый юрист обязан следить за актуальными правилами использования ИИ в своей юрисдикции и строго соблюдать их».
От редакции LearnMore:
Мы считаем, что цифровую грамотность надо повышать не только юристам, но и людям других профессий. Приходите на наш курс “30 нейросетей, которые сделают работу за вас”, ведь ИИ – уже неотъемлемая часть нашей жизни, и сейчас как никогда важно в этом разбираться.