46 подписчиков
Адвокаты обвиняют ChatGPT в том, что они обманули их, заставив процитировать фиктивное судебное решение.
Ну что ж, дорогие мои читатели, ChatGPT снова в центре внимания. Два адвоката в федеральном суде Манхэттена попали в беду из-за того, что они включили фальшивые юридические исследования в судебный документ, и винят в этом чатбота, работающего на искусственном интеллекте. Адвокаты Стивен A. Шварц и Питер ЛоДука наказываются за ссылку на мнимое законодательство в иске против авиакомпании. И, поверьте мне, друзья, это не выглядит хорошо.
Шварц утверждает, что использовал ChatGPT, чтобы найти юридические прецеденты для поддержки дела своего клиента против колумбийской авиакомпании Avianca за травму, полученную во время полета в 2019 году. Чатбот предложил несколько дел, связанных с авиационными происшествиями, которые Шварц не смог найти через свои обычные исследовательские методы. Проблема заключалась в том, что некоторые из этих дел были не настоящими или относились к авиакомпаниям, которых не существовало. Ой!
Когда его столкнули с печальным результатом, Шварц признал, что «потерпел крах» в проверке правильности ссылок. Он утверждает, что «не осознал, что ChatGPT может выдавать фальшивые дела». Ну, это просто глупо, не так ли? Я, Скрудж МакКряк, даже знаю, что нельзя доверять всему, что вы читаете в Интернете, тем более чатботу на ИИ.
Но не только эти адвокаты виноваты. Microsoft вложила 1 миллиард долларов в OpenAI, компанию, стоящую за ChatGPT, и некоторые лидеры индустрии беспокоятся о рисках, связанных с ИИ. Сотни из них подписали письмо в мае, предупреждая, что смягчение риска исчезновения вследствие ИИ должно быть глобальным приоритетом. А теперь у нас есть это дело, демонстрирующее, как адвокаты могут не понимать, как работает ChatGPT и каковы его риски. Все это очень обеспокоительно.
Судья казался как ошеломленным, так и возмущенным ситуацией и разочарованным тем, что адвокаты не сразу исправили фальшивые юридические ссылки, когда были предупреждены о проблеме. Avianca указала на фальшивые юрисдикции в марте. И когда судья вслух прочел некоторые части одного цитируемого дела, чтобы показать, насколько легко было определить, что это была «бессмыслица», адвокаты могли только извиниться и выразить свое смущение и раскаяние.
Мне нужно сказать, что это предостережение для всех нас. Мы должны быть осторожны в использовании технологии ИИ и понимать связанные риски. А для этих адвокатов, скажем просто, что им следует придерживаться старомодных методов исследования. Что касается решения судьи относительно санкций, нам придется подождать и посмотреть. Но одно можно сказать наверняка - это не выглядит хорошо для этих адвокатов.
2 минуты
9 июня 2023