Адвокат, представляющий мужчину, который подал в суд на авиакомпанию, полагался на искусственный интеллект, чтобы помочь подготовить исковое заявление в суд.
Судебный процесс начался, довольно стандарно как и многие другие: мужчина по имени Роберто Мата подал в суд на авиакомпанию Avianca, заявив, что получил травму, когда металлическая сервировочная тележка ударила его по колену во время полета в международный аэропорт Кеннеди в Нью-Йорке.
Когда Avianca попросила федерального судью Манхэттена прекратить дело, адвокат Роберто Маты яростно возразили, представив 10-страничное резюме, в котором приводилось более полудюжины похожих судебных решений. Например там были дело Мартинес против Delta Air Lines, Зихерман против Korean Air Lines и Варгезе против China Southern Airlines.
Была только одна загвоздка: никто — ни юристы авиакомпании, ни даже сам судья — не мог найти решения или цитаты, приведенные и обобщенные в кратком изложении.
Всё потому что это было придумано ChatGPT и в реальной жизни таких дел не было.
Адвокат, составивший исковое заявление, Стивен А. Шварц из фирмы Levidow, Levidow & Oberman, в четверг сдался на милость суда, заявив под присягой, что он использовал программу искусственного интеллекта ChatGPT для проведения своего юридического исследования по похожим делам.
Стивен А. Шварц, занимающийся юридической практикой в Нью-Йорке на протяжении последних тридцати лет, сказал судье П. Кевину Кастелу, что у него не было намерения вводить в заблуждение суд или авиакомпанию. Стивен А. Шварц сказал, что он никогда не использовал ChatGPT и “поэтому не знал о возможности того, что его содержание может быть выдуманным”.
Он сказал судье Кастелю, что даже попросил программу проверить, реальны ли случаи.
На что получил ответ "да".
Стивен А. Шварц сказал, что он “сильно сожалеет” о том, что полагался на ChatGPT, “и никогда не будет делать этого в будущем без абсолютной проверки подлинности данных”.
Судья Кастел заявил в постановлении, что ему были представлены “беспрецедентные обстоятельства”, юридическое представление, изобилующее “поддельными судебными решениями, с поддельными цитатами и поддельными внутренними ссылками”. Он назначил слушание на 8 июня, чтобы обсудить возможные санкции.
Стивен Гиллерс, профессор юридической этики в Школе права Нью-Йоркского университета, сказал, что проблема особенно остро стоит среди юристов, которые обсуждают ценность и опасности программного обеспечения искусственного интеллекта, такого как ChatGPT, а также необходимость проверки любой информации, которую оно предоставляет.
“Сейчас среди коллегии адвокатов идет дискуссия о том, как избежать именно того, что описано в этом деле”, - сказал мистер Гиллерс. “Вы не можете просто взять данные, вырезать и вставить их в свои судебные документы”.
Реальное дело Роберто Мата против Avianca Inc. показывает, что у белых воротничков, возможно, осталось хотя бы немного времени, прежде чем роботы возьмут верх.