Найти тему

Вот что происходит, когда ваш адвокат использует ChatGPT

Адвокат, представляющий мужчину, который подал в суд на авиакомпанию, полагался на искусственный интеллект, чтобы помочь подготовить исковое заявление в суд.

Последние события заставили задуматься, насколько хорошо работают системы искусственного интеллекта. Когда самолет авиакомпании Avianca приблизился к Международному аэропорту им. Джона Кеннеди в Нью-Йорке, столкновение тележки  с обслуживающим персоналом положило начало юридической саге. Этот инцидент вызвал вопросы о том, достаточно ли умны системы искусственного интеллекта, контролирующие такие процессы.
Последние события заставили задуматься, насколько хорошо работают системы искусственного интеллекта. Когда самолет авиакомпании Avianca приблизился к Международному аэропорту им. Джона Кеннеди в Нью-Йорке, столкновение тележки с обслуживающим персоналом положило начало юридической саге. Этот инцидент вызвал вопросы о том, достаточно ли умны системы искусственного интеллекта, контролирующие такие процессы.

Судебный процесс начался, довольно стандарно как и многие другие: мужчина по имени Роберто Мата подал в суд на авиакомпанию Avianca, заявив, что получил травму, когда металлическая сервировочная тележка ударила его по колену во время полета в международный аэропорт Кеннеди в Нью-Йорке.

Когда Avianca попросила федерального судью Манхэттена прекратить дело, адвокат Роберто Маты яростно возразили, представив 10-страничное резюме, в котором приводилось более полудюжины похожих судебных решений. Например там были дело Мартинес против Delta Air Lines, Зихерман против Korean Air Lines и Варгезе против China Southern Airlines.

Судебный процесс
Судебный процесс

Была только одна загвоздка: никто — ни юристы авиакомпании, ни даже сам судья — не мог найти решения или цитаты, приведенные и обобщенные в кратком изложении.

Всё потому что это было придумано ChatGPT и в реальной жизни таких дел не было.

Адвокат, составивший исковое заявление, Стивен А. Шварц из фирмы Levidow, Levidow & Oberman, в четверг сдался на милость суда, заявив под присягой, что он использовал программу искусственного интеллекта ChatGPT для проведения своего юридического исследования по похожим делам.

Стивен А. Шварц, занимающийся юридической практикой в Нью-Йорке на протяжении последних тридцати лет, сказал судье П. Кевину Кастелу, что у него не было намерения вводить в заблуждение суд или авиакомпанию. Стивен А. Шварц сказал, что он никогда не использовал ChatGPT и “поэтому не знал о возможности того, что его содержание может быть выдуманным”.

Он сказал судье Кастелю, что даже попросил программу проверить, реальны ли случаи.

На что получил ответ "да".

-3

Стивен А. Шварц сказал, что он “сильно сожалеет” о том, что полагался на ChatGPT, “и никогда не будет делать этого в будущем без абсолютной проверки подлинности данных”.

Судья Кастел заявил в постановлении, что ему были представлены “беспрецедентные обстоятельства”, юридическое представление, изобилующее “поддельными судебными решениями, с поддельными цитатами и поддельными внутренними ссылками”. Он назначил слушание на 8 июня, чтобы обсудить возможные санкции.

Стивен Гиллерс, профессор юридической этики в Школе права Нью-Йоркского университета, сказал, что проблема особенно остро стоит среди юристов, которые обсуждают ценность и опасности программного обеспечения искусственного интеллекта, такого как ChatGPT, а также необходимость проверки любой информации, которую оно предоставляет.

Судебный процесс
Судебный процесс

“Сейчас среди коллегии адвокатов идет дискуссия о том, как избежать именно того, что описано в этом деле”, - сказал мистер Гиллерс. “Вы не можете просто взять данные, вырезать и вставить их в свои судебные документы”.

Реальное дело Роберто Мата против Avianca Inc. показывает, что у белых воротничков, возможно, осталось хотя бы немного времени, прежде чем роботы возьмут верх.