Прости, Виталик, прости, я выйду замуж за чат GPT!
Так гласит одна современная песня, которая хорошо отражает новые тенденции нашей жизни, а именно глубокую связь современного человека с искусственным интеллектом.
Ох уж этот искусственный интеллект - он настолько прочно обосновался в нашей повседневности, что уже и не знаю, сможем ли мы спокойно жить без него. Он отвечает на наши многочисленные вопросы, являясь энциклопедией и психологом одновременно, он переводит нам тексты с любого иностранного языка, он же генерирует фотографии, где воплощает в жизнь любую нашу иллюзию - один запрос и рядом с тобой уже стоит женщина или мужчина твоей мечты, а вот твой кумир пьёт рядом с тобой чаёк, а вот ты сам красивее, моложе и стройнее в разы, а здесь ты - герой популярного фильма.
Напоминает то самое зеркало желаний из книг/фильмов о Гарри Поттере, где волшебное зеркало показывало каждому, кто в него смотрит, его самое заветное желание. В общем неискусственные возможности искусственного интеллекта поражают.
Что и говорить, люди быстро научились пользоваться этими возможностями не только в развлекательных целях, но и в рабочих: им не пренебрегают школьники, журналисты и даже юристы!
Хочу рассказать вам забавную историю, как один «современный» адвокат провалил судебный процесс из-за чата GPT
Случилась эта история в недалёком 2023 году и стала одним из первых случаев, когда чат GPT так или иначе повлиял на ход судебного процесса. Впервые её осветило издание The New York Times - прочитайте в оригинале, если хотите.
Всё дело началось, когда Роберто Мата летел рейсом из Сальвадора в Нью-Йорк 27 августа 2019 года и, по его утверждению, получил травму от тележки для еды.
Как это водится в Америке, Роберто Мата решил подать в суд на авиакомпанию и нанял юристов из фирмы Levidow, Levidow & Oberman, которые взялись защищать его позицию и представили федеральному судье Манхэттена десятистраничное заключение, в котором ссылались на несколько подходящих судебных решений.
Для тех, кто не в курсе, поясню, что в Америке действует прецедентное право - это когда в обоснование своих доводов приводятся не статьи законов, как у нас, а судебные решения прошлых лет по сходным делам (прецеденты).
Вот и в нашей истории адвокат Роберта Маты Стивен Шварц сослался на такие судебные прецеденты как «Мартинез против Дельта Эйр Лайнс», «Зихерман против Кореян Эйр Лайнс» и «Варгес против Чайна Соузен Эйр Лайнс», подтверждающие правоту их позиции.
Была только одна загвоздка: ни юристы авиакомпании, ни даже сам судья так и не смогли найти эти решения или приведенные в них цитаты,
Потому что всё это выдумал ChatGPT.
Вот это я понимаю, неловкая ситуация...
Юристы авиакомпании обратили внимание на длинную цитату из так называемого решения по делу «Варгес», которую привели в документе. Они указали, что не удалось найти эту цитату ни в одном деле.
Кроме того, цитата из дела «Варгес» ссылалась на ещё одно несуществующее решение — «Зихерман против Кореян Эйр Лайнс», якобы вынесенное Апелляционным судом Одиннадцатого округа США в 2008 году. Это решение также оказалось недоступным в юридических базах данных.
Судья Кастел потребовал от адвокатов Маты предоставить копии всех упомянутых судебных актов. Те представили подборку из восьми дел, где указывали суды, имена судей, номера дел и даты.
Например, решение по делу «Варгес» было представлено как документ на 6 страниц, составленный кем-то из трёх судей Одиннадцатого округа. Однако адвокаты авиакомпании не обнаружили никаких следов этого решения — ни в официальных базах, ни в электронных системах судов.
Юрист авиакомпании сообщил суду, что их фирма Condon & Forsyth давно работает с авиационным правом, и специалисты сразу увидели странности — возникло подозрение в использовании чат-бота для подготовки материалов.
Ни Стивен Шварц, ни его коллега Питер ЛоДука, чья подпись стояла в документах, не дали комментариев прессе.
Дело в том, что ChatGPT создаёт текст, прогнозируя вероятное продолжение на основе большого массива данных. В деле Маты нейросеть правильно уловила форму юридического документа, но «наполнить» его реальными судебными фактами и решениями не смогла — использовала чужие имена и вымышленные события.
В итоговом заключении судья Кастел сам провёл проверку: сотрудник аппарата Одиннадцатого округа подтвердил, что номер «дела Варгеса» относится совсем к иному процессу. Выяснилось, что и пять других приведённых дел — тоже фикция.
В итоге адвокаты Маты были вынуждены подробно объяснить, как так получилось.
Шварц признал, что использовал ChatGPT как дополнение к своей работе, и обнаружил с его помощью несуществующие дела, будучи уверенным в их реальности, потому что чат-бот убедительно заверил его, что такие решения действительно существуют.
«Varghese — это настоящее дело?» — спрашивал он у программы (это подтверждается скриншотами переписки, переданными суду).
«Да,» — отвечал ChatGPT, приводя ссылки и уверяя в достоверности информации.
Судья Кастел высказался, что столкнулся с беспрецедентной ситуацией: юридический документ полностью состоял из вымышленных судебных решений и фиктивных цитат. Он назначил отдельное слушание для обсуждения возможных санкций для адвоката.
Что сказать, это, конечно, фиаско для репутации как всей фирмы Levidow, Levidow & Oberman в общем, так и для этих двух юристов в частности. В российском судебном процессе их бы ещё и высмеяли, я думаю...
Мир давно уже говорит о том, что совсем скоро писать иски и всевозможные заявления будет искусственный интеллект, а живые юристы станут попросту не нужны. Я всегда скептически относилась к таким заявлениям, и ситуации, подобные этой, прекрасно доказывают, что живой интеллект пусть и не может обрабатывать такие объёмы информации, как искусственный, но безусловно имеет свои преимущества.
Живое общение между людьми, нейросеть, конечно, вытесняет, но случай с Роберто Мата наглядно показал, что риск замены живых специалистов алгоритмами всё ещё не так велик.
Так что продолжаем работать, ребята)