Добавить в корзинуПозвонить
Найти в Дзене
Умен и богат

Этот человек был yбит четыре года назад. Его клон с ИИ только что выступил в суде.

Заявление о воздействии, созданное искусственным интеллектом, появилось всего через месяц после того, как 74-летний Джером Девальд, обвиняемый в суде штата Нью-Йорк, использовал видео с дипфейком, чтобы помочь себе в защите. Когда Девальд появился в суде из-за спора по контракту с бывшим работодателем, он представил видео, на котором мужчина в свитере и синей рубашке говорит прямо в камеру. Судья, сбитый с толку этим видео, спросил Девальда, был ли человек на экране его адвокатом. На самом деле это был дипфейк, созданный искусственным интеллектом. «Я это придумал», — сказал Девальд, по сообщениюThe New York Times. «Это не реальный человек». Судья остался недоволен и сделал Девальду выговор за то, что он не сообщил, что использовал программное обеспечение на основе ИИ для своей защиты. В беседе с The New York Times после слушания Девальд заявил, что не собирался вводить суд в заблуждение, а использовал инструмент ИИ, чтобы более чётко изложить свою защиту. Он сказал, что изначально план
Оглавление

Житель Нью-Йорка использовал искусственный интеллект deepfake, чтобы помочь аргументировать свою правоту

Заявление о воздействии, созданное искусственным интеллектом, появилось всего через месяц после того, как 74-летний Джером Девальд, обвиняемый в суде штата Нью-Йорк, использовал видео с дипфейком, чтобы помочь себе в защите. Когда Девальд появился в суде из-за спора по контракту с бывшим работодателем, он представил видео, на котором мужчина в свитере и синей рубашке говорит прямо в камеру. Судья, сбитый с толку этим видео, спросил Девальда, был ли человек на экране его адвокатом. На самом деле это был дипфейк, созданный искусственным интеллектом.

«Я это придумал», — сказал Девальд, по сообщениюThe New York Times. «Это не реальный человек».

Судья остался недоволен и сделал Девальду выговор за то, что он не сообщил, что использовал программное обеспечение на основе ИИ для своей защиты. В беседе с The New York Times после слушания Девальд заявил, что не собирался вводить суд в заблуждение, а использовал инструмент ИИ, чтобы более чётко изложить свою защиту. Он сказал, что изначально планировал, чтобы дипфейк был похож на него самого, но после возникновения технических трудностей переключился на версию, показанную в суде.

«Я никогда не стремился обмануть, а скорее хотел представить свои аргументы наиболее эффективным способом», — говорится в письме Девальда судьям.

Модели искусственного интеллекта ‘галлюцинировали’ фальшивыми судебными делами

Эти два дела представляют собой последние примеры того, как генеративный искусственный интеллект проникает в залы судебных заседаний. Эта тенденция начала набирать обороты несколько лет назад после всплеска общественного интереса к популярным чат-ботам, таким как ChatGPT от OpenAI. Сообщается, что юристы по всей стране используют эти большие языковые модели, чтобы помогать составлять юридические документы и собирать информацию. Это привело к нескольким неприятным случаям, когда модели «выдумывали» полностью вымышленные названия дел и факты, которые в конечном итоге попадали в судебные разбирательства.

В 2023 году судья наложил санкции на двух нью-йоркских адвокатов после того, как они представили докладную записку, содержащую шесть поддельных цитат из судебных дел, сгенерированных ChatGPT. Майкл Коэн, бывший личный адвокат президента Дональда Трампа, как сообщается, отправлял своему адвокату поддельные судебные дела, сгенерированные искусственным интеллектом, которые в итоге были включены в ходатайство, поданное федеральным судьям. Другой адвокат из Колорадо был отстранён от работы после того, как, как сообщается, представил судебные дела, сгенерированные искусственным интеллектом. На OpenAI даже подал в суд радиоведущий из Джорджии, который утверждал, что в ответе ChatGPT его обвинили в причастности к реальному делу о растрате, к которому он не имел никакого отношения.

Будьте готовы к появлению нового искусственного интеллекта в залах судов

Несмотря на то, что суды наказывали адвокатов и подсудимых за использование ИИ таким образом, что это выглядело как обман, правила, касающиеся допустимости использования этих инструментов, остаются неясными. Только на прошлой неделе федеральная судебная коллегия проголосовала 8 голосами против 1 за то, чтобы запросить у общественности комментарии к проекту правила, направленного на то, чтобы доказательства, полученные с помощью ИИ, соответствовали тем же стандартам, что и доказательства, представленные свидетелями-экспертами. Председатель Верховного суда Джон Робертс также затронул этот вопрос в своём годовом отчёте за 2023 год, отметив как потенциальные преимущества, так и недостатки использования генеративного ИИ в зале суда. С одной стороны, заметил он, ИИ может облегчить защиту людям с ограниченными финансовыми ресурсами. В то же время он предупредил, что эта технология рискует «нарушить неприкосновенность частной жизни и обесчеловечить закон»

Читайте еще:

Сечин устраивает эскортниц на должности в «Роснефти» и платит им большие зарплаты из бюджета компании — расследование
За три года в России национализировали 411 компаний с активами на 2,6 трлн рублей
Бесчестный знак. Расследование о том, как россиян обложили скрытым налогом

Подпишитесь на канал "Жизнь Дурова: ЗОЖ, деньги, ИТ" - все самое главное о здоровье, технологиях и деньгах