Найти тему

🤖ChatGPT придумал фейковые прецеденты и подставил юриста


🎓Американский юрист Стивен Шварц использовал чат-бот ChatGPT при подготовке документов по иску клиента, который получил травму во время авиаперелета. Он предоставил судье список похожих дел, выданный нейросетью, где истцы добивались компенсации. Однако выяснилось, что таких прецедентов на самом деле не существует.

🤔Юрист пояснил, что раньше никогда не использовал чат-бот ChatGPT и поэтому не знал, что сгенерированный им текст может содержать ложные сведения. Подлинность выданных ботом данных юрист проверили с помощью него же — спросил у ChatGPT, существуют ли дела из списка на самом деле, и получил ответ «Да».

⚖️8 июня состоятся дисциплинарные слушания из-за использования юристом чат-бота в деле, в результате которых Шварц может лишиться лицензии.
Около минуты