Найти тему
2317 подписчиков

Искусственный интеллект порой бессовестно врет, и юристы призывают коллег проявить особую осторожность при использовании модных программ в своей работе, иначе есть риск попасть под суд за фальсификацию доказательств. Как пишет «РГ», за рубежом судьи начали запрещать использование ChatGPT участниками процесса, а в судах даже стали требовать сертификаты о том, что текст адвоката или прокурора был создан без использования ИИ. Дело в том, что ему нет разницы – слова, которые он компилирует в текст, соответствуют действительности или нет. Нейросеть всего лишь выстраивает слова в последовательность, наиболее отвечающую заданному контексту. Это может выглядеть достоверно и ввести в заблуждение участников процесса, о чем и свидетельствуют появляющиеся в СМИ сообщения о «выдуманной» Chat GPT судебной практике. Явление даже приобрело название «галлюцинации нейросети». Но одно дело, когда искусственный интеллект ошибается в вопросе «какое число больше», другое дело – когда, по сути, фабрикует доказательства, предупреждают юристы.

Искусственный интеллект порой бессовестно врет, и юристы призывают коллег проявить особую осторожность при использовании модных программ в своей работе, иначе есть риск попасть под суд за...
Около минуты
218 читали