Найти в Дзене
Мира о мире

⚖️ Правда под угрозой: кризис цифрового доказывания из-за Deepfake и ИИ

⚖️ Правда под угрозой: кризис цифрового доказывания из-за Deepfake и ИИ ​Исследователи Университета Колорадо в Боулдере бьют тревогу: в США назрела острая необходимость введения новых правил для проверки цифровых доказательств. Причина — угроза дипфейков (deepfakes) и быстрое развитие инструментов искусственного интеллекта (ИИ). ​Суд в эпоху ИИ-фальсификаций ​Судебная система США оказалась не готова к «цифровой войне», где видео- и аудиоматериалы, составляющие более 80% судебных дел, могут быть легко сфабрикованы. ​Необученные кадры. Судьи и присяжные почти не имеют подготовки, необходимой для того, чтобы отличать подлинные записи от подделанных. ​Прецедент. В сентябре в Калифорнии уже был случай, когда суд признал свидетельское видео сфабрикованным, что привело к развалу дела. ​Угроза Sora 2. Ученые предупреждают, что с появлением таких мощных инструментов для создания видео, как Sora 2, число подобных прецедентов резко возрастет. ​«Защита через Deepfake» и ложные аресты ​Про

⚖️ Правда под угрозой: кризис цифрового доказывания из-за Deepfake и ИИ

​Исследователи Университета Колорадо в Боулдере бьют тревогу: в США назрела острая необходимость введения новых правил для проверки цифровых доказательств.

Причина — угроза дипфейков (deepfakes) и быстрое развитие инструментов искусственного интеллекта (ИИ).

​Суд в эпоху ИИ-фальсификаций

​Судебная система США оказалась не готова к «цифровой войне», где видео- и аудиоматериалы, составляющие более 80% судебных дел, могут быть легко сфабрикованы.

​Необученные кадры.

Судьи и присяжные почти не имеют подготовки, необходимой для того, чтобы отличать подлинные записи от подделанных.

​Прецедент.

В сентябре в Калифорнии уже был случай, когда суд признал свидетельское видео сфабрикованным, что привело к развалу дела.

​Угроза Sora 2.

Ученые предупреждают, что с появлением таких мощных инструментов для создания видео, как Sora 2, число подобных прецедентов резко возрастет.

​«Защита через Deepfake» и ложные аресты

​Проблема усугубляется тем, что угроза исходит не только от злоумышленников, но и от самой правовой системы, а также от юридической защиты.

​Риск для юристов.

Эксперты отмечают появление тенденции «защиты через deepfake», когда адвокаты пытаются поставить под сомнение подлинные записи, просто утверждая, что они могут быть подделкой. Это размывает доверие ко всем цифровым доказательствам.

​Ошибки распознавания лиц.

Одновременно с этим растет число ошибок в системах распознавания лиц, которые приводят к ложным арестам невиновных граждан.

💡​В нынешних условиях судебная система США рискует потерять возможность устанавливать истину в делах, основанных на цифровых доказательствах.

Для защиты справедливости и прав граждан в эпоху ИИ необходимы экстренные системные меры: требуется внедрение единых национальных стандартов для экспертизы и оценки цифровых доказательств, организация специализированного обучения судей, прокуроров и присяжных по вопросам технологий ИИ и методов фальсификации, а также интеграция в судах надежных, научно обоснованных систем проверки видео- и аудиозаписей, способных гарантировать точность и защиту в каждом процессе.