Найти в Дзене
НейроПрофи

ИИ судит человека. Чем закончился громкий эксперимент в США

В Университете Северной Каролины решили поэкспериментировать: а что, если заменить присяжных искусственным интеллектом?
В зале — подсудимый, обвинение, защита… и три ИИ вместо присяжных. Роли достались ChatGPT, Grok и Claude — самые популярные нейросети планеты. Сценарий
Студенты-юристы провели инсценировку судебного процесса по делу об ограблении. Подсудимый — вымышленный подросток Генри Джастус. И всё шло по плану, пока дело не дошло до присяжных.
Профессор Джозеф Кеннеди, автор эксперимента, хотел проверить: сможет ли искусственный интеллект быть справедливым, если ему доверить человеческую судьбу? Вердикт? Так себе.
ИИ-присяжные слушали аргументы, анализировали тексты, строили логические цепочки — в общем, делали всё, как учили. Но вот человеческого в них не хватило. Они не видели язык тела свидетелей, не замечали нервных пауз, не считывали интонацию. Где живой человек чувствует, что кто-то врёт или волнуется, ИИ видел просто набор слов.
Иногда алгоритмы даже «переосмысляли» ф
ИИ-присяжные вынесли приговор… и опозорились
ИИ-присяжные вынесли приговор… и опозорились

В Университете Северной Каролины решили поэкспериментировать: а что, если заменить присяжных искусственным интеллектом?

В зале — подсудимый, обвинение, защита… и три ИИ вместо присяжных. Роли достались
ChatGPT, Grok и Claude — самые популярные нейросети планеты.

Сценарий

Студенты-юристы провели инсценировку судебного процесса по делу об ограблении. Подсудимый — вымышленный подросток Генри Джастус. И всё шло по плану, пока дело не дошло до присяжных.

Профессор Джозеф Кеннеди, автор эксперимента, хотел проверить: сможет ли искусственный интеллект быть справедливым, если ему доверить человеческую судьбу?

Вердикт? Так себе.

ИИ-присяжные слушали аргументы, анализировали тексты, строили логические цепочки — в общем, делали всё, как учили. Но вот человеческого в них не хватило. Они не видели язык тела свидетелей, не замечали нервных пауз, не считывали интонацию. Где живой человек чувствует, что кто-то врёт или волнуется, ИИ видел просто набор слов.

Иногда алгоритмы даже «переосмысляли» фразы и делали выводы, которых не было в тексте.

И ещё один нюанс — предвзятость.

Когда исследователи проверили результаты, оказалось, что решения ИИ нередко зависели от расовых и культурных стереотипов, заложенных в обучающих данных. Машины ведь учатся на том, что создают люди, — а люди, мягко говоря, не всегда беспристрастны.

Итог

Да, ИИ может блистательно анализировать факты. Но понять, кто лжёт, а кто просто запутался — пока не его уровень.

Алгоритмы не чувствуют справедливости, не умеют сопереживать и не знают, что такое человеческая ошибка.

Профессор Кеннеди подвёл итог просто:

«Искусственный интеллект может быть хорошим помощником юриста, но плохим судьёй».

Так что, если однажды вы услышите фразу «дело будет рассматривать ChatGPT», — лучше попросите пересмотреть состав суда.

Источник: law.unc.edu