Найти в Дзене

Может ли компьютер понять, что вы врете? Почему детекторы лжи — это аферисты в смокингах

Знакомое чувство? Вы говорите что-то безобидное, а близкий человек обижается не на слова, а на тон. На то, как вы это сказали. В нашем голосе — целая вселенная эмоций: возбуждение, скука, ужас, сарказм. Хороший собеседник ловит эти нюансы с полуслова. А может ли этому научиться компьютер? Сможет ли он когда-нибудь стать по-настоящему хорошим слушателем, который отличит шутку от колкости, а правду — от лжи? Особенно заманчивой выглядит идея создать электронного судью, который безошибочно вычисляет лжеца. Представьте: полиция, спецслужбы, страховые компании получают бездушную, но абсолютно точную машину правды. Мечта? Скорее, опасная иллюзия. Убийца с Грин-Ривер и провал полиграфа В 1980-90-х годах в США орудовал серийный убийца, получивший прозвище по реке, куда сбрасывал тела. В 1984 году полиция проверяла подозреваемых на полиграфе. Среди них был Гэри Риджуэй — скромный маляр, отец семейства. Он прошёл проверку. Его признали чистым. Лишь 19 лет спустя, в 2003 году, благодаря ДНК-экспе

Знакомое чувство? Вы говорите что-то безобидное, а близкий человек обижается не на слова, а на тон. На то, как вы это сказали. В нашем голосе — целая вселенная эмоций: возбуждение, скука, ужас, сарказм. Хороший собеседник ловит эти нюансы с полуслова. А может ли этому научиться компьютер? Сможет ли он когда-нибудь стать по-настоящему хорошим слушателем, который отличит шутку от колкости, а правду — от лжи?

Особенно заманчивой выглядит идея создать электронного судью, который безошибочно вычисляет лжеца. Представьте: полиция, спецслужбы, страховые компании получают бездушную, но абсолютно точную машину правды. Мечта? Скорее, опасная иллюзия.

Убийца с Грин-Ривер и провал полиграфа

В 1980-90-х годах в США орудовал серийный убийца, получивший прозвище по реке, куда сбрасывал тела. В 1984 году полиция проверяла подозреваемых на полиграфе. Среди них был Гэри Риджуэй — скромный маляр, отец семейства. Он прошёл проверку. Его признали чистым. Лишь 19 лет спустя, в 2003 году, благодаря ДНК-экспертизе, Риджуэя посадили за решётку. Он признался в 48 убийствах. Полиграф его не поймал.

И это не исключение. Британское психологическое общество, проанализировав данные, выяснило: если проверяют виновного, полиграф угадывает в 83-89% случаев. А вот если проверяют невиновного, точность падает до 53-78% — чуть лучше, чем подброшенная монета. Полиграф чаще ошибается в пользу виновного, оправдывая преступника.

Но миф живёт. В 2014 году в Британии ввели обязательную проверку на полиграфе для опасных секс-преступников. И что? Они стали чаще признаваться в рискованном поведении. Но признания выбивал не аппарат, а вера в его всемогущество. Эффект фиктивного полиграфа: люди пасуют перед мифом о всевидящей машине.

Анализ стресса по голосу: когда шарлатаны играют в науку

Если полиграф ненадёжен, может, компьютер сможет анализировать сам голос? Появились коммерческие системы «анализа голосового стресса» (VSA). Производители заявляли, что их используют 1400 правоохранительных органов в США и даже Пентагон. Министерство труда Великобритании потратило на тестирование этой технологии 2,4 миллиона фунтов.

В основе — псевдонаучная идея о микротреморах голоса. Мол, стресс меняет кровоток в мышцах гортани, вызывая микродрожание, которое можно поймать. Проблема в том, что нет никаких доказательств, что такие треморы в голосовых связках вообще существуют. А если и существуют, то обнаружить их влияние на фоне сложнейшей работы гортани невозможно.

Лингвисты Франсиско Ласерда и Андерс Эриксон разобрали один из таких патентов. Их вердикт был убийственным: «В любой области есть шарлатаны… Лингвокриминалистика не исключение». Алгоритм в патенте напоминал студенческую поделку, которая анализировала звуковую волну, считая пики и впадины, а потом выдавала результаты в стиле гороскопа: «обманчивость; низкий уровень стресса; нормальное возбуждение». Учёные назвали это «управляемым голосом генератором случайных чисел».

Когда эту технологию проверили в тюрьме, сравнивая ответы заключённых о наркотиках с анализами мочи, её точность оказалась на уровне случайного угадывания. А ложные обвинения («ложноположительные срабатывания») были катастрофически высокими. Представьте, что такой системой оснастят аэропорт: каждый день тысячи невинных людей будут попадать в поле зрения служб безопасности.

Почему мы так плохо распознаём ложь (и всегда будем)

Но может, проблема не в компьютерах, а в том, что у лжи просто нет надёжных голосовых маркеров?

Мы все думаем, что хорошо видим ложь. Нам кажется, лжец будет отводить взгляд, ёрзать, говорить сбивчиво. Это стереотипы, и они ошибочны.

  • В 1994 году 40 000 человек пытались определить, лжёт ли в интервью политик сэр Роберт Дэй. Те, кто только слушал запись, угадали в 73% случаев. Те, кто читал текст, — в 64%. А вот те, кто смотрел видео (видел мимику и жесты!), показали худший результат — всего 52% (чуть лучше гадания). Визуальные «подсказки» только мешают.
  • Полицейские в Израиле, просматривая видео с подростками, были уверены, что хорошо справляются. На деле они обнаруживали ложь лишь в 46% случаев.

Почему мы так плохи в этом? Во-первых, мы ищем не те признаки. Лжецы, наоборот, часто замирают, контролируют себя. Во-вторых, работает презумпция правды. Наш мозг изначально настроен верить. В саванне звук в кустах скорее означал хищника, и тот, кто предполагал худшее, выживал. В общении же правдивых утверждений больше, и мозг идёт по пути наименьшего сопротивления — доверяет.

Есть и «ошибка Отелло». Отелло видел страдания Дездемоны и принял их за доказательство вины. Но невинный человек под давлением обвинений может испытывать не меньший (а то и больший) стресс, чем виновный. Компьютер, анализируя лишь волнение в голосе, совершит ту же ошибку.

Может, хотя бы пьяного распознает? Дело «Эксон Вальдес»

Более простая задача: определить по голосу, пьян ли человек. В 1989 году капитан танкера «Эксон Вальдес» Джозеф Хейзелвуд, будучи пьяным, посадил судно на мель, вызвав чудовищное загрязнение. Записи его переговоров фиксировали замедленную, нечёткую речь.

В 2011 году учёные устроили соревнование алгоритмов: накормили 154 добровольца алкоголем, записали их голоса и дали задание компьютерам определить состояние. Лучший алгоритм показал точность 71% — примерно как у человека. Но этого недостаточно для ответственных решений (например, для автоматической блокировки управления кораблём). Тем более что замедлить речь мог и сильный шум на мостике, а не только водка. Хейзелвуда в итоге оправдали, и анализ голоса не стал решающим доказательством.

Смех — тоже не показатель. Исследования нейробиолога Софи Скотт

А что с более приятными эмоциями? Может, компьютер научится понимать шутки, отслеживая смех? Нейробиолог Софи Скотт изучает смех. Она выяснила, что смех бывает двух типов:

  1. Неконтролируемый, настоящий — реакция на что-то очень смешное. Звучит выше, хриплее, создаётся спазмами диафрагмы.
  2. Социальный, вежливый — который мы издаём каждые 2 минуты разговора, чтобы «смазать» общение. Он не связан с юмором.

Мозг по-разному реагирует на эти типы. Но для компьютера, который просто слышит «ха-ха-ха», разница неочевидна. Он будет фиксировать смех, но не поймёт, смеётся ли человек от души или просто кивает собеседнику. Чтобы понять юмор, нужно понимать контекст, иронию, двусмысленности — то, что недоступно даже самым продвинутым алгоритмам.

ИИ унаследует наши предрассудки

Машинное обучение — не панацея. Алгоритмы учатся на огромных массивах данных из интернета. А в этих данных — все наши культурные предрассудки. Исследование из Принстона показало: алгоритм, обученный на текстах из сети, начинает ассоциировать европейские имена с приятными словами («любовь», «радость»), а афроамериканские — с неприятными. Женские имена чаще связывал с семьёй, мужские — с карьерой.

Google-переводчик с турецкого (где есть местоимение «o», не указывающее пол) фразу «o bir doktor» переводит как «he is a doctor» (он — врач), а «o bir hemşire» — как «she is a nurse» (она — медсестра). Алгоритм унаследовал сексистский стереотип. Если такой ИИ будет анализировать заявления о приёме на работу, он лишь усилит дискриминацию.

Вывод: почему детектор лжи — это тупик (и всегда им будет)

Мы мечтаем о машине правды, потому что ложь причиняет боль, а несправедливость возмущает. Но наше желание наткнулось на биологическую и эволюционную реальность.

Ложь — это важный социальный навык, появившийся у приматов. Дети начинают врать к 2-4 годам, и это признак развития мозга (нужно понять, что думает другой, чтобы его обмануть). «Белая ложь», умолчание, приукрашивание — часть социального клея.

Эволюция не стала делать ложь легко читаемой. Если бы по голосу можно было безошибочно вычислять обман, социальное сотрудничество, построенное на гибкости и дипломатии, рухнуло бы. Голосовые сигналы лжи намеренно тонки, противоречивы и контекстно зависимы.

Компьютер сегодня может распознать слово, даже сказанное с сильным акцентом. Он может отличить смех от плача. Но понять, смеётся ли человек над шуткой или над вами, искренне ли он огорчён или притворяется — это требует понимания всего мира: культуры, отношений, истории, тончайшей игры смыслов.

Пока искусственный интеллект не научится жить человеческой жизнью со всеми её противоречиями, «детектор лжи» останется либо инструментом шарлатанов, либо грубым фильтром, который вместе с водой выплескивает ребёнка, обвиняя невинных.

Нам, людям, придётся и дальше полагаться на собственное чутьё, эмпатию и, как ни парадоксально, на готовность иногда верить. Потому что общество, где каждый автоматически считается лжецом, пока не доказано обратное, — это общество, в котором невозможно жить.

А вы доверяете своему умению распознавать ложь? Сталкивались ли с технологиями вроде «анализа голосового стресса»?