Психологи предостерегают от использования искусственного интеллекта (ИИ) для обнаружения лжи. Причина этого предостережения заключается в том, что ИИ имеет свои ограничения и может быть недостаточно эффективным в определении правды или лжи в контексте сложных человеческих взаимодействий.
Это было бы практично, но эксперты настроены весьма скептически: немецкие психологи сейчас предостерегают от использования искусственного интеллекта (ИИ) для выявления лжи — например, при допросе людей, желающих въехать в ЕС на границах ЕС, или подозреваемых по уголовным делам. «Нос Пиноккио не существует вне книг».
Психолог Кристина Сухоцки из Марбургского университета и Матиас Гамер из Вюрцбургского университета приводят в качестве примеров в специализированном журнале «Тенденции в когнитивных науках» опросы людей, желающих въехать в ЕС на границах ЕС, или подозреваемых по уголовным делам.
Сухоцки сообщил немецкому агентству печати, что соответствующая технология уже опробована на внешних границах ЕС - в Греции, Латвии и Венгрии - со ссылкой на европейский проект пограничного контроля iBorderCtrl. В целом Сухоцки и геймеры упоминают разные проблемы: ИИ — это черный ящик, суждения которого невозможно понять извне и, следовательно, невозможно проверить. По их словам, существует также риск получения неправильных результатов и отсутствия теоретической основы.
«Использование искусственного интеллекта при обнаружении лжи основано на предположении, что можно идентифицировать четкий признак или комбинацию признаков, указывающих на обман», — цитируется Сухоцки в заявлении об исследовании. Даже десятилетия исследований не смогли выявить таких доказательств.
«Нос Пиноккио не существует вне книг», — подчеркивают дуэт. Не существует достоверных поведенческих индикаторов, которые можно было бы использовать, чтобы определить, говорит ли кто-то правду или нет. Психологи подчеркивают, что традиционные детекторы лжи, целью которых является определение правдивости утверждений на основе физических реакций, таких как артериальное давление, пульс и дыхание, уже давно считаются ненаучными.
Во-первых, ИИ основан на алгоритмах и программном обеспечении, разработанных людьми. Это означает, что ИИ подвержен предвзятости и ошибкам, которые могут исказить результаты его работы. Факт того, что ИИ основывается на данных, собранных и поданых программистами, означает, что его способность точно определить ложь может быть ограничена теми же предубеждениями или ошибками, которые могут присутствовать у разработчиков.
Во-вторых, обнаружение лжи включает в себя множество ньюансов, которые ИИ может не уловить или неправильно интерпретировать. Например, ИИ может не распознать невербальные сигналы, такие как жесты, мимика или интонация, которые являются важными признаками лжи. Также, ИИ может не учитывать контекстуальные факторы, такие как специфические культурные нормы или индивидуальные особенности, которые могут влиять на поведение человека.
Наконец, использование ИИ для обнаружения лжи может повлечь за собой потенциальные этические и конфиденциальные проблемы. Запись и анализ разговоров между людьми, осуществляемого ИИ, может вызвать нарушение приватности или нарушение доверия между участниками общения. Кроме того, возможность злоумышленников использовать ИИ для манипуляции и аффектации других людей является серьезной угрозой.
Вместо полного полаганиясь на ИИ для обнаружения лжи, психологи рекомендуют использовать комбинацию различных методов, включая наблюдение, анализ невербальных сигналов и оценку контекста. Человеческий опыт и интуиция являются незаменимыми инструментами в определении правды или лжи и дают более полное понимание межличностных динамик, чем только использование ИИ.