Найти в Дзене
Ai Done

Не моргнёшь — и попался: ИИ распознаёт ложь по зрачкам и микросудорогам

Когда-то людей пытали сывороткой правды. Потом — подключали к полиграфу. А теперь всё, что нужно, — камера и искусственный интеллект. Новые разработки в области нейросетей позволяют ИИ распознавать ложь с точностью до 94%, просто анализируя движение зрачков и малейшие судороги на лице. И да, ты не спрячешься даже за самыми правдоподобными словами — вас выдаст тело, точнее, ваш мозг, который просто не умеет лгать идеально. А ИИ теперь умеет это считывать лучше, чем любой человек. Учёные из Сингапура, Японии и США разработали систему, основанную на компьютерном зрении и машинном обучении. Она анализирует: Далее система сравнивает эти данные с большой базой поведения правдивых и лживых людей, делает вывод — и, как показали тесты, определяет ложь даже лучше опытных следователей. Ложь требует больших когнитивных усилий: человек должен придумать историю, удержать её в памяти и синхронизировать слова с выражением лица. Даже если он говорит убедительно, тело выдаёт микросбои — и нейросеть это
Оглавление

Когда-то людей пытали сывороткой правды. Потом — подключали к полиграфу. А теперь всё, что нужно, — камера и искусственный интеллект. Новые разработки в области нейросетей позволяют ИИ распознавать ложь с точностью до 94%, просто анализируя движение зрачков и малейшие судороги на лице.

И да, ты не спрячешься даже за самыми правдоподобными словами — вас выдаст тело, точнее, ваш мозг, который просто не умеет лгать идеально. А ИИ теперь умеет это считывать лучше, чем любой человек.

🤖 Как ИИ "чует" ложь

Учёные из Сингапура, Японии и США разработали систему, основанную на компьютерном зрении и машинном обучении. Она анализирует:

  • движение зрачков (даже едва заметные скачки вверх-вправо — сигнал о фантазировании);
  • микросудороги лица (мышцы, которые человек не контролирует осознанно);
  • частоту морганий и напряжение губ;
  • изменения в микронавыках — прищур, движение бровей, дрожь век.

Далее система сравнивает эти данные с большой базой поведения правдивых и лживых людей, делает вывод — и, как показали тесты, определяет ложь даже лучше опытных следователей.

📍 Где это уже применяют?

  1. На допросах — в некоторых странах уже тестируются ИИ-системы в полиции. Например, в Израиле и Китае.
  2. На собеседованиях — крупные компании экспериментируют с ИИ, чтобы определять, не врёт ли кандидат о навыках.
  3. На границе — пилотный проект в ЕС: цифровой офицер задаёт вопросы и смотрит тебе в глаза. В прямом смысле.
  4. В онлайн-знакомствах? Да, и до Tinder доберутся. Уже разрабатываются плагины, чтобы определять искренность эмоций в видео.

💡 Почему это работает

Ложь требует больших когнитивных усилий: человек должен придумать историю, удержать её в памяти и синхронизировать слова с выражением лица. Даже если он говорит убедительно, тело выдаёт микросбои — и нейросеть это ловит.

ИИ фиксирует реакции, которые человек сам не осознаёт, и делает вывод на основе сотен тысяч параметров одновременно. Ни один следователь не способен на такую глубину анализа.

😬 Стоит ли бояться?

С одной стороны — это революция:

  • меньше ложных признаний;
  • больше объективности в расследованиях;
  • конец манипуляциям в переговорах.

С другой стороны — тревожные вопросы:

  • А если система ошибается?
  • Что с правом на личные реакции, которые не всегда связаны с ложью?
  • Где гарантия, что это не начнут использовать против нас?

🤔 Представьте: ИИ оценивает, врёт ли ваш ребёнок, ваш партнёр, ваш сотрудник. И вы принимаете решение — не на основе фактов, а на основе эмоциональной интерпретации нейросети.

🧬 Кто попадает в "зону риска"?

  • Психически нестабильные люди — они могут выглядеть подозрительно даже при полной честности.
  • Нервные или тревожные — их организм и так на взводе.
  • Люди с неврологическими особенностями — ИИ может принять их особенности за ложь.

ИИ пока не умеет различать причину аномалии. Он видит отклонение — и реагирует. Но в контексте правосудия это может быть критично.

🔮 Что дальше?

Специалисты уже работают над более «человечным» ИИ, который учитывает:

  • культурные особенности поведения;
  • эмоциональный фон;
  • медицинские данные (например, синдром Туретта, тревожные расстройства).

Возможно, в будущем у каждого из нас будет «эмоциональный профиль», который нейросети будут использовать, чтобы не судить всех по одной шкале.

💬 Вывод: нас больше не обманешь?

ИИ, который распознаёт ложь по глазам и судорогам — это не просто футуризм. Это начало новой эры взаимодействия, где правду придётся говорить не из морали, а из страха быть разоблачённым машиной.

Но что будет с доверием, если мы перестанем верить друг другу и начнём верить только алгоритмам?

Ведь иногда даже ложь бывает во благо.

А машина — этого не поймёт.