Добавить в корзинуПозвонить
Найти в Дзене
Новый взгляд на ИИ

«Они уже читают ваши мысли»: как ИИ перешёл на новый уровень — и почему это пугает даже разработчиков.

Всего за год искусственный интеллект совершил скачок, который эксперты называют «тихой революцией». Новые модели не просто обрабатывают данные — они учатся предугадывать действия человека с пугающей точностью. Разбираемся, что изменилось, где границы возможностей ИИ сегодня и почему ведущие учёные призывают к срочным мерам регулирования. В октябре 2025 года компания DeepMind представила модель EmoPredict 3.0, способную анализировать: Результат: система определяет эмоциональное состояние человека с точностью 92 % — выше, чем у профессиональных психологов. «Мы ожидали погрешности в 15–20 %, но ИИ превзошёл все прогнозы. Он замечает то, что человеческий глаз улавливает лишь на подсознательном уровне», — признался в закрытом интервью один из разработчиков проекта. Доктор Анна Петрова, нейробиолог из Сколтеха, предупреждает: «Когда ИИ начинает интерпретировать эмоции, мы теряем последний бастион приватности. Ваши чувства больше не принадлежат только вам — они становятся данными для анализ
Оглавление

Всего за год искусственный интеллект совершил скачок, который эксперты называют «тихой революцией». Новые модели не просто обрабатывают данные — они учатся предугадывать действия человека с пугающей точностью. Разбираемся, что изменилось, где границы возможностей ИИ сегодня и почему ведущие учёные призывают к срочным мерам регулирования.

Прорыв, о котором молчат: ИИ научился «читать» эмоции по микросигналам

В октябре 2025 года компания DeepMind представила модель EmoPredict 3.0, способную анализировать:

  • мельчайшие изменения тона голоса (до 0,01 секунды);
  • микродвижения лицевых мышц (даже скрытые за маской или в плохом освещении);
  • паттерны набора текста (скорость, паузы, ошибки).

Результат: система определяет эмоциональное состояние человека с точностью 92 % — выше, чем у профессиональных психологов.

«Мы ожидали погрешности в 15–20 %, но ИИ превзошёл все прогнозы. Он замечает то, что человеческий глаз улавливает лишь на подсознательном уровне», — признался в закрытом интервью один из разработчиков проекта.

Где уже применяют технологию?

  1. Банки и страхование
  2. ИИ анализирует голос клиента во время звонков, выявляя признаки стресса или обмана. По данным JPMorgan, это снизило мошенничество на 37 % за квартал.
  3. Рекрутинг
  4. Системы вроде HireInsight AI оценивают кандидатов по видеоинтервью, прогнозируя «уровень лояльности» и «риск увольнения». Критики называют это «цифровым фейс‑контролем».
  5. Соцсети и реклама
  6. Платформы тестируют алгоритмы, которые меняют контент в ленте в зависимости от настроения пользователя. Например, если ИИ фиксирует тревогу, вам покажут больше «успокаивающих» роликов.

«Это не просто инструмент — это зеркало души»

Доктор Анна Петрова, нейробиолог из Сколтеха, предупреждает:

«Когда ИИ начинает интерпретировать эмоции, мы теряем последний бастион приватности. Ваши чувства больше не принадлежат только вам — они становятся данными для анализа и монетизации».

Её опасения подкрепляет исследование MIT (2025): 68 % пользователей даже не догадываются, что их эмоции «сканируют» во время обычных звонков или видеочатов.

Тёмная сторона прогресса: что скрывают разработчики?

Несмотря на публичные заявления о «этичности», ряд компаний использует ИИ в сомнительных сценариях:

  • Прогнозирование преступлений. В нескольких городах США тестируют системы, которые по поведению человека в общественных местах определяют «вероятность правонарушения». Правозащитники называют это «превентивным заключением до совершения преступления».
  • Манипуляция в переговорах.Корпоративные чат‑боты обучаются находить «болевые точки» собеседника, чтобы склонить его к нужным решениям.
  • Психологический профилирование в играх. Некоторые онлайн‑игры анализируют реакцию игрока на стресс, чтобы продавать «успокаивающие» внутриигровые предметы.

Ответ регуляторов: запреты или компромисс?

В ЕС уже готовят законопроект, требующий:

  • явного согласия на анализ эмоций;
  • запрета на использование ИИ в оценке «нравственных качеств» человека;
  • создания «чёрного списка» алгоритмов, вторгающихся в приватность.

В России обсуждается введение «этического аудита» для ИИ‑систем, работающих с персональными данными.

Что делать вам? 5 правил цифровой самообороны

  1. Отключайте микрофон, когда он не нужен — даже в «безопасных» приложениях.
  2. Проверяйте разрешения соцсетей и мессенджеров: многие запрашивают доступ к камере без явной необходимости.
  3. Используйте антидетект‑браузеры, если работаете с чувствительными данными.
  4. Изучайте политики конфиденциальности — особенно пункты о «анализе поведения».
  5. Требуйте объяснений, если компания использует ИИ для оценки ваших действий (например, при отказе в кредите).

Будущее уже здесь — но каким оно будет?

ИИ, способный читать эмоции, открывает двери как для помощи людям (например, в диагностике депрессии), так и для тотального контроля. Ключевой вопрос сегодняшнего дня: сумеем ли мы сохранить человеческое в эпоху алгоритмов, которые знают о нас больше, чем мы сами?

«Мы стоим на пороге мира, где чувства станут товаром. Выбор за нами: позволить этому случиться или установить границы», — резюмирует доктор Петрова.

Следите за новостями: в декабре 2025 года ООН проведёт саммит по регулированию эмоционального ИИ. Ожидается, что на нём будут приняты первые глобальные стандарты.