Найти в Дзене
Kineiro

Когда фейк выглядит идеально: как российские учёные научили ИИ отличать подделку по смыслу

🔬Исследователи из Сколтеха и нескольких научных институтов предложили новый подход к определению фейковых изображений. Их метод анализирует не пиксели, а логику происходящего на фото, что позволяет распознавать подделки, которые обманывают даже профессиональные детекторы. За первую половину 2025 года количество поддельных изображений выросло в четыре раза по сравнению с 2023 годом.
Современные генераторы, такие как Midjourney или Stable Diffusion, создают изображения, неотличимые от реальности: тени, текстуры, лица — всё выглядит правдоподобно. При этом традиционные детекторы фокусируются на технических артефактах — лишних пальцах, искажённых тенях, неестественной коже. Однако технологии генерации продвинулись настолько, что подобных признаков становится всё меньше. Поэтому визуальный анализ больше не гарантирует результат. Российские исследователи предложили принципиально иную логику: алгоритм переводит изображение в тексти проверяет, не противоречит ли описание здравому смыслу.
Если
Оглавление

🔬Исследователи из Сколтеха и нескольких научных институтов предложили новый подход к определению фейковых изображений. Их метод анализирует не пиксели, а логику происходящего на фото, что позволяет распознавать подделки, которые обманывают даже профессиональные детекторы.

Контекст проблемы

За первую половину 2025 года количество поддельных изображений выросло в четыре раза по сравнению с 2023 годом.
Современные генераторы, такие как Midjourney или Stable Diffusion, создают изображения, неотличимые от реальности: тени, текстуры, лица — всё выглядит правдоподобно. При этом традиционные детекторы фокусируются на
технических артефактах — лишних пальцах, искажённых тенях, неестественной коже.

Однако технологии генерации продвинулись настолько, что подобных признаков становится всё меньше. Поэтому визуальный анализ больше не гарантирует результат.

Новый подход: проверка здравого смысла

Российские исследователи предложили принципиально иную логику: алгоритм переводит изображение в тексти проверяет, не противоречит ли описание здравому смыслу.
Если на фото изображён средневековый рыцарь с телефоном или динозавр на улице современного города — система отметит это как потенциальный фейк.

Такой подход работает на уровне контекста, а не формы. Программа «понимает», что события невозможны в одной временной или смысловой плоскости.

Эффективность и возможности применения

Точность новой системы достигает 87,5%, а скорость анализа выше, чем у зарубежных аналогов.
Главное преимущество — экономия вычислительных ресурсов: анализ текста требует меньше мощности, чем обработка визуальных данных.

Решение может применяться:

  • для проверки достоверности новостных фото и видео;
  • в системах модерации контента;
  • при анализе документов и служебных материалов;
  • в автоматических системах фактчекинга.

Знаменитое фото Папы Римского в белом пуховике, созданное нейросетью, смогли распознать как подделку только две системы из множества протестированных. Российская разработка успешно справилась с этой задачей.

Контент с контролем качества

Kineiro.ru применяет аналогичный принцип прозрачности и проверки контента: платформа автоматизирует генерацию публикаций для бизнеса, но финальное решение остаётся за человеком.
Так обеспечивается баланс между скоростью и достоверностью.

Ключевой вопрос

Мир вступает в эпоху, где картинка больше не доказывает ничего.
Сможем ли мы научить искусственный интеллект не только видеть, но и
понимать — распознавать ложь не по форме, а по смыслу?