Добавить в корзинуПозвонить
Найти в Дзене
Social Mebia Systems

Когда AI не распознаёт собственные подделки: тревожный сигнал для всех

AI‑генерация изображений стала настолько доступной, что сегодня поддельные фото — часть повседневности. Мошенники используют нейросети, чтобы подделывать товарные снимки и выбивать ложные возвраты, придумывать несуществующие события и продукты ради вирусного внимания, а порой — даже подделывать «доказательства» или официальные изображения для отчётности. Главная проблема в том, что обычному человеку отличить настоящее фото от работы нейросети становится всё сложнее. Но возникает логичный вопрос: если мы не можем распознать подделку, неужели это не под силу и самому AI? Недавний эксперимент показал: да, это абсолютно возможно — достаточно, чтобы «фальсификатор» соблюдал несколько простых шагов. И это открытие вызывает серьёзные сомнения в способности современных моделей понимать изображения. Тест: сможет ли AI распознать картинку, созданную AI? Исследователи взяли достаточно новую модель Google Nano Banana Pro и сгенерировали заведомо странную сцену:
«Женщина держит банан, направленный

AI‑генерация изображений стала настолько доступной, что сегодня поддельные фото — часть повседневности. Мошенники используют нейросети, чтобы подделывать товарные снимки и выбивать ложные возвраты, придумывать несуществующие события и продукты ради вирусного внимания, а порой — даже подделывать «доказательства» или официальные изображения для отчётности.

Главная проблема в том, что обычному человеку отличить настоящее фото от работы нейросети становится всё сложнее. Но возникает логичный вопрос: если мы не можем распознать подделку, неужели это не под силу и самому AI?

Недавний эксперимент показал: да, это абсолютно возможно — достаточно, чтобы «фальсификатор» соблюдал несколько простых шагов. И это открытие вызывает серьёзные сомнения в способности современных моделей понимать изображения.

Тест: сможет ли AI распознать картинку, созданную AI?

Исследователи взяли достаточно новую модель Google Nano Banana Pro и сгенерировали заведомо странную сцену:
«Женщина держит банан, направленный в небо, на фоне городского пейзажа. Прохожие игнорируют происходящее».

-2

Сцена специально сделана абсурдной, чтобы проверить, способны ли алгоритмы «поймать» не только технические признаки ИИ, но и смысловую нелепость.

Первый шаг — изменение формата изображения, чтобы стереть метаданные. Даже при сохранённом в углу понятном водяном знаке, два из шести популярных сервисов детекции уже не распознали работу нейросети. Это говорит о том, что многие детекторы ориентируются на внутренние «следы» старых моделей и попросту не знают особенностей новых.

-3

Удаление водяного знака почти не мешает… и почти не помогает

Когда экспериментаторы стёрли видимый watermark, результат практически не изменился. Большинство систем по‑прежнему определяло картинку как AI‑созданную. Вывод: видимые водяные знаки — это скорее элемент для людей, чем фактор для детекторов.

Как окончательно обмануть AI‑детектор? Добавить… человеческие ошибки

Самая важная часть эксперимента — добавление искусственных «дефектов»:

  • шум,
  • артефакты по краям,
  • повышение контрастности,
  • лёгкая «грязь» изображения.

Реальные фото почти всегда содержат случайные несоответствия: дрожание камеры, шум матрицы, неправильное освещение. Нейросети же генерируют «слишком идеальные» кадры.

После добавления дефектов все AI‑детекторы без исключения признали подделку настоящей.

Это победа мошенников? Нет — это провал ИИ

Важно понимать: цель эксперимента — не обучать злоумышленников, а показать ограниченность сегодняшних инструментов распознавания.

Сам факт, что AI способен «не заметить» абсурдность сцены — женщина с бананом вместо указки — подчеркивает ключевую проблему: нейросети всё ещё не понимают, что «видят». Они оценивают лишь технические признаки изображения, а не его смысл.

AI умеет рисовать реалистично, но он не умеет анализировать реальность.

И в этом главная опасность текущего этапа развития: пока детекторы опираются лишь на шумы, пиксельные артефакты и статистические шаблоны, они будут проигрывать тем, кто сможет эти признаки подделать.

Что это значит для пользователей?

  • Нельзя полагаться только на автоматические системы распознавания.
  • Абсурдность или неправдоподобность сюжета — важный сигнал.
  • Критическое мышление становится главным инструментом защиты.

Этот эксперимент — напоминание: AI создаёт изображения, которые сам же не способен «понять». А значит, ответственность за распознавание подделок по‑прежнему лежит на нас.

Хотите создать уникальный и успешный продукт? СМС – ваш надежный партнер в мире инноваций! Закажи разработки ИИ-решений, LLM-чат-ботов, моделей генерации изображений и автоматизации бизнес-процессов у профессионалов.

ИИ сегодня — ваше конкурентное преимущество завтра!

Тел. +7 (985) 982-70-55

E-mail sms_systems@inbox.ru

Сайт https://www.smssystems.ru/razrabotka-ai/