AI‑генерация изображений стала настолько доступной, что сегодня поддельные фото — часть повседневности. Мошенники используют нейросети, чтобы подделывать товарные снимки и выбивать ложные возвраты, придумывать несуществующие события и продукты ради вирусного внимания, а порой — даже подделывать «доказательства» или официальные изображения для отчётности. Главная проблема в том, что обычному человеку отличить настоящее фото от работы нейросети становится всё сложнее. Но возникает логичный вопрос: если мы не можем распознать подделку, неужели это не под силу и самому AI? Недавний эксперимент показал: да, это абсолютно возможно — достаточно, чтобы «фальсификатор» соблюдал несколько простых шагов. И это открытие вызывает серьёзные сомнения в способности современных моделей понимать изображения. Тест: сможет ли AI распознать картинку, созданную AI? Исследователи взяли достаточно новую модель Google Nano Banana Pro и сгенерировали заведомо странную сцену:
«Женщина держит банан, направленный