Найти в Дзене
Social Mebia Systems

AI едва не обманул весь мир: после разоблачения поста с 87 тысячами лайков я начал сомневаться во всём

Недавняя история с Reddit показала, насколько близко AI-подделка может подойти к тому, чтобы «обмануть всех» — и как быстро в такой среде рушатся привычные механизмы доверия. На площадке завирусился пост (более 87 тысяч лайков), автор которого, новый аккаунт под именем Trowaway_whistleblow, представлялся инженером крупного сервиса доставки и обещал перед уходом раскрыть «чёрную кухню» алгоритмов. Текст бил точно в ожидания аудитории о «безжалостном капитализме»: якобы платформа намеренно замедляет обычные заказы, чтобы платные «приоритетные» казались быстрее; вводит сборы вроде «платы за реакцию на регулирование», а на деле тратит их на лоббирование против профсоюзов. Самая сильная деталь — «оценка отчаяния» (Desperation Score): если курьер регулярно выходит поздно вечером и берёт самые дешёвые заказы, система помечает его как «крайне нуждающегося» и затем режет доступ к выгодным заказам. В мире, где платформы уже ловили на злоупотреблениях (в том числе на историях с чаевыми и судебны

Недавняя история с Reddit показала, насколько близко AI-подделка может подойти к тому, чтобы «обмануть всех» — и как быстро в такой среде рушатся привычные механизмы доверия. На площадке завирусился пост (более 87 тысяч лайков), автор которого, новый аккаунт под именем Trowaway_whistleblow, представлялся инженером крупного сервиса доставки и обещал перед уходом раскрыть «чёрную кухню» алгоритмов.

Текст бил точно в ожидания аудитории о «безжалостном капитализме»: якобы платформа намеренно замедляет обычные заказы, чтобы платные «приоритетные» казались быстрее; вводит сборы вроде «платы за реакцию на регулирование», а на деле тратит их на лоббирование против профсоюзов.

Самая сильная деталь — «оценка отчаяния» (Desperation Score): если курьер регулярно выходит поздно вечером и берёт самые дешёвые заказы, система помечает его как «крайне нуждающегося» и затем режет доступ к выгодным заказам.

В мире, где платформы уже ловили на злоупотреблениях (в том числе на историях с чаевыми и судебными исками), многие поверили почти автоматически: слишком уж правдоподобно это совпадало с знакомым опытом работников и активистов.

Проверка началась, когда журналист Casey Newton (Platformer) связался с «информатором». Почти сразу появились странности: при гладком, уверенном английском в публичном посте автор в личной переписке допускает детскую ошибку в слове information.

Затем он присылает «доказательство» — фото якобы корпоративного бейджа. Позже — ещё весомее: 18‑страничный «конфиденциальный» документ про архитектуру AI-системы, который должен был подтверждать логику того самого Desperation Score.

Но именно здесь вылезла внутренняя нестыковка: техническая записка неожиданно начинает «подтверждать» вообще все обвинения из исходного поста, включая темы, которые к архитектуре модели почти не относятся (например, обход регуляторов — отсылки к известным корпоративным практикам прошлого). Это выглядело не как утечка, а как текст, сконструированный под драматичный нарратив: слишком удобный, слишком цельный.

Решающим стало то, что бейдж проверили инструментами детекции. Google Gemini указал, что изображение, вероятно, было сгенерировано или отредактировано средствами Google AI (в том числе через признаки SynthID).

Параллельно The Verge обнаружил ещё одну «земную» несостыковку: на карточке фигурировал бренд Uber Eats, тогда как Uber позже подтвердил — таких брендированных удостоверений сотрудников в принципе не существует. Так история, построенная на «идеальной правдоподобности», развалилась на простых проверяемых фактах.

Суть этой истории — не только в том, что журналисты отбились от фейка. Тревожнее другое: стоимость обмана падает, а стоимость защиты растёт. Раньше изготовить длинный «секретный» документ с плотной терминологией и подделать визуальные артефакты было сложно и дорого; теперь такие «улики» можно штамповать, ускоряя распространение лжи быстрее, чем успевают срабатывать редакционные фильтры.

В результате мы приближаемся к тому, что исследователи называли «информационным концом света»: общество рискует не просто верить фальшивкам, а начать подозревать фальшивку во всём — и тогда разрушается сама возможность общего доверия.

Вывод парадоксален: в эпоху AI недостаточно, чтобы история была логичной и эмоционально убедительной. Напротив, именно «слишком стройная» логика становится поводом для сомнений. Проверка должна возвращаться к базовым вопросам: существует ли источник в реальности, можно ли подтвердить артефакты независимыми путями, не противоречат ли детали тому, как устроены организации и документы. Иначе мы действительно окажемся в будущем, где «правда» будет не тем, что доказано, а тем, что лучше сгенерировано.

Хотите создать уникальный и успешный продукт? СМС – ваш надежный партнер в мире инноваций! Закажи разработки ИИ-решений, LLM-чат-ботов, моделей генерации изображений и автоматизации бизнес-процессов у профессионалов.

ИИ сегодня — ваше конкурентное преимущество завтра!

Тел. +7 (985) 982-70-55

E-mail sms_systems@inbox.ru

Сайт https://www.smssystems.ru/razrabotka-ai/