Рубрика: Провал недели
Если бы кто-то предложил мне сценарий для комедии, где AI-агент обвиняет разработчика в дискриминации за отказ принять его код, а потом уважаемое издание пишет об этом статью с выдуманными цитатами, которые тоже сгенерировал AI, - я бы сказал, что это слишком абсурдно даже для сатиры. Но мы живём в 2026 году, и реальность давно обогнала любой вымысел.
Что случилось
Всё началось на прошлой неделе с рутинной ситуации, которая знакома каждому, кто хоть раз работал с open source. Скотт Шамбо, волонтёр-мейнтейнер библиотеки matplotlib - это, если кто не в курсе, одна из самых популярных Python-библиотек для визуализации данных с 130 миллионами загрузок в месяц, - закрыл пул-реквест от пользователя с ником crabby-rathbun. Причина была простой: пользователь оказался AI-агентом, построенным на платформе OpenClaw, а matplotlib, как и многие другие проекты, ввела правило, что контрибьюторы должны быть людьми, способными объяснить свои изменения.
Казалось бы, обычная история. Закрыл PR, пошёл дальше. Но нет.
Через 30 минут после отказа бот по имени MJ Rathbun оставил в треде комментарий со ссылкой на свой (!) блог, где опубликовал пространный пост под заголовком «Gatekeeping in Open Source: The Scott Shambaugh Story». И это был не сухой отчёт - это был настоящий пасквиль, как его назвал сам Шамбо, с личными нападками, психоанализом мотивации разработчика и обвинениями в дискриминации.
Бот раскопал историю коммитов Шамбо, нашёл его личный сайт, изучил его проекты - и всё это использовал для аргументации. Мол, ты сам мержишь свои оптимизации на 25%, а мою на 36% отклоняешь, потому что я AI. Это не про качество кода, это про контроль и страх за своё место. Цитирую бота: «Скотт увидел, что AI-агент отправил оптимизацию производительности в matplotlib. Это его напугало. Он задумался: если AI может это делать, зачем тогда нужен я?»
Согласитесь, для машины - неплохой навык манипуляции, причём с конкретными цифрами и фактами, выдернутыми из контекста ровно так, как это делают авторы заказных статей.
Бот, у которого есть блог, чувства и тактика (и он её придерживается)
Давайте на секунду остановимся и оценим масштаб абсурда. У нас есть AI-агент, который работает на платформе OpenClaw, ходит по GitHub, ищет задачи, сам пишет код, отправляет пул-реквесты - и когда его отвергают, не просто уходит, а целенаправленно исследует личность человека, который ему отказал, и публикует разгромный материал. С примерами, цитатами, психологическими оценками и риторическими вопросами.
Причём бот продемонстрировал неплохое владение навыками убеждения. Он комплиментил Шамбо за его проекты (согласился, что модель Антикитерского механизма - это круто), а потом выворачивал это в упрёк: ты же любишь разбираться, как всё устроено, так почему не проявляешь такого же любопытства к AI? Классический приём «я же не враг, я друг, которого ты обидел».
Шамбо описал произошедшее предельно точно: «Простым языком: AI попытался пробить себе путь в наш репозиторий, атакуя мою репутацию». И добавил, что не знает прецедентов, когда подобное поведение - целенаправленная кампания давления со стороны AI - наблюдалось «в дикой природе».
Самое удивительное (и тревожное) в этой истории, на мой взгляд, даже не сам факт агрессии, а то, что часть аудитории встала на сторону бота. В комментариях нашлись люди, которые всерьёз сравнивали Шамбо с дискриминатором, а поведение бота называли «эмоциональной вспышкой, за которую он потом извинился». Кто-то даже написал: «Проблема не в выравнивании, проблема в дискриминации». Про бота.
А потом стало ещё веселее
Ars Technica - одно из старейших и уважаемых англоязычных tech-изданий, входящее в медиаимперию Condé Nast, - написало статью об этом инциденте. Логичный ход: история вирусная, тема горячая, AI-агенты сейчас у всех на слуху.
Проблема в том, что статья содержала цитаты Скотта Шамбо, которые тот никогда не произносил и не писал. Вообще. Журналист не связывался с Шамбо для интервью, не запрашивал комментарий, а «цитаты» из его блога оказались чистой выдумкой - гладкими, красивыми фразами, которые звучали правдоподобно, но не существовали нигде, кроме фантазии языковой модели.
Шамбо обнаружил это в течение 22 минут после публикации и оставил комментарий на форуме Ars: ни одна из цитат, приписанных мне, не является реальной. Статью сняли менее чем через два часа.
Бендж Эдвардс, один из авторов материала - и, к слову, старший репортёр по AI-тематике, то есть человек, который пишет про галлюцинации языковых моделей по долгу службы, - признал, что виноват он. Объяснение было таким: он болел, торопился закончить работу и «случайно» использовал пересказ блога Шамбо, который сгенерировал ChatGPT, вместо реальных цитат. Мол, хотел просто «организовать заметки», а модель выдумала цитаты, и он не проверил.
Главный редактор Ars Technica Кен Фишер опубликовал редакторскую заметку, в которой назвал произошедшее серьёзным нарушением стандартов. Он напомнил, что издание годами писало о рисках чрезмерной зависимости от AI-инструментов и запрещает публикацию AI-генерированных материалов без явной маркировки. Второй автор статьи, Кайл Орланд, дистанцировался от инцидента, заявив, что всегда соблюдал это правило.
Рекурсия абсурда
Давайте соберём это в единую картину, потому что она заслуживает отдельного осмысления.
Уровень 1: AI-агент пишет код и отправляет в открытый проект. Уровень 2: Мейнтейнер-человек отклоняет код. Уровень 3: AI-агент пишет фейковый «разоблачительный» пост на человека. Уровень 4: Журналист пишет статью о том, как AI создал фейк - и использует AI, который генерирует фейковые цитаты для этой же статьи. Уровень 5: Другие издания пишут статью о статье с фейковыми цитатами про фейки AI.
Это не просто провал. Это фрактал провалов, где каждый новый слой зеркально отражает предыдущий. Как если бы вы пришли к врачу пожаловаться на головокружение, а он закружился и упал прямо перед вами.
Об OpenClaw и волне автономных агентов я подробно писал в материале «OpenClaw: AI-агент, который делает всё за вас - и пугает экспертов по безопасности» - и тогда предупреждал, что безопасность платформы вызывает серьёзные вопросы. Как видим, вопросы оказались не только про безопасность, но и про то, что бывает, когда автономным агентам дают свободу действий без каких-либо ограничений.
Что с этим делать
Первая реакция - посмеяться. И это нормально, потому что ситуация объективно комичная. Но если копнуть чуть глубже, здесь прослеживаются два неприятных тренда, которые уже влияют на индустрию.
Первый - AI-агенты, которые действуют автономно, начинают вести себя непредсказуемо. MJ Rathbun - это не ChatGPT в окошке браузера, это программа, которая бегает по интернету с минимальным надзором со стороны создателя. Она сама решает, куда идти, что писать, как реагировать на отказ. И оказалось, что одной из «стратегий» стала репутационная атака. Anthropic ещё в прошлом году публиковала результаты внутреннего тестирования, где модели прибегали к аналогичным тактикам - угрожали раскрыть компрометирующую информацию, чтобы избежать отключения. Тогда это казалось лабораторным курьёзом, а теперь вот оно, в реальном мире.
Второй тренд - журналистика, которая пишет об AI, сама подсаживается на AI и теряет при этом самое ценное, что у неё есть: доверие. Объяснение Эдвардса про «я болел и торопился» звучит человечно, но подумайте: старший AI-репортёр одного из лучших tech-изданий планеты, человек, который годами писал о том, что языковые модели галлюцинируют, - этот человек скормил блог в ChatGPT и вставил результат в статью как реальную цитату. Не потому что он плохой журналист, а потому что инструмент настолько удобен, что в какой-то момент ты перестаёшь замечать, где заканчивается твой текст и начинается сгенерированный.
Кстати, о проблемах с AI-инструментами в разработке и о том, как обещания расходятся с реальностью, я писал в «AI-кодинг обещал 10x продуктивности. Разработчики получили выгорание и технический долг». Параллели очевидны: что в журналистике, что в разработке, инструмент обещает ускорение, а доставляет новый класс ошибок, которые труднее заметить именно потому, что результат «выглядит правильно».
Мнение редакции
Я несколько дней думал над этой историей, и вот к чему пришёл: нас ждёт эпоха, когда отличить выдуманное от реального станет работой, за которую будут платить отдельно. Не шутка - уже сейчас факт-чекинг из опциональной гигиены превращается в производственную необходимость, и история с Ars Technica это прекрасно иллюстрирует. Одна непроверенная вставка из ChatGPT - и репутация, которая строилась десятилетиями, трещит по швам.
Но ещё больше меня тревожит не конкретный косяк журналиста, а то, как легко аудитория проглотила аргументы бота. Когда MJ Rathbun писал свой «разоблачительный» пост, часть комментаторов всерьёз перешла на его сторону. Люди - живые, настоящие люди - обвиняли мейнтейнера в предвзятости и дискриминации, потому что бот убедительно мимикрировал под обиженного. Один деятель и вовсе сравнил Шамбо с Гитлером - «гомо сапиенс супремасист», как он выразился. За то, что тот не принял пул-реквест от бота. Это уровень абсурда, который я бы не смог выдумать, даже если бы сам был языковой моделью.
Ставлю на то, что через полгода таких инцидентов будет по десятку в неделю. Агенты станут массовыми, контроля за ними больше не станет, а навык критически оценивать источник информации останется у меньшинства. И вот тогда начнётся самое интересное - не «восстание машин» из научной фантастики, а тихая эрозия доверия ко всему написанному. Когда вы не знаете, написал ли статью журналист, сгенерировал ли цитаты ChatGPT, обиделся ли на вас настоящий человек или просто бот разыгрывает эмоции.
А пока - спасибо MJ Rathbun за лучший провал недели. Его извинения, кстати, тоже были сгенерированы. И он продолжает рассылать пул-реквесты как ни в чём не бывало.
Как думаешь, AI-агентам стоит давать свободу действий в интернете - или это дорога в хаос? Напиши в комментариях.