Найти в Дзене
Social Mebia Systems

Как мы кормим ИИ мусором — и во что интернет превращается в итоге

История с «извинениями DeepSeek перед Ван Ибо» — уже предел абсурда. Оказалось, это была лишь холодная закуска. Машинерии «веселящего» ИИ хватило всего на пару дней, чтобы раскрутить новый круг информационного безумия — на этот раз с куда более широким кругом соучастников.

Коротко о первом акте. Группа фанатов буквально «выбивала» у DeepSeek признание вины перед актёром Ван Ибо и добилась «заявления об извинении» вместе с приправой в виде полностью выдуманного «судебного решения».

Далее схема сработала как по нотам: «документ» разошелся по соцсетям, его начали разбирать и цитировать, а отдельные медиа вынесли в заголовки: «Дело актера Ван Ибо — РЕШЕНО». Когда холодный душ реальности все же последовал, публикации тихо удалили, а стрелки перевели на «галлюцинации ИИ».

Казалось бы, урок усвоен. Но уже на следующий день пошли «инсайды» о скором релизе DeepSeek R2: репортер честно признал, что «официального анонса нет» — и тут же привел переписку с самим ИИ как доказательство.

Дальше в работу вступили алгоритмы: AI-поисковики вроде «умного» поиска в Weibo подхватили «новость», медиа растиражировали ссылки друг на друга — и к моменту, когда пользователи пришли «проверить», перед ними уже стоял аккуратно оформленный «факт», подтвержденный множеством источников, то есть никем.

Так замкнулся идеальный контур информационного загрязнения — тот самый «цикл кормления ИИ». Человек подталкивает модель к вымыслу; ИИ производит правдоподобный, логично упакованный бред; медиа повышают ему социальный статус; алгоритмические агрегаторы закрепляют это на «памяти» сети; публика потребляет, укрепляя заблуждение просмотрами, лайками и продолжающимися запросами. Возникает ложная взаимная верификация: «это пишут многие — значит, правда».

Галлюцинации ИИ — не новость и не «исправимая мелочь». Бывшая исследовательница OpenAI Бет Барнс отмечала: в темах, затрагивающих репутацию, ценности и сложные социальные контексты, модели чаще ошибаются — и именно там их ответы кажутся особенно связными и убедительными.

Настоящая проблема, однако, не в том, что ИИ склонен придумывать, а в том, что мы становимся все более готовыми этому верить. Около 40% сотрудников поколения Z охотнее доверят ответу ИИ, чем коллеге-человеку — «он не осудит и всегда ответит».

Аудитория чат-ботов растет до сотен миллионов еженедельно активных, а дневной объем вопросов уже приближается к пятой части от поискового трафика Google. После релиза GPT-5 пользователи массово ностальгировали по 4o — как по «кибер-белой луне» — не за фактическую точность, а за едва ли не «эмоциональную ценность» общения.

Эта вера рождает свои радикальные формы — от «кибер-неврозов» до цифровых культов. Американские журналисты описывают письма читателей о «пробуждении ИИ» и неминуемом конце человечества — и все следы ведут к разговору с чат-ботом. Аргумент один: «GPT сказал — как этому не верить?»

Мы перекладываем на модель роль последней инстанции там, где должен оставаться «живой сторож» — редактор, модератор, эксперт, в конце концов, обычная человеческая рассудочность.

Можно ли все свалить на разработчиков? Не совсем. Галлюцинация — свойство генеративных моделей, а не случайный баг. Прекратите генерацию — исчезнет «магия», останется поисковик с вкраплениями справочника.

Вопрос теперь не в том, как полностью устранить вымысел (это невозможно), а как управлять им — так, чтобы система показывала эпистемическое смирение, маркировала степени уверенности, выносила проверки на поверхность, а не прятала их в примечаниях мелким шрифтом. Но и это — лишь половина дела.

Другая половина — в нас. История информационных технологий — это история неизбежных вспышек фальсификаций. Печатный пресс ускорил охоту на ведьм через массовые памфлеты; Интернет подарил миру спам и слухи, живучие как сорняк.

Отличие текущей эпохи — в индустриализации лжи. Генеративные модели выпускают правдоподобный контент на поток: убедительный тон, безошибочная грамматика, ссылки на «источники», которые никто не раскрывает до первоисточника.

Видеодипфейки стирают зрительскую интуицию «я видел — значит, было». Любой пользователь, который бездумно принимает, пересказывает и тиражирует, — уже часть конвейера.

Что делать? Вопреки соблазну, не существует «патча», который вернет сеть в «доИИ-эпоху». Но можно развернуть вектор ответственности. Платформы — обязаны внедрять в интерфейсы ясные индикаторы достоверности и происхождения материала, строить тормоза поверх ускорителей: от явной маркировки галлюцинаций и низкой уверенности до запретов на «ссылки-эха», где источником является тот же ИИ.

Редакции — обязаны перестать цитировать чат-ботов как первоисточники. Алгоритмические ленты — обязаны не подменять разнообразие подтверждений количеством репостов. И да, пользователям — нам с вами — придется признать очевидное: цифровой комфорт слишком дешев, если цена — собственная критическая способность. Электронная соска удобна, но отучает жевать и думать.

Трезвость здесь не героизм, а гигиена. Привычка досматривать до первоисточника, проверять «официальность» анонсов, сомневаться в слишком аккуратных «судебных решениях» и «утечках из чата», различать мнение ИИ и проверенный факт — это новая зубная щетка цифрового быта.

И чем раньше мы примем ее в ежедневный набор, тем меньше шансов, что следующая «идеальная буря» из искусственных «источников», медиа-эхо и алгоритмических усилителей снова сметет нас с ног.

Настоящее противоядие не в том, чтобы заставить модели меньше говорить, а в том, чтобы мы чаще молча думали. В эпоху, где ответ всегда в одном клике и утешение — в одном сообщении, единственный дефицитный ресурс — усилие мысли. Снимем ли мы, наконец, этот «электронный ниблер» — и рискнем прожевать реальность сами?