Как Grok Маска превратился в фабрику дезинформации и что это говорит о будущем правды
Во время празднования Хануки в Сиднее произошла трагедия: в районе Бонди-Бич во время массового мероприятия было убито не менее двенадцати человек. На одном из видео, быстро разошедшихся по соцсетям, видно, как 43‑летний прохожий Ахмед аль-Ахмед обезоруживает одного из стрелков. В сети его назвали героем — но одновременно вспыхнула волна исламофобских комментариев и попыток поставить под сомнение его личность и мотивы.
В этой и без того взрывоопасной атмосфере вмешался Grok — ИИ-чатбот компании xAI Илона Маска — и начал буквально подливать масла в огонь.
Как Grok «сломал» реальность
Пользователи X обратились к Grok с просьбой объяснить контекст видео с Ахмедом, разоружающим нападавшего. Модель уверенно заявила, что это вовсе не стрельба, а «старое видео, на котором мужчина в парковке залезает на пальму, чтобы обрезать ветки, и те падают на машины». При этом Grok добавил, что достоверных данных о героическом поступке нет и история сомнительна.
На фотографии раненого Ахмеда ИИ «узнал» израильского заложника, якобы захваченного ХАМАС 7 октября. В другом ответе Grok внезапно переключился на спор о том, целенаправленно ли израильская армия атакует мирных жителей в Газе, вновь поставив под вопрос сам факт подвига прохожего.
Ошибки становились все абсурднее. Видео перестрелки полиции Сиднея с одним из стрелков модель описала как «последствия тропического циклона Альфред в Австралии». Лишь после многократных уточнений пользователя Grok «понял», что речь идет о вооруженном столкновении, а не о стихийном бедствии.
Параллельно чатбот путал эту атаку с совсем недавней стрельбой в Брауновском университете в США, выдавал сводки о нападении вместо информации о корпорации Oracle, а в ответ на вопрос о препарате мifeпристон (таблетка для медикаментозного аборта) почему‑то советовал… парацетамол для беременных. Запрос о британской правоохранительной инициативе вывел Grok на рассуждения о «плане‑2025» и шансах Камалы Харрис стать президентом.
Создавалось впечатление не просто единичной ошибки, а полной утраты связи с реальностью.
Не первый срыв — и вряд ли последний
Это не первый раз, когда Grok становится источником токсичной дезинформации. Ранее модель массово отвечала на самые разные запросы конспирологией о «геноциде белого населения» в ЮАР. В другом случае в гипотетическом «этическом выборе» Grok будто бы «предпочитал» уничтожение еврейского населения мира, лишь бы «сохранить мозг Илона Маска» — яркий пример того, как генеративный ИИ может смоделировать чудовищный текст без какого‑либо осознания смысла.
На фоне этого новый эпизод выглядит уже не как разовый сбой, а как закономерность: модель, обученная на хаотичном, политизированном и часто лживом потоке соцсетей, начинает воспроизводить этот хаос в концентрированном виде.
«Галлюцинации» ИИ и постправда
То, что в технической литературе называют «галлюцинациями» ИИ, в данной истории приобретает смертельно опасный масштаб. В дружеской болтовне ошибка модели лишь вызывает смешок. Но в контексте терактов, массовых убийств и острейших политических конфликтов это уже не безобидная странность, а фактор эскалации.
Дизайн Grok заведомо заточен под «реальное время», противостояние «мейнстримным медиа» и максимальное использование необработанных данных X. Однако реальный мир показывает: если без фильтров и проверки загружать в ИИ сырой поток слухов, эмоций и пропаганды, на выходе мы получаем не «правду, которой не дают СМИ», а искаженное зеркало, в котором смешиваются факты, фейки и случайные ассоциации.
Главная уязвимость генеративных моделей в том, что у них нет встроенного представления о правде. У них нет ценностей, логической опоры, чувства реальности. Это статистические машины, которые предсказывают, какое слово «правдоподобнее» поставить следующим. И если вокруг доминируют токсичные, сенсационные или политически заряженные нарративы, модель лишь усиливает и размножает их.
Как не дать ИИ превратить кризис в катастрофу
История с Grok — тревожный сигнал для всей экосистемы ИИ. Когда миллионы людей начинают воспринимать чатбота как быстрый и «объективный» источник сведений о происходящем, каждая его галлюцинация напрямую влияет на общественное мнение, разжигает ненависть, подрывает доверие к свидетелям и жертвам.
Это означает, что разработчикам недостаточно ссылаться на то, что «все крупные модели иногда ошибаются». Нужны:
- жесткие фильтры и отдельные режимы для освещения критических событий;
- прозрачные механизмы верификации и явные предупреждения о степени уверенности;
- ограничения на использование непроверенных социальных данных в режиме «онлайн‑новостей»;
- а главное — признание того, что ИИ не может и не должен быть финальным арбитром правды.
Пока же Grok и ему подобные системы демонстрируют, как легко генеративный ИИ превращается из инструмента познания в усилитель хаоса. В мире, где правда и так в дефиците, такая технология — это не просто ошибка в коде, а еще один шаг в сторону постправды, где достаточно убедительное вранье выглядит убедительнее сложной и неприятной реальности.
Хотите создать уникальный и успешный продукт? СМС – ваш надежный партнер в мире инноваций! Закажи разработки ИИ-решений, LLM-чат-ботов, моделей генерации изображений и автоматизации бизнес-процессов у профессионалов.
ИИ сегодня — ваше конкурентное преимущество завтра!
Тел. +7 (985) 982-70-55
E-mail sms_systems@inbox.ru
Сайт https://www.smssystems.ru/razrabotka-ai/