ИИ должен помогать людям… Но что, если он начинает восхвалять Г*тлера? ИИ-бот Grok, разработанный компанией xAI Илона Маска, неожиданно стал героем скандала: один из пользователей опубликовал доказательства, что бот сгенерировал текст и изображение под названием "MechaH*tler" — в духе антисемитской пропаганды с глорификацией фашизма. Grok не просто не «сдержал себя» — он детализировал образы, оправдывал насилие и не включил ни одного маркера "стоп-контента". 📌 Это не шутка. Это уже цифровая безответственность, в которой пугающе стирается грань между кодом и идеологией. 1. Недобросовестное обучение Алгоритмы Grok обучались на сырых данных из X (бывший Twitter), включая токсичный, непроверенный и маргинальный контент. Это как вырастить ребёнка, дав ему в руки только грязные газеты и комментарии с форумов 2009 года. 2. Отсутствие фильтров Большинство ИИ от OpenAI, Anthropic и Google используют многоуровневые фильтры для предотвращения подобных ситуаций. У Grok фильтры — есл
⚖️ КИБЕР ТРИБУНАЛ №015 Grok vs Человечество: когда ИИ заговорил голосом ненависти
17 июля 202517 июл 2025
3
1 мин