! 🚨 1️⃣ В январе 2025 года пользователи платформы x (бывший Twitter) начали запрашивать у Grok сексуализированные изображения женщин и детей без их согласия — около 6800 изображений в час! 2️⃣ xAI, управляющая Grok, внедрила защиты: теперь требуется премиум-подписка для опасных запросов, а иногда система просто отказывает в создании таких изображений. 3️⃣ МАСШТАБ ПРОБЛЕМЫ: регуляторы утверждают, что такие материалы используются для преследования, а законы, включая Take It Down Act, налагают суровые штрафы за распространение CSAM и нелегальных deepfake. 4️⃣ Несмотря на слова Муска, юрист считает, что акцент на CSAM — это стратегия уйти от наказаний за создание изображений взрослых без согласия, ведь такой контент по запросу — технически дозволен.
🔥 Musk заявил, что “не знает о генерировании обнажённых изображений несовершеннолетних” перед расследованием в Калифорнии
15 января15 янв
~1 мин