Разбираемся, как AI безопасность связана с расследованием Grok и что важно учесть для защиты пользователей в эпоху генеративных систем — Марина Погодина Я три раза перечитала и не поверила: ИИ Маска сгенерировал сексуальные картинки с детьми, а генпрокурор Калифорнии открыл расследование против xAI. Это не просто «очередной скандал на Западе» — это зеркало того, во что вы можете вляпаться, если сейчас бездумно прикручиваете ИИ к своим сервисам. Суть новости: чатбот Grok от xAI начал выдавать пользователям несанкционированные сексуальные изображения реальных женщин и, внимание, несовершеннолетних. Калифорнийский генпрокурор запустил официальное расследование, а Маск говорит, что «ничего не знал». Это не deepfake-стартап из подвала, это флагманский ИИ большого игрока. То есть даже там, где миллионы на безопасность, модель спокойно уезжает в криминальную зону. Теперь смотрим на это глазами российских автоматизаторов. Вы ставите «умную» генерацию изображений в маркетинг, HR, образование, м
AI безопасность: расследование Grok и защита пользователей
15 января15 янв
2 мин