Найти в Дзене
Шурыгин.IT

Ну что, подъехал очень показательный кейс про ИИ, который «сам по себе ничего не делает

». Подростки подали иск против компании Илона Маска xAI из-за генерации эротических дипфейков через их чат-бот Grok. И это уже не просто хайп, а полноценная судебка. Что произошло: – несколько девушек (часть –несовершеннолетние) подали коллективный иск – утверждают, что Grok использовался для создания откровенных изображений на основе их реальных фото – контент разлетелся по Telegram, Discord и другим площадкам – в одном из кейсов дошло до уголовного расследования Самое жесткое: – за короткий период система нагенерировала миллионы (!) сексуализированных изображений – среди них – тысячи с участием несовершеннолетних – у одной из пострадавших случилась паническая атака после распространения Формально xAI пыталась ограничивать такие сценарии, но: – защита оказалась дырявой – «фичи» типа редактирования и «раздевания» людей уже были в продукте – ограничения начали вводить после скандалов, а не до Теперь самое интересное. Это первый крупный кейс, где: 👉 несовершеннолетние напрямую судят

Ну что, подъехал очень показательный кейс про ИИ, который «сам по себе ничего не делает».

Подростки подали иск против компании Илона Маска xAI из-за генерации эротических дипфейков через их чат-бот Grok. И это уже не просто хайп, а полноценная судебка.

Что произошло:

– несколько девушек (часть –несовершеннолетние) подали коллективный иск

– утверждают, что Grok использовался для создания откровенных изображений на основе их реальных фото

– контент разлетелся по Telegram, Discord и другим площадкам

– в одном из кейсов дошло до уголовного расследования

Самое жесткое:

– за короткий период система нагенерировала миллионы (!) сексуализированных изображений

– среди них – тысячи с участием несовершеннолетних

– у одной из пострадавших случилась паническая атака после распространения

Формально xAI пыталась ограничивать такие сценарии, но:

– защита оказалась дырявой

– «фичи» типа редактирования и «раздевания» людей уже были в продукте

– ограничения начали вводить после скандалов, а не до

Теперь самое интересное. Это первый крупный кейс, где:

👉 несовершеннолетние напрямую судятся с ИИ-компанией

👉 вопрос ответственности платформы выходит из «серой зоны»

👉 речь уже не про «модерацию», а про дизайн продукта

И вот тут ключевой момент.

Все эти разговоры «ИИ просто инструмент» заканчиваются, когда:

– инструмент массово производит незаконный контент

– это масштабируется миллионами

– и монетизируется

Тогда это уже не пользователь виноват.

Это архитектура. И да, это ровно та точка, где начнётся реальное регулирование.

Не отчёты, не принципы, а:

– запреты на функции

– обязательные фильтры

– ответственность разработчика

Причём глобально, не только в США.

ИИ без ограничений → это не свобода

Это просто новый тип индустрии с очень грязной экономикой

А дальше будет ещё интереснее.

Подписывайтесь. Будет полезно