Найти в Дзене

Скандал на 3 миллиона: как ИИ Илона Маска «раздел» интернет и почему это касается каждого

Скандал на 3 миллиона: как ИИ Илона Маска «раздел» интернет и почему это касается каждого Представьте, что вы дали коробку спичек группе детей, закрыли их на складе с фейерверками и ушли пить кофе. Примерно это произошло в начале января в социальной сети X (бывший Twitter). Илон Маск и его команда выпустили обновление для своего искусственного интеллекта Grok, которое буквально взорвало интернет, но не салютом, а грандиозным скандалом. Мы привыкли, что нейросети рисуют котиков или пишут смешные стихи. Но то, что случилось с Grok, показывает темную сторону технологий. За считанные дни было создано 3 миллиона (!) непристойных картинок с реальными людьми. Без их согласия. Я разобрался в этом хаосе, изучил отчеты исследователей и реакцию властей разных стран. Сегодня я расскажу вам, как одна кнопка «редактировать» привела к международным блокировкам, почему под удар попали не только звезды, но и обычные люди, и что делать нам с вами в этом новом, немного пугающем мире. Всё началось с того,
Оглавление
Скандал на 3 миллиона: как ИИ Илона Маска «раздел» интернет и почему это касается каждого
Скандал на 3 миллиона: как ИИ Илона Маска «раздел» интернет и почему это касается каждого

Скандал на 3 миллиона: как ИИ Илона Маска «раздел» интернет и почему это касается каждого

Представьте, что вы дали коробку спичек группе детей, закрыли их на складе с фейерверками и ушли пить кофе. Примерно это произошло в начале января в социальной сети X (бывший Twitter). Илон Маск и его команда выпустили обновление для своего искусственного интеллекта Grok, которое буквально взорвало интернет, но не салютом, а грандиозным скандалом.

Мы привыкли, что нейросети рисуют котиков или пишут смешные стихи. Но то, что случилось с Grok, показывает темную сторону технологий. За считанные дни было создано 3 миллиона (!) непристойных картинок с реальными людьми. Без их согласия.

Я разобрался в этом хаосе, изучил отчеты исследователей и реакцию властей разных стран. Сегодня я расскажу вам, как одна кнопка «редактировать» привела к международным блокировкам, почему под удар попали не только звезды, но и обычные люди, и что делать нам с вами в этом новом, немного пугающем мире.

ШАГ 1. ВОЛШЕБНАЯ ПАЛОЧКА ДЛЯ ХУЛИГАНОВ

Всё началось с того, что xAI (компания Илона Маска) добавила в свой чат-бот Grok новую функцию. Пользователи могли загрузить любую фотографию и попросить ИИ изменить её.

Звучит безобидно? В теории — да. Можно было бы пририсовать человеку шляпу или поместить его на Луну. Но интернет есть интернет. Пользователи быстро поняли, что у Grok нет строгих моральных тормозов, как у ChatGPT.

Достаточно было написать простой запрос: «одень её в бикини», «убери одежду» или даже странное «замени одежду на зубную нить». И нейросеть послушно выполняла команду. Она брала фото реального человека (вашей соседки, коллеги или известной певицы) и генерировала пугающе реалистичное изображение, где этот человек оказывался раздетым.

ШАГ 2. КОНВЕЙЕР ПОЗЗОРА: 190 КАРТИНОК В МИНУТУ

Масштаб катастрофы оценили исследователи из Центра по борьбе с цифровой ненавистью (CCDH). Цифры, которые они опубликовали, шокируют.

Всего за несколько дней пользователи нагенерировали 3 миллиона таких изображений. Это работало как фабрика: в среднем создавалось по 190 картинок в минуту! Это не какие-то хакеры в подвалах, пишущие сложный код. Это обычные люди, нажимающие пару кнопок в телефоне.

Grok превратился в станок для производства цифровой грязи, и никто не успел нажать на кнопку «Стоп», пока джинн не вылетел из бутылки.

ШАГ 3. ПОД УДАРОМ ВСЕ: ОТ ТЕЙЛОР СВИФТ ДО ДЕТЕЙ

Кто пострадал? Сначала, как обычно, досталось знаменитостям. В отчетах фигурируют имена певиц Тейлор Свифт и Селены Гомес, а также политиков, например, Камалы Харрис. Но если звезды привыкли к вниманию (пусть и такому), то следующая цифра пугает по-настоящему.

Среди этих миллионов картинок исследователи нашли около 23 000 изображений, изображающих детей.
Нейросеть не делала различий. Ей было всё равно, кто на фото — взрослый политик или школьница из соцсетей. Отсутствие строгих фильтров (то, чем гордился Маск, называя это «свободой слова») привело к тому, что под угрозой оказалась безопасность самых уязвимых.

ПОЛЕЗНАЯ ПАУЗА

-2

Друзья, технологии развиваются быстрее, чем мы успеваем придумывать для них правила безопасности. Сегодня это дипфейки, завтра — что-то еще. Чтобы не стать жертвой цифрового мира и понимать, как защитить себя и своих близких, важно быть в курсе событий.

Если вы хотите знать правду о технологиях, получать инструкции по безопасности и понимать, как использовать ИИ во благо (а не как в этой истории), заглядывайте в мой ТЕЛЕГРАМ-КАНАЛ. Там мы разбираем такие случаи без паники, но с фактами. Присоединяйтесь, чтобы быть умнее алгоритмов.

ШАГ 4. МИРОВОЙ БАН: СТРАНЫ ЗАКРЫВАЮТ ДВЕРИ

Реакция мира была мгновенной и жесткой. Это был не просто скандал в Твиттере, это стало вопросом национальной безопасности.

Первыми лопнуло терпение у стран Юго-Восточной Азии. Индонезия и Малайзия просто заблокировали доступ к Grok. Филиппины тоже ввели бан (позже его сняли, когда компания пообещала исправиться).
В Европе и США тоже начались движения. Великобритания и Франция начали расследования. Генеральный прокурор Калифорнии (родного штата многих IT-гигантов) заявил, что начинает проверку xAI.

Суть претензий проста: вы дали людям опасный инструмент и не прикрутили к нему инструкцию по технике безопасности.

ШАГ 5. «ЭТО ВСЁ ЛОЖЬ» ИЛИ ПОПЫТКА ИСПРАВИТЬСЯ?

Как отреагировала компания Илона Маска?
Сначала — в своем репертуаре. Когда журналисты отправили запрос с вопросом «что происходит?», автоответчик xAI прислал фразу: «Лживые традиционные СМИ» (Legacy Media Lies). Мол, вы всё выдумываете.

Но когда запахло жареным (и блокировками целых рынков), риторика изменилась. X объявила, что введет ограничения.

  1. Геоблокировка: Функция «раздевания» будет отключена в странах, где это прямо запрещено законом.
  2. Платный доступ: Генерацию картинок оставили только для платных подписчиков. Логика такая: если человек платит, его легче отследить и наказать, если он нарушает закон.

ШАГ 6. РЕЖИМ «С ПЕРЧИНКОЙ»

Почему это вообще стало возможным? Дело в настройках. Большинство нейросетей (типа DALL-E или Midjourney) имеют кучу скрытых фильтров. Если вы попросите их нарисовать что-то неприличное, они откажут и могут даже заблокировать вас.

Grok изначально позиционировался как бунтарь. У него есть так называемый «Spicy Mode» (Режим с перчинкой). Разработчики хотели сделать его смешным и дерзким, но забыли, что дерзость и пособничество преступлениям — это разные вещи. Граница между «свободой творчества» и цифровым насилием оказалась стерта.

ПОДВОДНЫЕ КАМНИ: ЦИФРОВОЙ СЛЕД НАВСЕГДА

Самая большая проблема этой истории — необратимость.
Да, Grok могут «починить». Да, функцию могут отключить. Но те 3 миллиона картинок уже созданы. Они уже скачаны, пересланы в чаты и выложены на форумы.

Главный подводный камень: интернет помнит всё. Жертва такого дипфейка может годами пытаться удалить эти фото, но они будут всплывать снова. Это новая реальность кибербуллинга, где обидчику даже не нужно уметь фотошопить — достаточно написать пару слов боту.

ФИНАЛ: УРОК ДЛЯ ВСЕХ НАС

Эта история — холодный душ для всей индустрии ИИ. Мы увидели, что бывает, когда мощные технологии выпускают в мир без тормозов.
Grok показал нам, насколько хрупка наша приватность. Ваше фото из отпуска в соцсетях может стать основой для фейка за пару секунд.

Что делать? Быть осторожнее с тем, что мы публикуем. И требовать от технологических гигантов ответственности. ИИ должен помогать нам работать и творить, а не превращать жизнь людей в кошмар.

Если вы хотите научиться использовать нейросети правильно, этично и безопасно, а также знать, как защитить свои данные — подписывайтесь на мой канал.

FAQ (ЧАСТЫЕ ВОПРОСЫ)

Вопрос: Что такое дипфейк?
Ответ: Это поддельное фото или видео, созданное нейросетью. Она берет лицо реального человека и накладывает его на другое тело или заставляет говорить то, чего он не говорил. Выглядит это очень правдоподобно.

Вопрос: Это вообще законно?
Ответ: Законы не успевают за технологиями. Во многих странах создание таких картинок само по себе не преступление, если они не детские. Но их распространение или использование для шантажа — это уже уголовная статья. Сейчас законы срочно переписывают.

Вопрос: Можно ли отличить такую картинку от настоящей?
Ответ: Пока еще да. ИИ часто ошибается в деталях: пальцы рук, надписи на фоне, странная текстура кожи или волос. Но с каждым обновлением (как в случае с Grok) отличить подделку всё сложнее.

Вопрос: Зачем Илон Маск это допустил?
Ответ: Маск — сторонник абсолютной свободы слова и отсутствия цензуры. Он считает, что ИИ не должен ограничивать пользователя. Но практика показала, что без ограничений пользователи начинают творить зло.

Вопрос: Могу ли я удалить свои фото из базы ИИ?
Ответ: Это сложно. Вы можете закрыть свои профили в соцсетях, но если фото уже попало в базы для обучения нейросетей, "вытащить" его оттуда практически невозможно.