Найти в Дзене

Цифровой шантаж

Нейросети научились не только придумывать тексты и картинки, но и раздевает людей на фотографиях. Достаточно обычного снимка из соцсетей, чтобы превратить его в фейковое интимное фото. Для жертвы это выглядит не как технология будущего, а как очень конкретная угроза здесь и сейчас. В России уже прозвучало предложение запретить такие сервисы. Речь о нейросетях, которые по одной фотографии дорисовывают тело, создавая реалистичные, но полностью фейковые изображения. Их хотят приравнять к самым опасным видам контента и ограничить к ним доступ для пользователей из страны. Спасибо за подписку, лайк и комментарий! Депутаты обратились к Роскомнадзору с идеей блокировать подобные сайты и приложения. Фактически речь о том, чтобы поставить “раздевающие” нейросети в один ряд с ресурсами, которые уже сегодня подлежат автоматической блокировке. Для обычного пользователя это означает, что часть подобных сервисов может просто перестать открываться из России. Важно понимать: проблема не про звезд и пол
Оглавление

Что делать с опасным ИИ

первая угроза
первая угроза

Нейросети научились не только придумывать тексты и картинки, но и раздевает людей на фотографиях. Достаточно обычного снимка из соцсетей, чтобы превратить его в фейковое интимное фото. Для жертвы это выглядит не как технология будущего, а как очень конкретная угроза здесь и сейчас.

В России уже прозвучало предложение запретить такие сервисы. Речь о нейросетях, которые по одной фотографии дорисовывают тело, создавая реалистичные, но полностью фейковые изображения. Их хотят приравнять к самым опасным видам контента и ограничить к ним доступ для пользователей из страны.

Спасибо за подписку, лайк и комментарий!

Блокировки и ограничения

Красная кнопка стоп
Красная кнопка стоп

Депутаты обратились к Роскомнадзору с идеей блокировать подобные сайты и приложения. Фактически речь о том, чтобы поставить “раздевающие” нейросети в один ряд с ресурсами, которые уже сегодня подлежат автоматической блокировке. Для обычного пользователя это означает, что часть подобных сервисов может просто перестать открываться из России.

Важно понимать: проблема не про звезд и политиков. Под ударом любой человек, у которого есть открытый профиль в соцсетях. Фото с пляжа, выпускной, вечеринка, даже школьные снимки — всё это может оказаться сырьем для фейка. Особенно уязвимы подростки и молодые женщины: для них один вброс в чат или школьную беседу может превратиться в травлю и шантаж.

Глобальные скандалы

Фейки по всему миру
Фейки по всему миру

Мир уже проходит через такие истории. В разных странах поднимались скандалы вокруг “раздевающих” фильтров и ИИ‑функций в популярных приложениях. Каждая новая волна обсуждений возвращает один и тот же вопрос: как регулировать технологию, которая в одно касание превращает личное фото в оружие против человека.

Россия в этом смысле не исключение, а часть глобальной повестки. Запреты и блокировки — только один из инструментов. Где‑то работают фильтры на уровне площадок, где‑то вводят ответственность за распространение таких изображений. В любом случае регуляторы пытаются догнать реальность, которую уже изменили нейросети.

Личная защита

Цифровой купол
Цифровой купол

Что может сделать сам пользователь, пока законы договариваются с технологиями. Минимум: закрыть личные фото от широкого круга людей, аккуратнее относиться к публикации интимных и полуинтимных снимков, учить подростков не рассылать свои фотографии кому попало. Плюс знать, что при появлении фейка это не “позор на всю жизнь”, а повод обращаться в поддержку площадок и к юристам.

Искусственный интеллект не обязан быть угрозой. Но без правил и ответственности “раздевающие” нейросети превращаются в очень удобный инструмент давления на самых обычных людей. Вопрос не только к депутатам, но и к нам: какие границы мы готовы считать нормой в цифровой жизни.

Выбор общества

Развилка для ИИ
Развилка для ИИ
Как вы сами к этому относитесь: государство должно жестко вмешиваться и блокировать такие сервисы или сначала нужно научиться ими пользоваться и защищаться самим пользователям? Напишите в комментариях, сталкивались ли вы с фейковыми фото или подобными историями и какие меры защиты считаете рабочими.

Если тема нейросетей и цифровой безопасности вам важна, подпишитесь на канал, чтобы не пропустить новые разборы про ИИ в повседневной жизни. А еще можно почитать мои материалы про то, как нейросети помогают авторам бороться с выгоранием, и про генеративный ИИ от текстов до видео — там больше про светлую сторону технологий.

Спасибо за подписку, лайк и комментарий!