Россияне активно используют нейросети для трансформации своих фотографий, но эксперты предупреждают о рисках утечки личной информации. Фотографии могут стать основой для дипфейков, манипуляций или использоваться для обучения алгоритмов. Сергей Маклаков из АНО «Диалог Регионы» отмечает, что безопасная загрузка снимков в нейросети сегодня затруднительна, а сервисы часто получают широкие права на использование загруженного контента. Григорий Ревенко из LogIQ приводит примеры утечек, когда снимки пользователей, загруженные для «веселых фильтров», попадали в открытый доступ (например, в Midjourney), создавая цифровой след, пишет «Российская газета». Ставьте лайк и подписывайтесь на наш канал
Дипфейки и утечки: эксперты предупреждают об опасностях нейросетей для обработки фото
30 ноября 202530 ноя 2025
4
~1 мин