Найти в Дзене
Ufatime

Дипфейки и утечки: эксперты предупреждают об опасностях нейросетей для обработки фото

Россияне активно используют нейросети для трансформации своих фотографий, но эксперты предупреждают о рисках утечки личной информации. Фотографии могут стать основой для дипфейков, манипуляций или использоваться для обучения алгоритмов. Сергей Маклаков из АНО «Диалог Регионы» отмечает, что безопасная загрузка снимков в нейросети сегодня затруднительна, а сервисы часто получают широкие права на использование загруженного контента. Григорий Ревенко из LogIQ приводит примеры утечек, когда снимки пользователей, загруженные для «веселых фильтров», попадали в открытый доступ (например, в Midjourney), создавая цифровой след, пишет «Российская газета». Ставьте лайк и подписывайтесь на наш канал
Фото: UfaTime.ru
Фото: UfaTime.ru

Россияне активно используют нейросети для трансформации своих фотографий, но эксперты предупреждают о рисках утечки личной информации.

Фотографии могут стать основой для дипфейков, манипуляций или использоваться для обучения алгоритмов. Сергей Маклаков из АНО «Диалог Регионы» отмечает, что безопасная загрузка снимков в нейросети сегодня затруднительна, а сервисы часто получают широкие права на использование загруженного контента.

Григорий Ревенко из LogIQ приводит примеры утечек, когда снимки пользователей, загруженные для «веселых фильтров», попадали в открытый доступ (например, в Midjourney), создавая цифровой след, пишет «Российская газета».

Ставьте лайк и подписывайтесь на наш канал