Найти в Дзене

Выступила в Московской городской Думе на круглом столе, организованном ЛДПР, посвящённом вопросам искусственного интеллекта и новых цифровых

угроз. Ключевая тема моего выступления — дипфейки и социальная инженерия как системный риск для граждан, бизнеса и государства. Цифры на начало 2026 года уже нельзя игнорировать: ⬇️ за 2025 год зафиксировано 400 уникальных дипфейка, ⬇️ только за сентябрь 2025 года — 65, что стало рекордом, ⬇️ суммарные просмотры дипфейк-контента превысили 180 миллиона. Важно понимать: сегодня создание поддельных голосов и видео доступно практически каждому. Это больше не «сложный ИИ», а массовый инструмент, который активно используется в мошенничестве, шантаже и репутационных атаках. Формально под ударом чаще всего чиновники и руководители, но на практике всё чаще страдают обычные люди и бизнес — через доверие, срочность и психологическое давление. И здесь у меня несколько вопросов к профессиональному сообществу: 1️⃣ Сталкивались ли вы в своей работе с дипфейками или попытками социальной инженерии? 2️⃣ Готовы ли компании и сотрудники к тому, что «голос» и «видео» больше не являются доказательством

Выступила в Московской городской Думе на круглом столе, организованном ЛДПР, посвящённом вопросам искусственного интеллекта и новых цифровых угроз.

Ключевая тема моего выступления — дипфейки и социальная инженерия как системный риск для граждан, бизнеса и государства.

Цифры на начало 2026 года уже нельзя игнорировать:

⬇️ за 2025 год зафиксировано 400 уникальных дипфейка,

⬇️ только за сентябрь 2025 года — 65, что стало рекордом,

⬇️ суммарные просмотры дипфейк-контента превысили 180 миллиона.

Важно понимать: сегодня создание поддельных голосов и видео доступно практически каждому. Это больше не «сложный ИИ», а массовый инструмент, который активно используется в мошенничестве, шантаже и репутационных атаках.

Формально под ударом чаще всего чиновники и руководители, но на практике всё чаще страдают обычные люди и бизнес — через доверие, срочность и психологическое давление.

И здесь у меня несколько вопросов к профессиональному сообществу:

1️⃣ Сталкивались ли вы в своей работе с дипфейками или попытками социальной инженерии?

2️⃣ Готовы ли компании и сотрудники к тому, что «голос» и «видео» больше не являются доказательством подлинности?

3️⃣ Кто, по-вашему, должен нести ответственность: пользователь, разработчик, платформа, работодатель?

Мне важно услышать реальные кейсы и мнения — со стороны ИТ, безопасности, юристов, HR и управленцев.

Без этого диалога любые регулирования будут отставать от реальности.

Если тема откликается — давайте обсудим в комментариях или в личных сообщениях.

#artificialintelligence #AI #cybersecurity #deepfake #informationsecurity

#digitalrisk #AIgovernance #techpolicy #dataprotection #НЕЙРОЭРА