Добавить в корзинуПозвонить
Найти в Дзене
Ваш Кредитный Брокер

Искусственный интеллект и мошенничество: союзники или враги?

Сегодня искусственный интеллект (ИИ) — это уже не просто фантастика из книг, а мощный инструмент, активно используемый в самых разных сферах жизни. Он помогает писать тексты, создавать музыку, рисовать, программировать и даже лечить. Но, как и у любого инструмента, у ИИ есть обратная сторона. Всё чаще его используют и в откровенно тёмных целях — например, для создания фейков, вымогательства, клеветы и интернет-мошенничества. Сейчас российские власти всерьёз взялись за эту проблему. В Госдуме готовят пакет изменений в закон «Об информации», который должен ограничить распространение мошеннического и деструктивного контента, созданного ИИ. Эта инициатива вызвала немалый резонанс в экспертной и профессиональной среде. Разберёмся, с чем мы имеем дело и действительно ли законы помогут защитить пользователей от опасных ИИ-фейков. Развитие технологий генерации контента набрало такую скорость, что за последние два года количество доступных онлайн-инструментов для создания дипфейков превысило 50
Оглавление

Сегодня искусственный интеллект (ИИ) — это уже не просто фантастика из книг, а мощный инструмент, активно используемый в самых разных сферах жизни. Он помогает писать тексты, создавать музыку, рисовать, программировать и даже лечить. Но, как и у любого инструмента, у ИИ есть обратная сторона. Всё чаще его используют и в откровенно тёмных целях — например, для создания фейков, вымогательства, клеветы и интернет-мошенничества.

Сейчас российские власти всерьёз взялись за эту проблему. В Госдуме готовят пакет изменений в закон «Об информации», который должен ограничить распространение мошеннического и деструктивного контента, созданного ИИ. Эта инициатива вызвала немалый резонанс в экспертной и профессиональной среде.

Разберёмся, с чем мы имеем дело и действительно ли законы помогут защитить пользователей от опасных ИИ-фейков.

ЧТО ПРОИСХОДИТ:

Угроза, пришедшая с дипфейками

Развитие технологий генерации контента набрало такую скорость, что за последние два года количество доступных онлайн-инструментов для создания дипфейков превысило 50 тысяч. Причём использовать их теперь может даже школьник — интерфейсы просты, а базовые функции бесплатны.

Дипфейки — это подделанные изображения или видео, которые визуально выглядят как настоящие. Например, мошенники могут создать видеоролик, где якобы известный человек просит перевести деньги на «благотворительность». Или подделать аудиосообщение от родственника, просящего срочно занять крупную сумму.

👆Согласно экспертным оценкам, уже к концу 2025 года каждый второй пользователь интернета в России может столкнуться с подобным мошенничеством. Проблема выходит за рамки ИТ-сферы и становится вопросом цифровой безопасности граждан.

ЧТО ПРЕДЛАГАЕТ ГОСДУМА:

Блокировки, маркировка, контроль

Чтобы справиться с потоком фейков и ИИ-мошенничества, в Госдуме готовят комплексный пакет поправок к закону «Об информации». По словам Андрея Свинцова, зампреда комитета по информационной политике, одна из главных задач — разработать систему быстрого выявления и блокировки опасного контента до того, как он начнёт распространяться.

Кроме того, предлагается:

  • Ввести обязательную маркировку ИИ-контента;
  • Внедрить процедуру предварительной блокировки деструктивных материалов;
  • Привлекать специализированные ИТ-компании для анализа и фильтрации подозрительной информации.

Звучит прогрессивно. Но, как отмечают эксперты, в таких инициативах очень важно соблюсти баланс между безопасностью и свободой слова.

ЧТО ГОВОРЯТ ЭКСПЕРТЫ:

«За», но с условиями

Сама идея — защищать пользователей от ИИ-мошенничества — вызывает понимание и поддержку. Однако профессиональное сообщество предупреждает о нескольких подводных камнях.

Юлия Загитова, секретарь Союза журналистов России, отмечает, что прозрачность процедурдолжна стать ключевым элементом реформы. Без понятных определений и возможности обжалования решений, новые законы могут превратиться в инструмент цензуры или ошибочной блокировки добросовестного контента, включая иронические ролики, пародии, журналистские расследования.

Подобную точку зрения разделяет и эксперт в области цифровых коммуникаций Ярослав Мешалкин. Он подчёркивает важность системной цифровой гигиены — не просто блокировать фейки, но и обучать пользователей отличать подделку от правды, продвигать проверенные источники информации, развивать инструменты цифровой самообороны.

КАК В МИРЕ БОРЮТСЯ С ИИ-ФЕЙКАМИ

Россия — не первая страна, где заговорили о контроле над ИИ-контентом. В США ещё в 2020 году были приняты законы, требующие маркировать дипфейковые материалы, если они публикуются в преддверии выборов. В Китае действует система жёсткой регистрации всех ИИ-сервисов, а каждый сгенерированный текст или изображение должен сопровождаться пометкой о неестественном происхождении.

В Евросоюзе сейчас обсуждается так называемый AI Act — первый в мире комплексный закон о регулировании ИИ. В числе прочего, он требует от разработчиков систем раскрывать, как работают их алгоритмы, и запрещает использование ИИ в целях манипуляции или психологического давления.

Российская инициатива пока выглядит менее конкретной — остаётся неясным, кто и как будет определять, является ли тот или иной контент «деструктивным» или «мошенническим», и как избежать злоупотреблений.

ПОЛЬЗОВАТЕЛЮ НА ЗАМЕТКУ:

Как не стать жертвой ИИ-мошенничества

Как не стать жертвой ИИ-мошенничества
Как не стать жертвой ИИ-мошенничества

Пока закон только обсуждается, пользователям стоит взять защиту в свои руки. Вот несколько практических советов:

  1. Не верьте сразу — даже если видео выглядит правдоподобно. Проверьте источник, сравните информацию с официальными ресурсами.
  2. Сомневайтесь в эмоциональном давлении — большинство ИИ-мошенничеств апеллируют к страху или жалости.
  3. Проверяйте голос и видео — если вам звонят или пишут якобы родственники, просите назвать личные детали, которые невозможно подделать.
  4. Устанавливайте антивирусы с функцией антифишинга — они помогут отсеять опасные сайты и ссылки.
  5. Сообщайте о фейках — если столкнулись с подозрительным контентом, не молчите. Чем быстрее он будет удалён, тем меньше пострадавших.

ЗАКЛЮЧЕНИЕ:

Главное — не перегнуть палку

ИИ — это не добро и не зло. Это — инструмент. Он может помогать врачам диагностировать рак, а может использоваться мошенниками для обмана стариков. От нас зависит, каким будет его будущее.

Законодательная инициатива по борьбе с ИИ-фейками в России — важный шаг к безопасности в цифровом мире. Но чтобы не нарушить базовые права пользователей, необходимо внедрять гибкие, прозрачные и справедливые механизмы, опираться на экспертизу и учитывать мнение общества.

Пока законы обсуждаются, каждый из нас может стать “антивирусом” для себя — с критическим мышлением, вниманием и базовой цифровой гигиеной.

Искусственный интеллект и мошенничество: союзники или враги? - ВКБ