Всем привет! Я, Гришанков Вячеслав, автор и редактор канала AndroidLime в Дзене, пишу из интересного места — из центра Сириус, где прямо сейчас проходит главное научное событие года — V Конгресс молодых ученых. Это мероприятие — флагман всего объявленного в России Десятилетия науки и технологий, и здесь, в прямом смысле слова, кипит будущее.
Вокруг меня — тысячи исследователей, изобретателей, студентов. Среди этого многообразия тем меня особенно цепляет одна, которая напрямую пересекается с тем, о чем я часто пишу, — с цифровой безопасностью и мошенничеством. Речь о дипфейках.
Я только что вышел с лекции Арутюна Аветисяна — академика РАН, директора Института системного программирования РАН, одного из ведущих экспертов в области искусственного интеллекта в стране. Хочу поделиться не просто сухой теорией, а живыми мыслями и открытиями, которые родились у меня после его выступления.
Что такое дипфейк и почему это не просто «фотошоп»?
Представьте, что у вас есть цифровой хамелеон. Он может идеально подстроиться под любой образ, под любой голос. Это и есть дипфейк (от англ. deepfake — «глубокий обман»). Если просто, то это синтетический медиаконтент — видео или аудио, — созданный с помощью ИИ, где человек говорит или делает то, чего никогда не делал в реальности.
Раньше для подделки видео нужна была студия и команда профессионалов. Сегодня, как метко заметил Арутюн Аветисян, «дипфейки будут улучшаться, потому что очень быстро улучшаются ИИ. ИИ теперь доступен каждому, даже ребенку, причем бесплатно. Неудивительно, что и мошенники им пользуются».
Вот и я задумался: мы живем в эпоху, когда мощнейшие инструменты, бывшие фантастикой еще 10 лет назад, теперь лежат в свободном доступе. Это потрясающе для творчества, но именно это и делает дипфейки такой масштабной угрозой.
Почему это касается лично вас? Реальные случаи
Многие думают: «Со мной-то такого не случится, я же в теме». Но есть примеры, которые рушат эту уверенность. Было много случаев обмана даже опытных людей.
Первый случай произошел в 2024 году. Сотрудница финансовой компании получила видео-звонок от… своего начальника. Она видела его лицо, слышала его голос, его интонации. Он велел срочно перевести $258 тысяч на счет «партнеров». И она это сделала. Это был не начальник. Это был дипфейк. К счастью, перевод удалось отменить, но осадочек, как говорится, остался на миллионы.
Но это цветочки. Второй случай — из Гонконга, тоже 2024 года. Там преступники с помощью дипфейка в ходе видеоконференции вынудили сотрудника транснациональной компании перевести им $25,6 миллионов. Представьте масштаб: целая видеоконференция, где несколько человек (все — дипфейки) отдают согласованные приказы.
После этих историй я четко усвоил мысль, которую до нас донес эксперт: дипфейки — не только для простых людей. Они работают на опытных людях. Коснуться может каждого. Это не страшилка, это уже реальность, в которой мы живем.
Так как же с этим бороться? Личный чек-лист после лекции
Итак, угроза ясна. Что делать? Кроме банального, но от этого не менее важного «критического мышления» и правила «перезвони и уточни», есть и технологические методы борьбы.
Арутюн Аветисян рассказал о самом, на мой взгляд, перспективном направлении — о проверке и маркировке ИИ-контента. Его институт как раз изучает, как можно отличить ИИ-контент от настоящего. Звучит как сценарий из фантастического фильма: детектор, который видит то, что не видит человеческий глаз.
«Возможно, в будущем каждый сгенерированный ИИ контент будет помечаться соответствующей галочкой, но над этим надо работать», — сказал он. Представьте, ваш мессенджер или видеоплеер будут иметь встроенную функцию, как сейчас антивирус, которая будет проверять подлинность видео. Пока этой «галочки» нет, нам приходится полагаться на себя.
Мой личный чек-лист после Конгресса:
- Доверяй, но проверяй (голосом). Если вам звонят с нестандартной просьбой о переводе денег, даже если это голос близкого человека или начальника — положите трубку и перезвоните ему сами на номер из вашей адресной книги. Дипфейк в реальном времени на двухстороннем звонке пока невозможен или крайне сложен.
- Ищи артефакты. Присмотритесь к видео: неестественные тени, размытие на границах волос или очков, странное моргание или мимика. Но будьте осторожны — эти артефакты с каждым днем исчезают.
- Включайте внутреннего скептика. Любое срочное, эмоциональное сообщение с просьбой о деньгах или конфиденциальной информации — красный флаг. Мошенники всегда играют на чувствах: срочность, страх, желание помочь.
Заключение
Выйдя из аудитории после лекции, я смотрел на молодых ученых, которые обсуждали свои проекты, и думал о двойственной природе технологий. Один и тот же ИИ, что помогает ставить медицинские диагнозы и делать научные открытия, может быть обращен против нас.
Но именно на таких площадках, как Конгресс молодых ученых, в рамках большого пути Десятилетия науки и технологий, рождаются не только новые угрозы, но и ответы на них. Важно, что лучшие умы страны работают над созданием «цифрового иммунитета». И наша с вами задача — быть в курсе, быть внимательными и помнить, что самая надежная защита — это наша бдительность, подкрепленная знаниями.
А вы сталкивались с чем-то похожим на дипфейки? Делитесь в комментариях — обсудим вместе