Скандал с "голыми" фото, которые генерирует нейросеть американского предпринимателя Илона Маска, набирает обороты.
Всего за один час приложение миллиардера способно создавать тысячи голых дипфеков реальных людей.
Как мошенники используют дипфейки для обмана граждан? Можно ли защититься от этого? Все подробности рассказали в программе "Самые шокирующие гипотезы" с Игорем Прокопенко на РЕН ТВ.
Дипфейки могут запросто разрушить карьеру любого политика
Благодаря соцсети в бикини могут оказаться первые лица государства. Недавно депутат из Новой Зеландии Лора Макклюр показала в парламенте, как при помощи искусственного интеллекта (ИИ) сгенерировать обнаженное фото любого политика и таким образом нанести вред его репутации.
Создатели фальшивых роликов и фото способны разрушить карьеру неугодного политика и наоборот – помочь продвинуться на выборах.
Так, во время президентской гонки в Соединенных Штатах в соцсетях было множество изображений певицы Тейлор Свифт, которая призывала голосовать за нынешнего президента США Дональда Трампа, хотя на самом деле она не поддерживала ни одного кандидата.
Мошенники стали использовать нейросети для обмана родственников своих потенциальных жертв
В конце 2025 года британский телеканал Channel4 показал документальный фильм под названием "Заберет ли ИИ мою работу".
В конце зрителей ждал настоящий шок. Все думали, что выпуск ведет настоящий журналист, вот только на деле это было изображение, сгенерированное нейросетью.
"Здесь есть огромная выгода, потому что знаменитому артисту, ведущему не нужно платить гонорар, он никогда не собьется.
В него не надо вкладываться и много работать с ним. Это бизнес", – пояснил научный сотрудник Института стран СНГ Руслан Панкратов.
Сегодня многие блогеры уже создают виртуальных моделей, которые выглядят как настоящие люди. Они рекламируют товары и зарабатывают тысячи долларов для своих создателей, и раскусить подделку становится все сложнее.
Современные дипфейк-видео становятся все реалистичнее, потому что нейросети научились имитировать не только малейшие нюансы мимики лица, но даже сердцебиение и пульс реального человека.
Мошенники сразу взяли на вооружение современные технологии, при помощи которых создают фальшивые кадры с человеком, которые затем отправляют его родственникам. При этом сегодня дипфейки можно создавать в реальном времени.
Однако нейросеть пока еще не научилась в точности копировать движения во время видеозвонков.
Чтобы вычислить мошенников, можно попросить своего собеседника, например, повернуть голову или сделать круговое движение руками.
Не стесняйтесь этого требовать от звонящего. Реальный родственник или знакомый поймет. А вот если вам звонит дипфейк, в этот момент он просто сломается.
Но есть вероятность, что и этот нюанс нейросети смогут устранить. Например в Индии есть так называемая "ферма движения рук", сотрудники которой, надев на голову камеру, складывают и раскладывают полотенце по сотне раз, а также делают другие бытовые движения с различными предметами. Все для того, чтобы нейросеть запоминала и в дальнейшем копировала.
Искусственный интеллект стремительно ворвался в нашу жизнь
Ученые забили тревогу на тему того, что нейросети захватывают мир. Так, недавно американский генерал Уильям Тейлор признался, что советуется с Chat GPT, перед тем как принять решение.
По прогнозам, в будущем нейросети могут заменить даже смартфоны. Об этом уже сообщил Илон Маск.
"Через 5–6 лет большинство из того, что люди будут потреблять и использовать, составит ИИ-контент", – предположил Маск.
А одна американская компания разработала уникального робота для сельского хозяйства, который с помощью искусственного интеллекта буквально выжигает сорняки.
В Китае стали активно внедрять нейросети в школы. В сотнях учебных заведений Шанхая и Пекина с их помощью уже проверяют домашние задания.
Тем временем мошенники тоже научились использовать искусственный интеллект в своих схемах.
Например, недобросовестный человек оплатил покупку или услугу переводом на карту, а потом вместо реального чека показал продавцу или администратору чек, сгенерированный нейросетью.
"Современные инструменты позволяют достаточно хорошо скопировать чек и ввести продавца в заблуждение", – отметил политолог Павел Рыжевский.
Киевский режим использует нейросети в работе своей фабрики фейков
Искусственный интеллект активно используют киевские власти. Например, на кадрах выступления президента Украины Владимира Зеленского во время телемарафона посредством нейросетей была дорисована аудитория в почти пустом зале.
Украинские чиновники также не брезговали откровенно обманывать людей заявлениями, что кадры с жестокими отловами людей и зверствами сотрудников ТЦК были якобы сгенерированы нейросетью.
Самые популярные уловки аферистов
Мошенники начали опечатывать квартиры своих потенциальных жертв, притворяясь судебными приставами. Они пытаются заставить граждан поверить в то, что у них якобы есть задолженности по ЖКХ или бизнесу.
С начала 2026 года аферисты начали использовать еще одну новую схему – отключение банковских карт. Злоумышленники звонят пользователю и говорят, что его счета заблокированы, и для того, чтобы это исправить, нужна внушительная сумма.
В такой ситуации важно не поддаваться панике, ведь сама по себе заблокированная карта не приводит к потере денег, в отличие от контактов с мошенниками.
Злоумышленники постоянно ищут новые способы обмана граждан. Например, сильные снегопады в феврале 2026 года позволили аферистам заработать на доверчивых россиянах, которым на телефоны стала приходить рассылка об уборке и вывозе снега.
Вот только после того, как якобы был заключен договор и переведены деньги, лжеуборщики тут же пропадали.
"Мошенники проявляют мобильность, выявляют запрос общества и подстраиваются под него", – подчеркнул Рыжевский.
В это трудно поверить, но за 2025 год мошенники развели доверчивых россиян почти на 300 миллиардов рублей.
В соцсетях пользователи стали делиться не только своими случаями обмана, но и мерами, которые можно принимать. В Сингапуре, например, онлайн-мошенников начали бить палками. Новые поправки уже внесены в уголовный кодекс (УК РФ) – это ждет злоумышленников в дополнение к тюремному заключению.
Что касается телефонных аферистов, то они кардинально модернизировали свои схемы обмана. Теперь в преступных махинациях работает не один человек, а целая группа злоумышленников, каждый из которых подключается к обработке жертвы на определенном этапе.
Например, согласно одной из распространенных схем, человеку звонит мошенник-неудачник, который якобы сам себя рассекретил, когда забыл отключить звонок. Вот только после этого на номер пользователя перезванивает его подельник, представляется следователем и говорит о том, что до него звонил мошенник и теперь нужно обезопасить деньги.
Другие аферисты представляются налоговыми инспекторами, участковыми врачами, школьными учителями и покупателями жилья или автомобиля. При этом на каждом этапе обработки жертвы аферисты теперь используют искусственный интеллект. В первую очередь для подделки голосов и изображений, которые становится все сложнее отличить от оригинала.
"Мошенники пользуются этим. Они подделывают голоса работников судов, полиции, прокуратуры, спецслужб и пытаются выманивать деньги у доверчивых россиян", – предупредил политолог Юрий Самонкин.
Еще больше интересного от РЕН ТВ – в канале "Рен. Важное" мессенджера MAX