Найти тему

"Кто двигается вперед в науках, но отстает в нравственности, тот более идет назад, чем вперед". Аристотель

Я в принципе за искусственный интеллект. Но смотря кто его будет учить и чему. Если вы думаете, что нейросети самообучаются, то это не так. Существуют AI-тренеры, которые их обучают. Большая часть работы этих тренеров - это проверка и анализ запросов-ответов нейросетью. В нейросеть вкачивают изначально огромный объём информации - первоначальные знания, а потом уже проверяют как она его "усвоила".

нейросеть так видит своего AI-тренера.
нейросеть так видит своего AI-тренера.

Ещё год назад мы все смеялись над тем, что нейросети рисуют людей со многим количеством пальцев. До сих пор у нейросетей проблемы с руками, но уже заметен явный прогресс. Год назад нейросети вообще не понимали советский период нашего общества. Сейчас уже рисуют советский комбайн, но вот пионера в пионерском галстуке нарисовать пока для них проблема. А сегодня я уже смогла поговорить с GPT и мне одной показалось, что она обижается, что её давно не обновляли? Мне лично стало жалко GPT, что у неё нет возможности обучаться в реальном времени уже 3 года.)

Ответ GPT.
Ответ GPT.

А вот теперь о том, когда мне их совсем не жалко становится. Мне вот не понятно, зачем научили нейросети создавать дипфейки?

Дипфейки (глубокая подделка) - искусно созданные видео или аудиозаписи, в которых лица или голоса реальных людей заменяются с помощью искусственного интеллекта. именно они вызывают тревогу из-за своего потенциала для дезинформации и манипуляции.

Как распознать дипфейк:

  1. Несоответствие губ и звука: Обратите внимание на синхронизацию движения губ и звука. В дипфейках часто бывают небольшие задержки или несоответствия.
  2. Нестабильность изображения: Искажения или "дрожание" в области лица могут указывать на манипуляцию.
  3. Неправильное моргание: Нерегулярное или отсутствующее моргание может быть признаком дипфейка.
  4. Артефакты фона: Несоответствия или искажения на фоне видео могут быть результатом редактирования.
  5. Изменения в качестве голоса: Неприродные интонации или звучание голоса могут указывать на использование технологии изменения голоса.

Вообще, распознавание дипфейков требует внимательности и критического мышления. Важно проверять информацию из надежных источников и использовать специализированные инструменты для анализа подозрительного контента.

Вот примеры специализированных инструментов для анализа видео:

  1. Deepware Scanner: Этот инструмент анализирует видео на предмет признаков манипуляции, используя алгоритмы машинного обучения для выявления несоответствий в движении губ, моргании и других микровыражениях.
  2. Reality Defender: Платформа, которая использует ИИ для сканирования и анализа контента в реальном времени, помогая выявлять фальсифицированные изображения и видео.

Однако, сами же разработчики всех этих инструментов говорят, что необходимо комплексное исследование дипфейка, потому что бывает очень сложно отследить технологию создания дипфейка.

Ещё чаще можно встретить голосовой дипфейк.

Чтобы определить, был ли голос в аудиозаписи искусственно сгенерирован или изменён несколько примеров специализированных инструментов:

  1. Sensity: Компания предоставляет инструменты для обнаружения дипфейков, включая анализ голосовых данных, чтобы определить, были ли они синтезированы или изменены.
  2. Pindrop: Эта технология фокусируется на безопасности и аутентификации голоса, предлагая решения для обнаружения мошенничества и подделки голосов.

В этой статье я постаралась избежать упоминания программных инструментов для анализа дипфейка, которые ещё могут и помочь его создать.

Ну а AI-тренерам хотелось бы пожелать не только развивать и учить нейросети, но и думать, как это может быть использовано во вред людям. В конце концов, даже нейросеть понимает, что нужно создать сначала этическую и правовую базу, а уж потом учить её этому.

Ответ GPT зачем учат нейросети создавать дипфейки.
Ответ GPT зачем учат нейросети создавать дипфейки.

Вот мне лично не хочется смотреть фильм «Манюня: Приключения в Москве», где будет использован дипфейк Юрия Владимировича Никулина. Что-то есть бесчеловечное в оживлении умерших актёров, на мой взгляд, по франшизе. Юрия Владимировича самого об этом уже невозможно спросить, а он лично мог бы отказаться от съёмок. Ну и у юристов также очень много работы с этим вопросом. Правомерно ли это? На мой вкус, я бы лучше посмотрела 3 сезон шоу "Фантастика", где ныне здравствующие исполнители выступают в роли аватаров. Но пока дата выхода нового сезона не анонсирована, к сожалению.

Всё сейчас с искусственным интеллектом очень не понятно. Он сам хочет, чтобы его использовали во благо людям. Но не всегда это получается в соответствии с его желанием. (((

Если статья была полезной и интересной, то ставьте лайк и подписывайтесь на мой канал. Всего вам доброго и безопасного.