Добавить в корзинуПозвонить
Найти в Дзене

Deepfake - реальность перестаёт быть очевидной

По сути, данное слово гибрид deep learning (пер. с англ. глубинное обучение) и fake (пер. с англ. подделка). Буквально обозначает «подделка, созданная нейросетью». На самом деле точный перевод термина, можно обозначить, как попытку описать океан парой слов, потому что deepfake нельзя назвать определенной технологией. Скорее это новая реальность восприятия, в которой привычные человеческие ориентиры начинают рушиться. История deepfake уводит нас на десять лет назад - в 2017 году на форумах Reddit пользователь с ником deepfakes выкладывал видео с заменой лиц знаменитостей. Тогда это выглядело как странная забава или эдакая цифровая маскарадная шутка. Сегодня же deepfake превратился в мощный инструмент, использующийся в самых разных сферах. Исследования Media Lab, Stanford Internet Observatory и аналитика Sensity AI показали, что количество deepfake‑контента за последние годы выросло в десятки раз. Но самое тревожное, что большинство таких материалов совсем не являются мемами и шутками. З
Реальность или фейк?
Реальность или фейк?
По сути, данное слово гибрид deep learning (пер. с англ. глубинное обучение) и fake (пер. с англ. подделка). Буквально обозначает «подделка, созданная нейросетью».

На самом деле точный перевод термина, можно обозначить, как попытку описать океан парой слов, потому что deepfake нельзя назвать определенной технологией. Скорее это новая реальность восприятия, в которой привычные человеческие ориентиры начинают рушиться.

История deepfake уводит нас на десять лет назад - в 2017 году на форумах Reddit пользователь с ником deepfakes выкладывал видео с заменой лиц знаменитостей. Тогда это выглядело как странная забава или эдакая цифровая маскарадная шутка. Сегодня же deepfake превратился в мощный инструмент, использующийся в самых разных сферах.

Раньше глаза были доказательством, а теперь - инструментом обмана...
Раньше глаза были доказательством, а теперь - инструментом обмана...

Исследования Media Lab, Stanford Internet Observatory и аналитика Sensity AI показали, что количество deepfake‑контента за последние годы выросло в десятки раз. Но самое тревожное, что большинство таких материалов совсем не являются мемами и шутками. За ним стоят реальные и не всегда положительные цели, среди них можно назвать: манипуляции в политике, атаки на репутацию, финансовые схемы, борьба за влияние и прочее.

Раньше бытовало простое правило: «Не верь слухам - смотри сам». Сейчас видеть собственными глазами недостаточно. Поскольку deepfake разрушает базовый человеческий механизм доверия – если я это вижу, значит, это действительно существует.

Фейковые технологии могут научить...
Фейковые технологии могут научить...

Мы живем в эпоху, где истина перестаёт подтверждаться визуальными доказательствами и во многом зависит от контекста, фильтров, предубеждений и использованных инструментов.

Психологи отмечают тревожную тенденцию - люди, узнавшие о существовании deepfake, начинают сомневаться даже в подлинных видео. Такое явление называют эффектом «информационного размывания реальности», если можно подделать всё, значит, ничему нельзя верить… В итоге мир, который казался понятным и предсказуемым, становится зыбким, как туман над рекой…

Теперь спорят не о фактах...
Теперь спорят не о фактах...

Было время, когда философы XX века много рассуждали о симулякрах - копиях без оригинала. Так вот, deepfake стал их цифровой версией, поскольку представляет собой событие, которого никогда не было, но при этом оно преподносится очень эмоционально, с определенной интонацией и в мельчайших деталях. Отсюда в сознании человека постоянно возникает вопрос: «Что я готов признать произошедшим?».

Представьте себе, что даже использование в речи слова deepfake меняет наше мышление. Мы больше не говорим «подделка видео», вместо этого произносим коротко - deepfake. То есть автоматически придаём данному явлению технологическую легитимность, по сути, указывая не на обман, а на новый инструмент передачи ложной информации. Так происходит подмена, которая смягчает существование ложной реальности, превращая угрозу в очередной прием с использованием современных гаджетов.

А встречаем мы подобную технологию повсюду!

Новая реальность
Новая реальность

Фейковые выступления политиков, звонки от родственников и друзей с использованием синтезированного голоса, поддельные интервью, использование лиц актёров в совершенно абсурдных сюжетах, мошеннические схемы с видеоподтверждениями - всё это уже не фантастические фильмы, а реальность сегодняшнего дня. И масштабы проблемы продолжают расти в геометрической прогрессии.

Конечно же, у каждого явления или феномена есть и положительные стороны. Давайте посмотрим на оборотную сторону медали!

Нужно признать, что использование deepfake в благих целях приносит массу положительных результатов. Например, в киноиндустрии эта технология позволяет омолаживать актёров и восстанавливать архивные лица, в образовании - воссоздавать исторические фигуры, в бизнесе - открывать новые возможности для коммуникации. А ещё это доступные инструменты творчества, позволяющие каждому экспериментировать с формой и нарративом.

В целом, любая технология должна становиться усилителем созидания, а не разрушения, просвещения, а не манипуляции, доверия, а не паранойи.

Так что же такое deepfake - полезный инструмент или социальная катастрофа?

Пожалуй, ни то ни другое...

Где же эта грань?
Где же эта грань?

Это лакмус, который показывает, насколько мы правильно умеем анализировать внешнюю информацию. Поэтому сейчас, как никогда, возникает потребность в развитии способностей сопоставлять, задавать вопросы, конструктивно критиковать и не принимать ничего на веру только потому, что мы это видим.

И даже смотря в зеркало современной цивилизации, люди должны понимать, что оно отражает зависимость от визуальных образов, жажду сенсаций и готовность верить. Поэтому в мире, где подделка неотличима от оригинала, единственным надёжным ориентиром остаётся разум, обладающий навыком искать истину за пределами картинки.