Относительно недавно мы могли быть уверены в том, что объекты, изображённые на фотографиях и видео, реальны. Даже когда наступила эра PhotoShop, люди всё равно знали, что изначально изображение было настоящим. Но развитие ИИ-технологий ставит под сомнение реальность того контента, что вы можете видеть. В большинстве случаев ИИ-технологии используются во благо, однако, некоторые недобросовестные личности применяют Искусственный Интеллект для обмана.
Когда создание контента ИИ-технологиями приемлемо
Если человек знает о том, что изображение или видео создано при помощи ИИ-технологий, то он без особых проблем принимает этот факт. Например, Голливуд использует ИИ-технологии для написания сценариев. Чем сильнее машинное обучение развивается, тем большие объёмы данных могут использовать алгоритмы. Таким образом, алгоритм может рассчитать «формулу» идеального фильма, который будет коммерчески успешен. Это один из примеров использования ИИ-технологий для повышения качества творческих процессов.
Искусственные голоса
ИИ-технологии позволяют имитировать любые голоса, имея лишь небольшой фрагмент звука. Это, безусловно, может быть полезно в некоторых ситуациях. Например, для исправления ошибок актёров озвучки. Но синтетические голоса могут использоваться и во вред.
Умный контент
Создание персонализированного или «умного» контента — это палка о двух концах. Как и любое использование ИИ-технологий — создание персонализированного контента должно быть прозрачным для пользователя. Что такое умный контент? Это контент, который меняется в зависимости от того, кто его видит, читает, смотрит или слушает. Подобные разработки тестируются в Netflix и TikTok. Мы привыкли к тому, что поисковые системы и системы рекомендаций предлагают нам контент, основываясь на наших предпочтениях. Однако этот контент никогда не подстраивался под пользователя.
Фейковые тексты
GPT2 — разработка, созданная OpenAI, некоммерческой исследовательской организацией, которая поддерживается Илоном Маском. Сама разработка представляет из себя генератор текста, который способен создавать контент, используя огромные объёмы данных. GPT2 обучалась на новостных лентах и художественных произведениях. Однако группа не стала публиковать GPT2, побоявшись неправильного использования технологии.
Фейковые изображения
Филипп Ванг создал веб-сайт ThisPersonDoesnotEtxist, чтобы показать мощность ИИ-технологий. Каждое человеческое лицо, которое представлено на сайте, выглядит точно так же, как и настоящее. Однако все эти лица созданы при помощи ИИ-технологий. Другой схожий сайт — Whichfaceisreal.com был создан для того, чтобы протестировать людей на то, могут ли они отличать реальные лица от искусственных.
Оба сайта показывают мощь технологии, которая была создана корпорацией NVidia. Они использовали GAN (генеративно-состязательная архитектура нейронных сетей), в которой две нейронные сети создают искусственные образы и проверяют, сможет ли другая обнаружить фейковое изображение. Некоторые человеческие лица наделены особенностями, которые позволяют сразу же обнаружить фейковое изображение. Но всё равно, многие из изображений являются довольно убедительными.
Опасность фейковых видео
Казалось бы, способность ИИ-технологий создавать реалистичные голоса, изображения и видео — это захватывающе, интригующе и ошеломляюще. Но не стоит забывать о том, что ИИ-технологии могут использоваться во вред.
Решение Deepfake использует аудио и видео для того, чтобы представить то, чего на самом деле не было. Технология генерирует порнографические фильмы со звёздами, заменяя головы актрис.
Помимо того, что Deepfake может нанести репутационный ущерб некоторым лицам, эта технология может также распространять дезинформацию в сети.
Например, ИИ-технологии могут подделать выступление известных политиков и лидеров стран, тем самым разрушая национальную безопасность и личную репутацию политика.
В Китае, например, создаются ИИ-телеведущие, которые выглядят точно так же, как и обычные люди. Они используются для ведения новостных передач. Зрители могут подумать, что это настоящий человек, если не предупредить их об искусственности ведущего.
Резюме
По мере развития ИИ-технологий они становятся всё более изобретательными, и определить поддельный контент в будущем будет практически невозможно. ИИ-технологии могут создавать фейковые тексты, фотографии, аудио и видео. Такие возможности могут использоваться злоумышленниками, поэтому мы больше не можем быть уверены в том, что изображение или текст перед нами — настоящие, а не поддельные.
Источник: Forbes