Привет!
Сегодня расскажу вам о принципе работы нейросетей и дипфейках. И для начала предлагаю вам проверить свой дипфейк-детектор. Внимательно посмотрите на фото ниже и угадайте, какая из девушек существует в реальности, а какая является образом, сгенерированным нейросеткой?
Если вы выбрали блондинку, поздравляю - искусственному интеллекту вас не провести. Пока что:) А если выбрали брюнетку, то это означает, что ваше чутье вас подвело, ведь фотка брюнетки - это сгенерированный хитрющей нейросеточкой образ. Косяк с волосами заметен в левом нижнем углу.
Сейчас из каждого утюга звучат словосочетания "нейросеть", "машинное обучение", "искусственный интеллект". Что же это такое? Погнали разбираться!
Искусственная нейронная сеть - математическая модель, построенная по принципу биологических нейронных сетей. Проще говоря, это попытка с помощью математических моделей воспроизвести работу человеческого мозга для создания машин с искусственным интеллектом. Фишка нейросеток кроется в том, что они не программируются в привычном смысле, а обучаются. Обучаются на огромных базах данных. Эти базы сеткам скармливают люди. И это реально круто! Потому как после обучения они начинают творить разные полезные (и не очень) штуки. Сейчас нейросетки уже пишут фейковые новости, которые фиг отличишь от настоящих, помогают вычислять стрелков-террористов по видосам очевидцев, предсказывают землетрясения, создают рекламу, юзаются в медицине. Вот эти ваши призмы и фейсаппы, с помощью которых не состарил свой фейс разве что ленивый, также работают на основе нейросеток. По сути, потенциал их использования практически безграничен.
В этом посте я привёл пример использования нейросеток для создания дипейков. Дипфейк (от англ. "deep learning" - глубокое обучение и "fake" - фальшивый) - это реалистичные манипуляции с аудио-, фото- и видеоматериалами с помощью искусственного интеллекта. Алгоритмы нейросеток на базе машинного обучения генерят новый контент из заданного набора. Короче, эта технология позволяет намутить образ несуществующего чела, подделать голос и интонацию другого, заменить в видосе лицо одного человека на другого. Кстати, согласно исследованиям, 96% дипфейк-видео в инете - порноролики😏
Про дипфейк-видосики попозже расскажу вам подробнее в отдельной статье. И накидаю ролики (спойлер - выглядит это всё пугающе и реалистично). А пока зацените Уилла Смита в образе Нео из "Матрицы". Ему изначально предлагали главную роль, но он отказался
Подписывайтесь на мой телеграм-канал - там еще больше интересного.