Добавить в корзинуПозвонить
Найти в Дзене
Мыслей брожение

Опасность новой фейковой информационной эры. С нейросетями могут бороться только нейросети

Не все это пока понимают, но мы уже живем в другой реальности. В другой информационной матрице. И эта реальность наступила в последние годы. Нейросети вышли по качеству создания информационного контента (текстового, аудио, видео) на уровень человека. Что это означает на самом деле? Опишу возможную ситуацию.
В настоящее время люди перестали верить официальным СМИ.
На Украине, например, по опросам, 70% населения узнает новости из соцсетей и телеграмм каналов. Представим теперь, что мне нужно внедрить какую то информацию в массы. Сейчас это происходит с помощью проплаченных блогеров, так называемых "бот ферм" с фейковыми аккаунтами, покупки рекламы. Рассылаются заранее заготовленные тексты. И это работает весьма действенно. Но имеет ограничения по количеству и необходимость оплачивать работу всей этой сети. Но, подключив к этому нейросети, что мы получаем другие возможности. Мы можем начать создавать всеобъемлющую информационную картину. И как результат, люди просто не смогут верифиц
Взрыв у Пентагона, фейковая новость, созданная с помощью нейросети
Взрыв у Пентагона, фейковая новость, созданная с помощью нейросети

Не все это пока понимают, но мы уже живем в другой реальности. В другой информационной матрице. И эта реальность наступила в последние годы. Нейросети вышли по качеству создания информационного контента (текстового, аудио, видео) на уровень человека. Что это означает на самом деле?

Опишу возможную ситуацию.
В настоящее время люди перестали верить официальным СМИ.
На Украине, например, по опросам, 70% населения узнает новости из соцсетей и телеграмм каналов.

Представим теперь, что мне нужно внедрить какую то информацию в массы. Сейчас это происходит с помощью проплаченных блогеров, так называемых "бот ферм" с фейковыми аккаунтами, покупки рекламы. Рассылаются заранее заготовленные тексты. И это работает весьма действенно. Но имеет ограничения по количеству и необходимость оплачивать работу всей этой сети.

Но, подключив к этому нейросети, что мы получаем другие возможности. Мы можем начать создавать всеобъемлющую информационную картину.

  • Автоматически создать неограниченное количество контекста (тексты, аудио, фото, видео) на нужную тему с нужным уклоном, оригинального и уникального.
  • Автоматически создать неограниченное количество виртуальных персонажей, с историей (имея доступ к кухне сайтов, социальных сетей, телеграмм каналов это сделать можно) и разместить информацию (тексты, картинки, видео) от имени этих персонажей.
  • Автоматически создать множество комментариев и даже диалогов, где будет представлена ваша идея в нужном свете.

И как результат, люди просто не смогут верифицировать информацию. Исчезает сама возможность отличать правду от вымысла. Мы постепенно (или резко) окажемся в информационной матрице, в которой те, кто владеет нейросетями могут формировать нужную им картину мира.

Опыт цветных революций показывает, что важна не реальность, а то, какая интерпретация реальности вброшена в массы.

Уже сейчас есть примеры созданных с помощью нейросетей фейков вброшенных через аккаунты социальных сетей. Например в Китае в городе Дунгуань 5 мая задержан мужчина, который создал посредством ChatGPT фейковую новость о крушении поезда и распространил ее с 20 аккаунтов в соцсети Baijiahao. В ней говорилось о гибели 9 человек в результате якобы произошедшей 25 апреля аварии поезда. На самом деле такого инцидента не было. Фейк набрал более 15 тысяч просмотров до того, как его обнаружили сотрудники киберполиции КНР.

Более того:

«ИИ может создавать религии для контроля над людьми… Овладев только человеческим языком, ИИ имеет все необходимое, чтобы окутать нас миром иллюзий, подобным Матрице», – заявляет Юваль Ной Харари, верный адъютант-ньюсмейкер Клауса Шваба.

Ниже приведу пример возможности нейросетей уже сейчас

В пользу того, что вопрос серьезнейший, говорит повестка 69-й встречи Бильдербергского клуба в Лиссабоне, проходящей с 18 по 21 мая.
Основные темы обсуждения в 2023 году:

Искусственный интеллект; Банковская система; Китай; Энергетический переход; Европа; Лидерство США; Транснациональные угрозы; Россия; НАТО; Украина; Налоговые проблемы.

Обратите внимание - искусственный интеллект стоит в повестке на первом месте.

Как мы можем противостоять всему этому? На уровне "простых людей" - это старые добрые личные связи. С людьми, которым вы можете доверять. Семья, друзья, хорошие знакомые.
Построение вокруг себя доверенных источников информации с возможностью проверки, пока есть ещё такая возможность. Обращать внимание на подачу информации, если идет воздействие на эмоциональную сферу, скорее всего это манипуляция. Не спешить и не паниковать, читая о событиях. И если обнаружили, что информационный канал подсунул вам фейк (без опровержения), этот канал (как информационный) нужно выкинуть на помойку без всякой жалости, просто потому, что распространяющие дезинформацию, могут публиковать множество верных новостей, с целью в нужный момент сбросить фейк. Не доверять априори интернет источникам. Даже фото и видео. Увы наступает такое время, будьте бдительны!

Кстати, хочу отметить, что, несмотря на то, что телевидение имеет репутацию "зомбоящика", новости, например на 1 канале российского телевидения дают достаточно качественное освещение новостей, дополненное хорошим видеорядом. Телеграмм каналы такого не обеспечивают.

А на уровне государства, учитывая, что поток фейковой информации может быть практически не ограниченным, необходимо выстраивать контрпродукты на основе нейросетей, которые смогут анализировать и отсекать фейковые потоки, по аналогии работы спам фильтров в е-майл, которые отфильтровывают до 99% спам писем и без которых электронная почта уже бы просто умерла.