Вчера посмотрела интересный ролик Даниэля Сачкова - создателя независимой платформы "Бастион".
Он рассказал о, так называемом, искусственном интеллекте, о реальных опасностях, которые нас ждут, в связи с повсеместным внедрением цифровизации.
Расскажу вкратце, а кому интересно, посмотрите ролик. (Ссылка в конце статьи).
Во-первых, по словам Даниэля искусственного интеллекта не существует. То, что создается - это огромная вычислительная система, которая собирает, систематизирует и выявляет повторяющиеся закономерности.
Интеллект есть только у людей, способных творить - создавать новое из ничего. ИИ на это не способен, он только переставляет "кубики" создавая что-то новое из кусков старого.
Он делает только то, на что его запрограммировали. За любым ИИ стоят люди.
Но это - очень хороший инструмент, которым, конечно же, заинтересовались власть имущие. И именно поэтому, его так усиленно продвигают во всех цивилизованных странах.
Но для того, чтобы люди не поняли, какую опасность он представляет, нам рассказывают о мнимой опасности:
о том, что ИИ способен заменить людей и получить власть над человечеством.
Сейчас это муссируется во всех СМИ, а раз об этом так много говорят, значит зачем-то это нужно, просто так не будут болтать и тратить на это большие деньги.
Возможно, эта опасность тоже не исключена, но не сейчас, а - в будущем. А на данном этапе развития этого цифрового монстра опасность заключается в другом:
он способен пробить брешь в сознании каждого человека и "взломать" его, заставить действовать не по своей воле, а человеку будет казаться, что он сам принял это решение.
Человек - существо, далеко не всегда логичное. Часто мы принимаем решение по наитию, на основе эмоций, предрассудков или просто потому что "так захотела левая нога".
Если собрать достаточно большое количество данных о человеке, то ИИ может выявить паттерны поведения (повторяющиеся закономерности). И на основе этих паттернов им манипулировать.
Это уже используется в политике, для того, чтобы люди проголосовали за нужного кандидата. В США, например, перед выборами президента всех избирателей разделили на 3 группы:
1. Кто точно проголосует.
2. Кто точно не проголосует.
3. Не определившихся.
Это легко выявить, если иметь все данные о переписке людей в соцсетях и разговорах.
Не определившиеся - это самая большая группа на которую и начинают влиять.
У каждого человека есть то, что ему нравится, что привлекает и что не нравится. Если это знать, то очень легко сделать так, чтобы именно этот кандидат ему понравился, а другой вызвал неприязнь.
Просто надо показывать каждому человеку именно то, что в этом кандидате вызовет у него приятные эмоции.
Для этого и существуют ленты новостей, подобранные под каждого индивидуального человека, якобы, для того, чтобы учитывать его интересы и предпочтения. На самом деле - для манипуляции.
Чем человек сложнее - тем труднее его взломать. Чем больше у него здравого рассудка и критического мышления, тем сложнее "замок". Но эмоции есть у всех и, манипулируя эмоциями, можно взломать даже самых умных и критически мыслящих, что мы и наблюдаем сейчас.
Одна моя знакомая рассказала, как ее соседка - пенсионерка, учительница русского языка и литературы, которая всю жизнь несла детям Добро и Свет, сейчас, сидя у телевизора с ненавистью в глазах кричит, что надо всех убить и уничтожить в соседней стране.
Это - удивительно, но вполне объяснимо. Телевизор ориентируется на людей старшего возраста и взламывает их пачками.
Что же делать?
1. Давать как можно меньше информации о себе, о своих предпочтениях и интересах. Для этого не бродите по ленте, которую вам предлагает алгоритм, а сами выбирайте, что смотреть. Лайки, желательно ставить невпопад, чтобы запутать ИИ. Понравилось - поставьте дизлайк и - наоборот. А комментировать вообще - не стоит.
2. Развивайте логику и критическое мышление. Помните про Шерлока Холмса с его дедуктивным мышлением. Во всем, что делается, есть чей-то интерес.
3. Помните о том, что вы - Люди - уникальные, божественные существа и имеете Свободу Воли.
Свободу Воли не нужно никому отдавать.
Ссылка на ролик Даниэля Сачкова.