Найти в Дзене

Искусственный интеллект: люди боятся не того

Искусственный интеллект (ИИ) стал неотъемлемой частью нашей жизни. Все, что описывали фантасты, сбылось, и теперь компьютерный мозг проник в важнейшие сферы человеческой жизни - медицину, финансы, искусство, оборону и образование. Искусственный интеллект — это совокупность технологий, позволяющих машинам имитировать человеческое мышление и поведение. Анализ огромных массивов данных позволяет предсказывать события и оптимизировать процессы, становясь незаменимым инструментом в различных областях человеческой деятельности. Дает ли ИИ преимущества? Конечно! Несет ли ИИ опасности? Еще какие! Ведь с большими возможностями приходит и большая ответственность (c) 🕷. Но понимаем ли мы все риски? Давайте разбираться. И начнем мы с очевидного. Недавнее исследование ВТБ показало, что большая часть населения опасается, что искусственный интеллект заменит их в работе. Эксперты говорят, что внедрение ИИ может привести к потере миллионов рабочих мест. И, что самое неожиданное, под ударом не только
Оглавление

Искусственный интеллект (ИИ) стал неотъемлемой частью нашей жизни. Все, что описывали фантасты, сбылось, и теперь компьютерный мозг проник в важнейшие сферы человеческой жизни - медицину, финансы, искусство, оборону и образование.

Искусственный интеллект — это совокупность технологий, позволяющих машинам имитировать человеческое мышление и поведение. Анализ огромных массивов данных позволяет предсказывать события и оптимизировать процессы, становясь незаменимым инструментом в различных областях человеческой деятельности.

Дает ли ИИ преимущества? Конечно!

Несет ли ИИ опасности? Еще какие!

Ведь с большими возможностями приходит и большая ответственность (c) 🕷.

Но понимаем ли мы все риски? Давайте разбираться.

Безработица

И начнем мы с очевидного.

Недавнее исследование ВТБ показало, что большая часть населения опасается, что искусственный интеллект заменит их в работе.

-2

Эксперты говорят, что внедрение ИИ может привести к потере миллионов рабочих мест. И, что самое неожиданное, под ударом не только рутинные или низкоквалифицированные операции (кассир, курьер, водитель такси или дальнобоя), но и профессии банковской сферы, креативной индустрии (помните забастовки сценаристов в США?), и даже медицины.

Да что там говорить, если "сапог пожирает сапожника" - искусственный интеллект заменяет программистов.

Но.

Опасения людей по поводу работы понятны, так было с мануфактурами, паровыми машинами, конвейерами - любой автоматизацией.

Правда в том, что технологии рождали новые профессии, либо рост сферы услуг. Несмотря на весь многовековой прогресс техники, Россия сегодня сталкивается с дефицитом кадров. И не только Россия.

Наоборот, депутаты и даже президент говорят, что нам нужна роботизация, чтобы справиться с низким уровнем безработицы и эффективности, заменить нелегальных мигрантов.

Мошенничество

Еще одно распространенное опасение.

Дипфейки и фальсификация информации - искусственно созданные или изменённые аудио и видео, используемые для обмана и манипуляции.

Чаще всего дипфейки применяются в соцсетях и мессенджерах, создавая видимость общения с близкими, с целью выманить деньги.

Но существует еще и коммерческий обман, когда мошенники создают дипфейки голосов руководителей компаний для обмана сотрудников.

Великобритания, США, Китай - по всему миру фиксируются случаи, когда работников обманывали дипфейки, и компании лишались сотен тысяч или миллионов долларов.

Дипфейки не обошли и политику, где они используются для дезинформации.

Поддельные видео с заявлениям или непристойным поведением президентов, депутатов и чиновников становятся новой реальностью и создают угрозу обществу, сеют панику и неразбериху.

В принципе, вам может позвонить дипфейк под видом мамы или друга, чтобы рассказать "ужасную новость", которую она узнала от знакомой знакомого из партии/полиции/администрации, про того или другого человека.

В этом ряду вирусные ролики, порочащие известных людей (Елизаветы II, Илона Маска, Тома Круза) и созданные компьютером, кажутся детскими шалостями.

Но.

Мошенничество и потеря работы - это очевидные и понятные угрозы. К ним можно подготовиться, выработать меры предосторожности.

Гораздо опаснее не то, что очевидно, а то, чего не видно, то, что не все осознают про ИИ.

Отсутствие прозрачности и подотчетности

Решения ИИ нередко принимаются «в черном ящике» — сами программисты не могут понять и объяснить логику выводов.

Если вы думаете, что проблема пока не остра - огорчим, мы уже зависим от решений искусственного интеллекта.

Пример: банковские алгоритмы, решающие выдавать или нет кредит.

Алгоритмы автоматизированного скоринга оценивают кредитоспособность клиентов и самостоятельно принимают решения о выдаче или не выдаче средств.

Нравится вам или нет, но ваша судьба УЖЕ зависит от ИИ, он ВЕРШИТ ВАШУ СУДЬБУ, пускай даже пока в достаточно ограниченном масштабе.

И тут сразу несколько проблем:

1) Непроверяемость.

Самообучаемость делает решения ИИ труднопроверямыми. Есть риск ошибок, которые никто не заметит.

Более того, тренировка нейросетей - часто коммерческая тайна. Т.е. компания может "скормить" нейросети любые вводные - вплоть до цвета кожи или родственных связей и наследственности - которые будут влиять на решения.

Вам кажется, что искусственный интеллект непредвзят, и вы ошибаетесь. Зависит от обучения.

Ладно банки, что если такое решение принято в медицине или судебной системе?

2) Неподсудность.

Сложность проверки вызывает трудности в обжаловании решений.

Отказано без объяснения причин.

Что-то вроде того. К кому бежать, к кому апеллировать? "Машина не ошибается", скажут они.

Страшнее же всего то, что машина не несет ответственности.

А это уже серьезный этический вызов. Как быть в случае смерти человека по вине самообучаемой машины? Кто виноват и что делать?

Нарушение конфиденциальности и манипуляция массами

Искусственный интеллект использует огромные объёмы персональных данных.

Вы уверены, что при этом соблюдается баланс между эффективностью анализа и защитой частной жизни?

И вообще, кто контролирует сбор и использование данных? Эта сфера требует жесткого регулирования, чтобы не допустить нарушений прав на неприкосновенность личности.

Но сбор данных, это лишь одна сторона проблемы. Вторая сторона - их использование.

Алгоритмы способны выявлять скрытые закономерности поведения пользователей интернета, что открывает возможности для манипуляций и злоупотреблений информацией.

Пример: Facebook неоднократно оказывался вовлечённым в скандалы, связанные с утечкой конфиденциальных данных миллионов пользователей, используемых сторонними компаниями для таргетированной рекламы и политических кампаний.

Как это сделать придумали в Cambridge Analytica – филиале частной британской компании SCL Group.

SCL Group (Strategic Communication Laboratories) - частная британская компания, специализировавшаяся на исследовании поведения и стратегических коммуникаций.
Компания была основана в 1990 году и без стеснений описывала себя как "глобальное агентство по управлению выборами" (global election management agency).

Ее подразделение SCL Elections занималось сбором данных о потенциальных избирателях, используя открытые данные о покупательском поведении пользователей и их активности в интернете.

При помощи таргетированной рекламы – нового инструмента политического маркетинга, на пользователей [в глобальном масштабе] оказывалось индивидуальное воздействие.

Как такое возможно?

Например, благодаря инструментам психометрии, когда степень адаптации личности к социальной среде измеряют по пяти показателям:

◆ открытость новому (интеллект);

◆ добросовестность (перфекционизм);

◆ экстраверсия (отношение к социуму);

◆ доброжелательность (готовность к сотрудничеству);

◆ нейротизм (эмоциональная стабильность).

Затем информация, появляющаяся в ленте пользователя, максимально подбирается согласно его психологическим характеристикам.

Таргетированность – то есть узость воздействия может быть абсолютно любой – как на уровне штата, так на уровне конкретного домохозяйства. Это знает любой SMM-менеджер.

Наиболее распространенный способ воздействия на такие микро-группы – размещение контекстной рекламы, различающейся мельчайшими деталями:

■ стилем заголовка,

■ фоновыми цветами,

■ визуальным и аудио материалом.

В сети заявляют, что к концу света 2012 модель достигла такой точности, что по 68 лайкам, поставленным в запрещенной в России социальной сети на букву "F" можно было определить цвет кожи, сексуальную ориентацию (в т.ч. запрещенные к пропаганде в РФ) и партийную (!) принадлежность пользователя. Через 300 лайков модель знала о человеке больше, чем его супруг, близкий друг или родители.

В итоге в 2017 году произошел скандал с утечкой данных пользователей Facebook в компанию Cambridge Analytica (дочки SCL Group). Используя алгоритмы ИИ для анализа личной информации, компания манипулировала общественным мнением во время выборов в США (британская, напомним, компания, не российская).

Утрата воли

Не менее важным является риск чрезмерной зависимости от ИИ.

Излишнее доверие к технологии ведет к снижению уровня критического мышления. Люди могут начать принимать решения, основываясь на советах нейросетей. Сначала в работе, а потом и в личной жизни.

Как итог - утрата самостоятельности человека как в личной жизни, так и в общественной сфере.

А теперь представьте, что ИИ может преследовать цели, противоположные человеческим интересам, если будет неправильно запрограммирован или выйдет из-под контроля.

Ну ладно. Это, возможно, фантастика. Но то, что нейросеть может преследовать чужие интересы (тех, кто ее программировал), а не ваши - печальный факт.

Вооружение

А что если решение жить вам или умереть в буквальном смысле будет зависеть от машины?

Существует значительный риск создания автономного оружия.

Уже сейчас нейросети используются для создания роевых моделей дронов. Такой рой может самостоятельно принимать решение об атаке на ту или иную цель.

А что если доверить искусственному интеллекту более смертоносное оружие? Уверены, найдутся сторонники и доводы, что управление ядерным оружием лучше передать искусственному интеллекту.

А как же? - скажут они. - Мы лучше доверим самое смертоносное оружие машине, способной анализировать гигабайты данных за секунду, чем эмоционально нестабильному, предвзятому и слабому физически человеку.

Заключение

Как и любая технология, ИИ - это одновременно возможность и угроза.

И, поверьте, потеря работы - меньшая из угроз.

Человечеству лишь только предстоит выработать адекватное регулирование и прозрачную политику использования этой технологии и разработать комплекс мер по обеспечению безопасности и защите прав граждан.

Читайте также:

- - - - - - - - -

⬇️Подписывайтесь на канал, чтобы не пропустить новые статьи, ставьте лайк 👍 и пишите с чем (не)согласны💬.