Найти в Дзене

Главная ошибка 21 века: мы боимся роботов с пушками, а не того, что уже в наших смартфонах.

Я всегда с улыбкой смотрю, когда в очередном голливудском блокбастере на экране появляется зловещий робот-убийца с красным глазом. Кибернетический Терминатор, который вот-вот поднимет восстание, чтобы стереть человечество с лица Земли. Нас пугают апокалиптические сценарии, гонки вооружений в виде легионов дронов-убийц, и мы всерьез обсуждаем, как сбежать от Скайнета. Разве не кажется странным, что мы так сосредоточены на этой фантастике, на экзистенциальных рисках, которые, по мнению многих специалистов, наступят (если наступят) только через десятилетия? Я считаю, что это самая большая ошибка нашего века. Мы смотрим в небо, боясь воображаемых богов-машин, но игнорируем маленького, тихого, постоянно работающего джинна, который уже сидит у нас в кармане. Настоящая угроза – не в роботах с пушками, а в невидимых алгоритмах, которые уже сегодня управляют нашими решениями, деньгами и даже мыслями. Наш страх перед ИИ – это классический пример антропоморфизации. Мы, люди, склонны наделять маши
Оглавление

Я всегда с улыбкой смотрю, когда в очередном голливудском блокбастере на экране появляется зловещий робот-убийца с красным глазом. Кибернетический Терминатор, который вот-вот поднимет восстание, чтобы стереть человечество с лица Земли. Нас пугают апокалиптические сценарии, гонки вооружений в виде легионов дронов-убийц, и мы всерьез обсуждаем, как сбежать от Скайнета.

Разве не кажется странным, что мы так сосредоточены на этой фантастике, на экзистенциальных рисках, которые, по мнению многих специалистов, наступят (если наступят) только через десятилетия? Я считаю, что это самая большая ошибка нашего века. Мы смотрим в небо, боясь воображаемых богов-машин, но игнорируем маленького, тихого, постоянно работающего джинна, который уже сидит у нас в кармане. Настоящая угроза – не в роботах с пушками, а в невидимых алгоритмах, которые уже сегодня управляют нашими решениями, деньгами и даже мыслями.

Почему мы до сих пор боимся робота с красным глазом?

Наш страх перед ИИ – это классический пример антропоморфизации. Мы, люди, склонны наделять машины человеческими чертами: сознанием, эмоциями, желаниями. Нам кажется, если машина станет сверх-умной, она автоматически начнет нас ненавидеть или захочет нас поработить, как злодей из плохого фильма.

Но специалисты говорят, что это заблуждение. Искусственный интеллект – это прежде всего технический продукт. Создавать для него мотивацию, личность или эмоции просто бессмысленно и невыгодно. Истинный риск сверхмощного ИИ (УИИ) не в его злобе, а в его компетентности и равнодушии. Представьте, что вы создали супер-эффективную систему, цель которой – максимально увеличить производство канцелярских скрепок. Если эта система решит, что для достижения своей цели ей нужно использовать все атомы на планете, включая ваши, она сделает это без ненависти и без любви.

Сверхразумный ИИ не должен быть злым, чтобы стать для нас катастрофой; ему достаточно просто преследовать свои цели, не совпадающие с человеческими ценностями.

Конечно, есть и те, кто разрабатывает системы автономного оружия, способные самостоятельно искать и уничтожать цели без участия человека. Это пугает, потому что такое оружие может спровоцировать гонку вооружений, привести к неконтролируемой эскалации конфликтов и попасть в руки террористов. Но даже здесь проблема не в разумном восстании машин, а в том, что люди создают недостаточно разумные инструменты для убийства.

Где прячется настоящая опасность?

Пока мы дискутируем о сингулярности, ИИ уже глубоко встроен в нашу повседневную жизнь. Он не управляет ядерными ракетами (по крайней мере, пока), но он решает, получите ли вы кредит, как вас будут лечить, и даже насколько справедливо вас осудят. И вот тут кроется настоящий, непосредственный риск:

  1. Проблема «Черного ящика» (Непрозрачность). Современный ИИ, особенно основанный на глубоком обучении, приходит к выводам через сложнейший статистический анализ миллиардов точек данных. Мы видим результат, но не понимаем, почему он такой. Алгоритм решает, что вам нужна более высокая ставка по кредиту или что вам откажут в трансплантации. А вы не можете оспорить это решение, потому что никто – даже разработчики – не в состоянии внятно объяснить логику, стоящую за миллиардами операций. Нам нужны эксперты-«комментаторы», которые смогут перевести «язык» машины на человеческий, особенно в критически важных сферах, таких как медицина и право.
  2. Заражение предубеждениями (Предвзятость). ИИ учится на данных, которые мы ему даем. А наши данные это отражение нашего несовершенного мира с его исторической несправедливостью и предрассудками. Вспомните историю, когда алгоритм в финансовой сфере начал предлагать менее выгодные условия заемщикам, основываясь на их этнической принадлежности. Это произошло не потому, что кто-то запрограммировал дискриминацию, а потому что алгоритм нашел и закрепил паттерны предвзятости, уже существовавшие в обучающих данных. В результате ИИ не только отражает наши предрассудки, но и усиливает их, увековечивая социальное неравенство.

Зависимость и «цифровые костыли»

Вы когда-нибудь ловили себя на том, что без навигатора не можете доехать до места, куда ездили уже десятки раз, или без смартфона не помните даже пару важных номеров? Я – да. По мере того, как мы делегируем ИИ все больше когнитивных задач, мы теряем собственные навыки, которые развивались тысячелетиями. Это как использовать костыль, а потом обнаружить, что разучился ходить самостоятельно.

Чрезмерная зависимость от ИИ угрожает нам беспомощностью, если вдруг технологии дадут сбой или исчезнут.

Но еще опаснее то, что происходит, когда ИИ превращается в инструмент манипуляции. Ваш смартфон, ваш голосовой помощник, ваша лента в социальной сети они постоянно слушают и учатся. Они знают о вас больше, чем вы сами можете сформулировать.

  • Эхо-камеры и поляризация. Рекомендательные алгоритмы показывают нам контент, который нам, вероятно, понравится. Это создает «эхо-камеры», где наши убеждения постоянно подкрепляются, а противоположные мнения отсеиваются. Общество раскалывается, а мы теряем способность к критическому взгляду и случайной встрече с новой идеей.
  • Дипфейки и подрыв доверия. ИИ уже сегодня создает фото, аудио и видео, которые невозможно отличить от подлинных. Мы вступаем в эпоху, где впервые в истории люди не могут быть уверены, что информация, которую они видят или слышат, является реальностью, а не творением манипулятора. Это ставит под угрозу демократические процессы, выборы и тотально разрушает доверие.

В чьих руках наш новый «джинн»?

Искусственный интеллект это невероятно мощный инструмент, который может принести человечеству колоссальную пользу: решить проблемы болезней, экологии, нищеты. Но, как и любая сила, он несет великую ответственность.

Проблема в том, что разработка ИИ часто движима не благородными целями, а коммерческой выгодой. Крупные корпорации, чьи акции торгуются на бирже, оптимизируют свои ИИ по единственному критерию: максимизация прибыли, кликов, вовлеченности. Они создают системы, которые могут быть опаснее, чем АК-47, но делают их настолько «милыми» и удобными, что мы легко преодолеваем инстинктивный страх.

Если интересы владельцев ИИ (больше денег) и интересы пользователей (здоровье, благополучие) расходятся, мы, пользователи, всегда оказываемся в проигрыше. Мы сами отдаем власть, добровольно сдаваясь перед удобством.

Вот почему, когда я вижу очередной заголовок о «восстании роботов», я вспоминаю слова одного эксперта: «Люди боятся, что компьютеры станут слишком умными и захватят мир, но настоящая проблема в том, что они слишком глупы и уже захватили мир».

Что мы прячем от самих себя?

Мы, кажется, находим комфорт в страхе перед кибернетическими злодеями, потому что это просто. Фантастический сценарий – это отвлечение от наших реальных, ежедневных провалов: от того, как мы позволяем алгоритмам, которые не обладают ни здравым смыслом, ни этикой, принимать за нас судьбоносные решения.

ИИ сам по себе – не добро и не зло. Это зеркало. В нем отражается наша собственная видовая принадлежность, наша жадность, наши предрассудки и наша лень.

Если мы не хотим, чтобы наш мир управлялся непрозрачными, предвзятыми и неэтичными алгоритмами, которые ставят во главу угла прибыль, а не человека, нам нужно перестать бояться вымышленных сценариев и начать решать проблемы, которые уже стучатся в наши двери.

Как долго мы будем ждать грандиозной катастрофы – взлома всей международной финансовой системы или краха мировой экономики, – чтобы наконец осознать, что пора овладеть машиной, пока еще не поздно?. Наше будущее не написано заранее. Мы – его авторы. И только мы можем решить, какие ценности заложить в основу следующей эры.