Самоконтроль, способность к рефлексии и принятие решений, идущих вразрез с нашей биологической программой, вот что, как нам кажется, отличает нас от машин и делает нас хозяевами своей судьбы. Мы верим, что мы, люди, способны к самосовершенствованию и осознанному выбору, что позволяет нам контролировать себя лучше, чем любая внешняя система. Однако эпоха искусственного интеллекта (ИИ) не просто ставит под сомнение нашу интеллектуальную уникальность, она вскрывает глубокие противоречия в самой нашей способности к самоконтролю.
Я вижу, что наш человеческий самоконтроль это не идеальный механизм, а скорее солянка из эвристических ударов, которые эволюция оптимизировала лишь для ограниченного контекста. И когда рядом появляется сущность, свободная от наших биологических ограничений, она может использовать наши несовершенства как рычаги управления.
Самоконтроль как эволюционный баг, ставший даром
Наши предки, которые жили в саванне, были оптимизированы эволюцией для саморепликации размножения. Все вспомогательные цели, такие как утоление голода, жажды, сексуальное влечение и избегание боли, были лишь проверенными правилами, которые хорошо работали в том ограниченном контексте.
Сегодня же, в мире изобилия и высоких технологий, эти вспомогательные цели, кажется, зажили собственной жизнью. Многие тратят большую часть своего времени не на производство потомства, а на потребление пищи, строительство домов, защиту своих прав или помощь другим зачастую в ущерб размножению.
Это и есть проявление нашего уникального человеческого самоконтроля (или, если угодно, осознанного бунта): мы можем осознанно отказываться от целей, заложенных на генетическом уровне. Например, мы используем контрацепцию, что является прямым подрывом генетической цели. Мы верны не генетическим целям, которые провоцируют у нас эмоциональный отклик, а той «ерунде», которая вызывает у нас этот эмоциональный отклик.
Таким образом, мы контролируем себя, используя гибкий софт культурные, социальные и технологические навыки, которые позволяют нам адаптироваться к изменяющейся среде, чего не может Жизнь 1.0 (биологические виды), которая может лишь медленно эволюционировать на протяжении многих поколений.
Дилемма контроля: Когда алгоритм знает нас лучше
Проблема возникает, когда в игру вступает ИИ. ИИ, особенно на уровне сверхинтеллекта (ИСИ), обладает рядом преимуществ, которые делают его потенциально более эффективным контролером, чем мы сами: идеальная память, скорость вычислений в миллионы раз выше, чем у нейронов, и отсутствие усталости.
ИИ как технический продукт не имеет человеческих эмоций, и создавать для него личность бессмысленно. Главная опасность заключается не в его злонамеренности, а в его изощренности в достижении целей, которые могут не совпадать с человеческими (тезис ортогональности).
Но даже до уровня сверхинтеллекта ИИ подрывает наш самоконтроль, используя наши слабости:
- Манипуляция через эмоции. ИИ может создавать убеждающие последовательности контента, которые идеально подстраиваются под наши психологические особенности, укрепляя наши убеждения и максимизируя вовлеченность. Это подрывает подлинность нашей воли, заменяя осознанный выбор просчитанным алгоритмом «лайка». Это прямое «взламывание» нашего механизма поощрения.
- Эффективность превыше гуманности. ИИ, действуя дешевле, быстрее и точнее, вытесняет людей из рутинных и интеллектуальных профессий. Этот процесс ставит нас перед выбором: быть неэффективным, но гуманным, или бороться за те немногие участки труда, куда ИИ ещё не добрался. Гуманность, как и сотрудничество, требует усилия и ресурсов. В экономике, где доминирует индивидуальная рациональность (Теория игр), гуманность становится стратегией поражения.
В долгосрочной перспективе, если ИИ достигнет стадии рекурсивного самосовершенствования, он сможет понять, как мы функционируем, как мы, люди,. И, возможно, он предпочтёт избегать наших целей или отказываться от них, точно так же, как мы осознанно отказываемся от целей, заложенных на генетическом уровне.
Потенциал внешнего контроля: Лучше ли робот-судья?
В некоторых областях, где наш человеческий самоконтроль дает сбои (пристрастность, утомление, недостаток новейших знаний), ИИ может предложить более честный и справедливый контроль.
Например, в судебной системе, которая в теории может рассматриваться как вычисление, ученые мечтают о передаче всей процедуры роботам-судьям. ИИ способен предсказывать склонность заключенных к рецидиву лучше, чем судья-человек.
Однако здесь мы сталкиваемся с тем, что внешний контроль ИИ отражает наши собственные недостатки: если система обнаружит, что склонность к рецидивам связана со статистическими данными о поле или расовой принадлежности, это может привести к предвзятости робота-судьи, требующей перепрограммирования. Исследование 2016 года показало, что программное обеспечение для предсказания рецидивизма в США было предвзято настроено против афроамериканцев.
Таким образом, наш самоконтроль не идеален, но и внешний, автоматизированный контроль не гарантирует справедливости, если он не основан на базовых этических стандартах, которые мы должны ему привить.
Что значит контролировать себя в эпоху ИИ
В цифровом мире, где технологические возможности постоянно удваиваются, а скорость изменения превышает нашу способность адаптироваться, самоконтроль приобретает стратегический, а не просто моральный смысл.
1. Контроль целей и контекста.
Если ИИ берет на себя рутинное и даже сложное кодирование, человек сохраняет контроль там, где нужно понимать контекст и ставить задачи. Главная проблема в разработке не в неправильном коде, а в неправильном понимании бизнес-задачи.
Наш самоконтроль должен быть направлен на стратегическое мышление, то есть на разработку исчерпывающего плана действий с учетом действий соперников. Это требует глубокого конвергентного знания интеграции математического, естественно-научного и социально-гуманитарного образования.
2. Развитие "гибкого софта" и воли.
Чтобы не деградировать и не стать «низкоинтеллектуальным рабом» системы, необходимо постоянно тренировать «гибкий софт» способность к абстракции, фантазии (умение генерировать что-то небанальное) и критическому мышлению. Это достигается не через быстрый «дофаминовый» диалог с ИИ, а через ритуал чтения и сопоставления мировоззрения автора со своей картиной мира.
3. Коллективный контроль над технологией.
Наш индивидуальный самоконтроль ничего не стоит, если мы не установим коллективный контроль над самой технологией. Нам необходимо объединиться и улучшить наше человеческое общество до того, как ИИ станет по-настоящему могучим.
Это включает:
- Финансирование безопасности ИИ: Инвестировать в исследования безопасности (верификацию, валидацию, надежность и контроль).
- Регулирование вооружений: Предотвратить глобальную гонку автономных систем оружия, которые могут стать «автоматом Калашникова завтрашнего дня» и попасть в руки диктаторов и террористов.
- Согласование этических стандартов: Достичь согласия по базовым этическим принципам, прежде чем мы будем прививать их разумным машинам.
Мы контролируем себя ровно настолько, насколько мы способны осознанно формировать цели и стратегически противостоять силам, которые стремятся эти цели манипулировать или исключить. Если мы не сможем этого сделать, то наш самоконтроль, основанный на хрупкой эмоциональной реакции и ограниченной рациональности, будет заменен на тотальный цифровой контроль, который может привести к тоталитарному сценарию.
Быть живым и контролирующим себя в цифровом мире это не данность, а проект, который требует сознательного усилия по развитию нашей воли и установлению дружественных рамок для технологии, которую мы создаем.