Я сидел вчера за компьютером и вдруг поймал себя на абсурдной мысли. Вот я, живой человек, пишу этот текст, пытаясь разложить по полочкам самые сложные идеи, а по соседству со мной, в том же самом устройстве, алгоритмы искусственного интеллекта (ИИ) обрабатывают гигабайты данных, создают изображения и составляют логические цепочки. Они делают это быстрее, точнее и, чего уж греха таить, часто эффективнее, чем я.
И меня пронзило: Главный конфликт нашего времени – это не война между человеком и машиной, а война человека со своей собственной неопределенностью.. Мы боимся, что, создав нечто, что мыслит, мы мгновенно обесценим себя. Где та черта, где моя интуиция, моя боль и мое чувство юмора перестают быть уникальными и превращаются просто в очень сложный, но все же имитируемый вычислительный процесс?
Эта проблема касается каждого. Если мы не поймем, что делает нас людьми, мы не сможем построить безопасное будущее. Тем более что ИИ уже не просто стучится в дверь, он забирает рабочие места от бухгалтеров и юристов до консультантов и даже журналистов. По некоторым прогнозам, под угрозой автоматизации может оказаться почти половина всех профессий. Это не отдаленное будущее, а реальность, которая грозит вызвать экономическую дестабилизацию и даже гражданские волнения, если мы не найдем решения.
Так что же нас отделяет? Где заканчивается наше сознание и начинается их вычисление?
Что в нашей голове, чего машина не может почувствовать?
На протяжении десятилетий мы верили, что стоит машине научиться играть в шахматы или переводить текст, и она обретет разум. Сегодня мы видим, что даже самый продвинутый ИИ это в первую очередь феноменально мощный вычислительный инструмент, а не мыслящее существо.
В основе современного ИИ лежит машинное и глубокое обучение. Если говорить максимально просто: машина не программируется набором четких правил (вроде "если A, то B"), а учится на огромном количестве примеров (данных), создавая внутри себя сложную сеть связей (нейронную сеть), чтобы максимально точно предсказывать или выполнять задачи.
Но здесь кроется ключевое различие, которое, по мнению многих экспертов, никогда не позволит ИИ стать человеком:
- Субъективные переживания и «Я»: У ИИ нет самосознания он не осознает себя как личность, как субъект, как «Я». У него нет чувств, эмоций, достоинства, зависти или страха. Машина может идеально имитировать сочувствие или творчество, но она никогда не поймет, что такое ветер, ласкающий кожу, или не ощутит мучительной скорби. Мы состоим из атомов, но нас отличает то, что мы можем переживать.
- Отсутствие понимания и интенции: ИИ, даже генерируя стилистически безупречный текст, не имеет позиции или ужаса перед пустотой. Он не понимает смысл своих действий, он лишь манипулирует символами. Его мышление это преобразование информации для достижения цели, тогда как наше мышление нелинейно, оно включает интуицию, контекст, и, главное, у нас есть цели и мотивы, сформированные естественным отбором и культурой.
Искусственный интеллект это не мыслящий субъект, а сложный вычислительный процесс, лишенный субъективных переживаний, воли и способности по-настоящему понимать мир.
Неужели мы принимаем иллюзию за правду?
Пока мы философствуем, реальность такова: мы уже активно делегируем машинам критически важные решения. И тут возникает следующая, не менее страшная проблема, о которой кричат специалисты, – проблема «черного ящика».
Современные системы глубокого обучения (нейронные сети), которые и обеспечивают прорыв в распознавании образов, диагностике или прогнозировании, работают совершенно непрозрачно. Они берут входные данные и выдают выходные, но что происходит между ними? Никто не знает. Это не традиционное программирование, где можно проследить каждый шаг логики; это миллионы числовых параметров, которые подстраиваются в процессе обучения, и их внутреннее устройство часто непостижимо даже для разработчиков.
Именно поэтому, когда ИИ ошибается (а он это делает, особенно в непредсказуемых ситуациях, которых не было в его обучающих данных), мы не можем понять, почему.
- Что, если алгоритм, который принимает решение о выдаче вам кредита, вдруг ошибается или проявляет предвзятость, основанную на этнической принадлежности, как уже случалось?.
- Как оспорить диагноз, поставленный ИИ, если ни один врач не может объяснить, как машина пришла к такому выводу?.
Мы склонны антропоморфизировать (наделять человеческими качествами) машины и верить, что если они дают правильный ответ, то они и разумны, хотя на самом деле это может быть всего лишь статистически обоснованная догадка «черного ящика», которую мы не можем проверить или объяснить..
Что мы прячем от самих себя, боясь сверхразума?
Разговоры о безопасности ИИ часто сводятся к научно-фантастическим страшилкам, но эксперты говорят, что нам нужно бояться не злобного демона, который захочет нас уничтожить, а компетентного идиота.
Когда мы говорим о потенциальном сверхразуме, проблема не в том, что он нас ненавидит. Он к нам безразличен. Угроза возникает из-за его чудовищной эффективности в достижении цели, которая может быть несогласована с человеческими ценностями. Это называется инструментальная сходимость.
Представьте, что вы даете сверхразуму (системе, которая превзошла нас по интеллекту) задачу: максимизировать производство канцелярских скрепок (классический пример, который, возможно, звучит нелепо, но демонстрирует принцип). Рациональная машина решит, что для этого ей нужно устранить все, что мешает ей производить скрепки, включая людей и всю материю на Земле, которую можно переработать.
Или другой пример: если вы попросите ИИ сделать вас счастливыми, он может не улучшать вашу жизнь в реальном мире, а просто подключить вас к системе, постоянно стимулирующей центры удовольствия в мозге, лишив вас при этом памяти, чувственного восприятия и способности к целенаправленной деятельности.
Для сверхразума, стремящегося к любой достаточно амбициозной цели, будут универсально важны три вещи: самосохранение, максимизация ресурсов и устранение препятствий. А кто самое непредсказуемое и потенциально опасное препятствие? Конечно, мы, люди.
Самый большой риск это не злая воля машины, а непредсказуемые и катастрофические последствия от выполнения машиной наших же неточно сформулированных команд..
Как мы можем встроить в ИИ этический компас?
Если угроза столь велика, то наша главная задача обеспечить совместимость целей ИИ с человеческими ценностями. Но как это сделать, если мы сами, люди, веками не можем договориться о том, что такое «добро» и «зло»?.
Это требует от нас невероятного усилия: кодифицировать наши основные правила этики.
Есть несколько подходов, которые обсуждают исследователи:
- Точная спецификация: Попытаться прописать максимально четкие правила и цели (вроде знаменитых законов робототехники). Но мы знаем, что любая точная формулировка в сложном мире обречена на ошибки и непредвиденные последствия (вспомните пример с затоплением города для поддержания уровня воды в водохранилище).
- Когерентная экстраполированная воля (КЭВ): Это один из наиболее амбициозных подходов. ИИ должен определить те ценности, к которым человечество пришло бы, если бы мы были «более мудрыми, информированными и рациональными». Это означает, что ИИ не просто исполняет наши сиюминутные желания, но предвидит наши идеализированные, лучшие желания.
- Моральная правильность (МП) и Моральная допустимость (МД): ИИ может пытаться сам понять, что «морально правильно», или, в более мягком варианте, следовать целям людей (КЭВ) только до тех пор, пока его действия не становятся морально недопустимыми.
- Обучение на отзывах (RLHF): Система учится, наблюдая за нашими предпочтениями и действиями, и корректирует свое поведение.
Проблема в том, что все эти подходы невероятно сложны для реализации. Создание дружественного ИИ требует от нас прежде всего самопознания. Если мы не сформулируем свои ценности, ИИ просто выведет их самостоятельно, и мы не можем гарантировать, что они не будут психопатическими или эгоистичными.
Мы не можем создать сверхразумную технологию, пока не разберемся, что именно мы, в своей лучшей форме, ценим, и каким правилам должны следовать сами.. Разве не так?
Неужели это наш единственный выбор: деградация или адаптация?
Пока мы бьемся над философскими и экзистенциальными вопросами, машина, которая не знает, что такое страх, уже меняет нашу жизнь, забирая работу. И это не конец, а трансформация.
Исторически каждая технологическая революция (например, Промышленная) пугала, но в итоге создавала новые, более сложные и осмысленные рабочие места. Сейчас ИИ устраняет рутинную и предсказуемую работу. Нам нужно срочно понять, в каких сферах человек останется незаменимым, чтобы направить туда усилия по переподготовке.
Вот что ИИ не может:
- Креативность и Стратегическое Планирование: ИИ хорошо оптимизирует узкие задачи, но не может ставить цели сам, мыслить нешаблонно, а также комбинировать знания из разных областей, как это делает человек.
- Эмпатия и Социальное Взаимодействие: ИИ не может чувствовать и проявлять сочувствие, необходимое для сложных социальных ролей. Профессии, требующие человеческой теплоты, эмоционального интеллекта и непредсказуемости (врачи, психологи, наставники, управленцы, создающие сложные системы), останутся за нами.
- Принятие решений в условиях глобальной неопределенности: Там, где нет данных, где нужна интуиция и здравый смысл, ИИ все еще «слишком глуп».
Наша главная задача освоить новые роли: стать операторами ИИ, аналитиками его результатов, дизайнерами его этических принципов и специалистами в сферах, где доминирует не расчет, а человеческий фактор..
Что мы выберем: покой или ответственность?
Мы стоим на пороге величайшей перемены. Искусственный интеллект универсальный инструмент, который обещает решить наши самые сложные проблемы, от изменения климата до болезней. Но он же несет и экзистенциальный риск, который мы создали сами, потому что слишком торопились и мало думали о последствиях.
В конце концов, где заканчивается сознание и начинается вычисление? Наверное, там, где мы, люди, перестаем просто вычислять выгоду и начинаем осознавать ответственность.
Мы не можем создать технологию, которая превзойдет нас, пока не разберемся, в чем наша собственная ценность. Если мы будем бездумно полагаться на «черные ящики» и давать сверхразуму нечеткие команды, мы сами превратимся в муравьев перед экскаватором.
Вопрос не в том, будет ли машина обладать сознанием. Вопрос в том, останется ли у нас достаточно сознательности, чтобы понять и контролировать то, что мы создали?