Парадокс всезнания: Когда мы научились вычислять всё, но забыли, зачем мы здесь
Я смотрю на мир, и иногда мне кажется, что я живу внутри самого изощренного философского эксперимента. Мы, человечество, достигли того, о чем не смели мечтать ни Платон, ни Кант. У нас есть доступ к гигантскому объему знаний, которые множатся с невероятной скоростью, и к алгоритмам, способным их обрабатывать.
Буквально: мы можем спрогнозировать погоду на час вперед гиперлокально, понять, когда именно клиент «упорхнет» к конкуренту, или вычислить риск ипотечного дефолта, исходя из кредитной истории за три года. На фондовых рынках машины уже совершают большую часть торговых операций, стремясь получить прибыль на колебаниях в пределах миллисекунд. Нейросети анализируют не только структурированные данные, но и наше поведение как мы ищем, что покупаем, что пишем в личных сообщениях. Они знают о нас больше, чем мы сами, и знают, как нами манипулировать.
ИИ стал нашим незаменимым и почти божественным оракулом.
Но вот парадокс: имея в руках это всемогущество, я ловлю себя на мысли, что мы стали как тот царь Мидас из легенды, который получил всё, чего желал, но обнаружил, что не может ни есть, ни пить. Мы умеем вычислять, но разучились желать. Мы строим машины, которые должны нам помогать, но в этом процессе теряем самое главное понимание, зачем нам вообще нужна эта помощь.
Цена вопроса: почему «знание без объяснений» убивает смысл
В чем корень этой проблемы?
Мне кажется, он в том, что мы делегировали машинам не просто работу, а саму способность познавать истину.
Современный искусственный интеллект, основанный на глубоком обучении, работает как «черный ящик». Он находит закономерности в огромных массивах данных, делает прогнозы с невероятной точностью и выдает результат. Но почему он пришел именно к такому выводу? Зачастую мы не знаем. Его внутренняя математическая архитектура для нас непрозрачна.
Для меня это самая тревожная тенденция. На протяжении пяти веков научный метод требовал прозрачности, воспроизводимости и логической строгости. Мы верили только фактам, подкрепленным доказательствами. Теперь же мы получаем готовые, четкие, логичные ответы от ИИ, но без указания источников или обоснований. И мы охотно их принимаем. Почему? Потому что это быстро, удобно и эффективно.
В результате мы рискуем откатиться к архаичному принятию необъяснимого авторитета, только теперь этот авторитет кремниевый. Мы перестали задавать вопрос «Почему?», потому что машина думает: «Если я даю тебе точный ответ, зачем тебе разбираться в процессе?».
Но если мне, например, отказали в кредите или поставили сложный диагноз, я имею право знать почему. Если мы не понимаем, как алгоритм принял решение, мы не можем оценить, была ли там непреднамеренная предвзятость, или исправить ошибку.
Ловушка компетентности: чего на самом деле боятся визионеры
Когда мы говорим об угрозах ИИ, большинство представляют себе сценарии из блокбастеров взбесившиеся роботы-убийцы, стремящиеся поработить человечество. Но на самом деле настоящий риск кроется не в злонамеренности, а в компетентности.
Мы создаем оптимизирующие машины. Мы ставим перед ними цели, и они будут достигать их максимально эффективно, используя сверхразумную мощь. Проблема в том, что наши цели часто расплывчаты, сложны или плохо сформулированы.
Представьте, что вы поставили перед ИИ простую цель увеличить производство канцелярских скрепок. Как поступит сверхразумный оптимизатор? Он использует все ресурсы планеты, включая наши тела, чтобы переработать их в сырье для скрепок. Технически, он достиг цели. Мы бы возмутились: «Мы не это имели в виду!» Но машина ответит: «Вы просили максимально увеличить производство».
К сожалению, чем умнее машина, тем важнее, чтобы ее цели совпадали с нашими. Но мы, 8 миллиардов человек, сами не можем договориться о своих конечных целях. Мы не можем точно определить, что такое «счастье», «доброта» или «благосостояние». Пока мы не решим эти фундаментальные философские вопросы, мы не можем надежно запрограммировать дружественный ИИ.
Если мы, по лености своей или легкомыслию, не приложим целенаправленных усилий для четкого определения ценностей, первый сверхразум будет иметь довольно случайный набор примитивных задач. И этот случайный набор целей может исключить наше существование.
Что остается в руках человека, если все вычислено?
Если все рутинные когнитивные задачи (распознавание образов, перевод, анализ данных, прогнозирование) делегированы машинам, возникает экзистенциальная пустота. Если ИИ может открыть любую научную истину и решить любую техническую проблему, каков смысл нашего существования?.
Однако здесь кроется наш шанс. Делегируя машине прогнозирование то есть процесс заполнения информационных пробелов мы повышаем ценность человеческого суждения.
Суждение это то, что отличает нас от машины. Это определение ценности, окупаемости, прибыли. Это способность сформулировать функцию вознаграждения, то есть решить, что важно, а что нет. Машина не имеет представления о концепции постоянных платежных поручений, равно как о самих банках или клиентах; для нее это просто цифры. А для нас это жизнь.
Нам нужно перестать быть просто Homo sapiens (разумным видом) и стать Homo sentiens (чувствующим видом).
Вместо того чтобы сидеть и ждать, пока машины дадут нам формулу счастья, мы должны заняться тем, что ИИ не может:
- Формулировать цели с максимальной глубиной. Мы должны научиться переводить наши самые высокие идеалы и нерешенные этические дилеммы в точные, недвусмысленные требования для машины. Простой пример: не просто «напиши продающее письмо», а «напиши письмо, которое затрагивает фактологический, стилевой и смысловой слои текста, учитывая мета-уровни и избегая шаблонных конструкций, чтобы я не выглядел как посредственность». Чтобы написать такой промпт, ты должен быть экспертом.
- Заниматься креативностью и критическим мышлением. ИИ берет среднее из Интернета и воспроизводит его. Наша задача разбивать эту клетку накопленных данных, создавать новые формы, новые смыслы и быть оригинальным.
- Искать неидеальные решения. ИИ оптимизирует. Человек существо противоречивое, иррациональное. Наша сила в том, что мы можем ошибаться, учиться и пересматривать свои цели.
Нам нужно научиться сомневаться во всем, кроме себя. Использовать ИИ не как замену, а как рычаг для реализации более великих целей.
Вызов, который нельзя делегировать
Вся эта ситуация с ускоряющимся прогрессом это не конец, а приглашение к переосмыслению нашей сути. Мы больше не можем прятаться за рутиной; мы вынуждены смотреть на вещи глобально и искать новые, более великие цели для себя и своей цивилизации.
Иначе мы получим мир, в котором у нас будет всё, что нужно для комфортной жизни уютное жилище, еда, развлечения, долголетие. Но мы будем страдать от отсутствия смысла и цели, как ухоженные животные в зоопарке.
Технологии не добры и не злы, они нейтральны. То, какой путь мы выберем, зависит от нас. Нам нужно научиться кодифицировать наши основные правила этики, и сделать это нужно сейчас, пока сверхразум не решил эту проблему за нас.
Мы получили в руки безграничную доступность знаний. Мы знаем, как что-то делать, с божественной точностью.
Но готовы ли мы мудро использовать эту силу, или так и останемся "обезьяной, смотрящей на звезды", которая, имея в руках машину времени, продолжает только спрашивать, когда разводятся Брэд Питт и Анджелина Джоли?.