Рынок, которым управляет невидимый Джинн: Мы потеряли контроль над собственными деньгами?
Мы все любим думать, что, когда речь заходит о больших деньгах, всем управляет рациональность: сидят умные люди, анализируют, торгуются, принимают взвешенные решения. Но если я скажу вам, что финансовый мир, на котором зиждется вся наша цивилизация, уже давно перестал быть человеческим? Им управляет холодный, расчетливый и абсолютно равнодушный «черный ящик», который способен обрушить рынок за двадцать минут, даже не заметив этого.
Вот в чем наш главный, острый конфликт: мы построили системы, которые приносят нам невероятную прибыль, но при этом мы не понимаем их действий и не можем им доверять. Внедрение искусственного интеллекта (ИИ) в экономику это не просто технологический прорыв, это фундаментальный сдвиг, который заставляет нас, простых людей, чувствовать себя марионетками, дергающимися на ниточках в гигантском, непостижимом для нас театре. И тревожность эта вполне обоснована.
Когда Уолл-стрит стала просто алгоритмом?
Если вы представляете себе фондовую биржу как хаотичный зал, где люди кричат в телефонные трубки, забудьте. Та эра давно прошла. Сегодня мировой финансовый рынок это одна из тех областей, где системы ИИ работают с самой высокой эффективностью, а конкуренция жестока.
Что это за ИИ? В основном, это так называемый слабый, или узкий, искусственный интеллект он не обладает сознанием, не планирует захват мира, но превосходно делает одну вещь: прогнозирует. Он ищет закономерности и тенденции, анализирует новостные сводки, временные последовательности и гигантские массивы данных, чтобы определить, куда двинутся котировки.
Ключевой инструмент, который изменил все, это алгоритмическая высокочастотная торговля (HFT). Это формализованный процесс совершения сделок по заданному алгоритму, целью которого является получение прибыли на микроскопических колебаниях цен в пределах миллисекунд. По разным оценкам, от 50% до 70% всех операций на крупнейших биржах (например, Нью-Йоркской фондовой бирже и NASDAQ) сегодня осуществляют именно эти машины.
А теперь к самой сути проблемы: «Черный ящик». Это термин, который я очень люблю, потому что он отражает всю нашу беспомощность. Нейронные сети и алгоритмы глубокого обучения работают так: мы даем им входные данные (историю торгов, новости), и они выдают выходные данные (купить или продать). Но что происходит внутри, в процессе принятия решения? Никто не знает. Внутренняя математическая архитектура, созданная моделью после обучения, остается непрозрачной даже для разработчиков.
Разве не странно, что мы доверяем свои деньги, свои пенсионные накопления и общую стабильность системы чему-то, что мы не можем объяснить?
Цена доверия: как алгоритмы натворили бед?
Всякий раз, когда я слышу о «черном ящике», мне вспоминаются конкретные катастрофы, которые случились на наших глазах. Это не выдумки из фильмов про злобных роботов; это реальная цена нашей зависимости от непрозрачных систем.
Помните «мгновенный обвал» (Flash Crash) 6 мая 2010 года?. Тогда всего за двадцать минут индекс Доу-Джонса рухнул на 1000 пунктов, прежде чем люди успели вмешаться. Что произошло? Взаимодействие нескольких, казалось бы, простых алгоритмов привело к цепной реакции и непредсказуемым последствиям. Никто не понял, что происходит, пока не стало слишком поздно.
Или история с фирмой Knight Capital в 2012 году. Новая автоматизированная программа для покупки и продажи акций содержала ошибку. За 45 минут (для компьютера это целая вечность) программа провела более 4 миллионов иррациональных сделок на сумму 7 миллиардов долларов, едва не обанкротив компанию.
Эти инциденты преподали нам два жестоких урока:
- Взаимодействие простых компонентов может создать системные риски с непредсказуемыми и сложными последствиями. Мы не можем контролировать «монстра, которого создали».
- Алгоритм, обученный на здравых предположениях, в непредвиденных обстоятельствах продолжит действовать с «железобетонной логической стойкостью», выполняя свою работу, даже если ее результаты абсолютно абсурдны. Наш страх должен быть не перед машинным сверхинтеллектом, а перед машинной глупостью.
Ясное дело, что в этих ситуациях наша зависимость от компьютеров становится нашей уязвимостью.
Почему мы до сих пор боимся людей, а не машины?
Мы оказались в парадоксальной ситуации. С одной стороны, мы в восторге от того, что ИИ может предсказывать спрос, оптимизировать логистику и даже рекомендовать нам, какую книгу купить. С другой стороны, мы не можем объяснить, почему он принял то или иное решение.
Когда дело доходит до действительно важных, судьбоносных вещей – выдачи кредита, диагностики болезни или вынесения приговора – нам нужно объяснение. Но алгоритм просто говорит: «Потому что так предсказала математическая модель, основанная на миллиардах операций».
Исследования показывают: люди страдают так называемым «избеганием алгоритма». Мы предпочитаем доверять своему собственному, часто ошибочному, суждению или суждению другого человека, чем более точному, но непонятному прогнозу машины. Почему? Потому что у нас есть «теория психики» для людей: мы предполагаем, что другие мыслят и рассуждают примерно так же, как мы, разделяют наш жизненный опыт и ценности. Для ИИ у нас такой «теории» нет.
Но, увы, эта человеческая слабость не мешает нам передавать машинам все больше власти. Мы передаем им нашу обязанность информированного понимания. А разработчиков гонит вперед не жажда добра, а громадные финансовые стимулы.
Разве не безумие это бояться собственных ошибок, но добровольно отдавать контроль над критически важными системами «черным ящикам»?
Есть ли выход из этой гонки?
На кону стоят огромные деньги, и пока что экономические стимулы перевешивают даже экзистенциальный страх. Компании, владеющие ИИ, могут получить колоссальную социальную, экономическую и политическую власть. Гонка за создание Сверхразума (общего ИИ, который сможет выполнять любую интеллектуальную задачу лучше человека) идет полным ходом, и финансовые рынки это идеальный полигон.
Если финансовый сверхинтеллект родится на Уолл-стрит, его, скорее всего, будут держать в строжайшей тайне, пока он приносит деньги своим создателям. Интеллектуальный взрыв пройдет незаметно для большинства из нас, и остановить его будет, вероятно, невозможно.
Поэтому разговоры о контроле и безопасности ведутся уже сейчас. Что предлагается?
- Создание прозрачности (Объяснимый ИИ): Нам нужно разработать новые алгоритмы, которые изначально легче интерпретировать, или системы, способные резюмировать свою сложную логику. Европейский Союз, например, уже дал потребителям право требовать объяснения алгоритмических решений.
- Защитные механизмы: Нужны автоматические прерыватели, или «рыночные предохранители», которые отключат ИИ от внешнего мира в случае каскадных сбоев, похожих на крах 2010 года.
- Этика и ответственность: Мы должны перестать создавать ИИ, у которого нет стимулов, желаний, эмоций или личности, потому что это бессмысленно для технического продукта. Если мы не можем понять, как машина принимает решение, мы не можем возложить на нее ответственность. А кто должен отвечать за ошибку ИИ, если не его создатель?.
В конце концов, все упирается в одну простую вещь: что мы ценим больше головокружительный, но опасный прогресс, который мы не контролируем, или медленный, понятный путь, где мы остаемся хозяевами положения?
Разработка сверхразума это гонка, в которой «победитель получает все». Нам нужно решить, позволим ли мы рыночным стимулам диктовать нам, каким должно быть наше будущее, или проявим ту самую человеческую волю, которую машины не могут имитировать. Готовы ли мы принять, что самые важные решения за нас уже приняты кодом, который мы не удосужились прочитать? И если нет, то какой ценой мы вернем себе контроль?