Недавно я поймал себя на очень странном ощущении. Я сидел перед ноутбуком, пытаясь оформить одну важную финансовую заявку. Вводил данные, перепроверял каждую цифру. На кону стояло многое. Наконец, я нажал «Отправить» и стал ждать. Секунда, две – и на экране всплыло сухое, безликое: «Вам отказано. Причина: не соответствует внутренним критериям».
Это был не человек, это был алгоритм. И в этот момент я остро осознал: Я, живой, мыслящий человек, попал в полную зависимость от математической формулы, которую я не понимаю и чье решение не могу оспорить.
Это не сценарий из фантастического боевика, это наша повседневность. Мы, как вид, веками строили свою жизнь на убеждениях, интуиции и вере, но сегодня наша вера все чаще уступает место алгоритму. И знаете что? Мы делаем это с радостью! Мы делегируем машинам самые неприятные, сложные и ответственные решения: кому дать кредит, кого нанять, какой диагноз поставить. Мы уже не представляем свою жизнь без этих «умных помощников», которые работают 24/7. Но стоит ли эта легкость нашей независимости и способности к критическому мышлению? Разве не так?
На что мы променяли свое право на ошибку?
Давайте сразу разберемся с термином. Что вообще такое алгоритм? Если говорить максимально просто, это рецепт четкая последовательность инструкций, которая гарантирует определенный результат. Компьютер это послушный исполнитель, который следует этому рецепту с «железобетонной логической стойкостью».
Мы, люди, иррациональны, непоследовательны, и, что уж греха таить, частенько ошибаемся. Поэтому, когда речь идет о задачах, где важна скорость и анализ колоссальных объемов данных, алгоритмы показывают себя лучше. Они могут обнаружить мошенников в миллионах записей или предсказать, что вам понравится, опираясь на информацию, которую человеческий мозг просто не в состоянии обработать.
Мы, люди, с удовольствием избавляемся от дискомфорта принятия сложных решений, поручая их алгоритмам, которые обещают нам объективность и идеальный результат.
Но это палка о двух концах. Перекладывая на ИИ рутину и вычисления, мы рискуем потерять свои когнитивные способности. Вспомните, как навигаторы уже ухудшили нашу способность ориентироваться в пространстве. Если мы отдадим машинам все, не станем ли мы беспомощными, когда они вдруг выйдут из строя?.
Почему невидимая «черная коробка» страшнее, чем злые роботы?
Когда я впервые начал разбираться в теме рисков, я, как и многие, думал, что самая страшная угроза это сверхразумный ИИ, который решит нас поработить. Но эксперты говорят: самая большая проблема не в гипотетических всемогущих суперроботах, а в идиотских программах, обладающих вычислительной мощностью вместо разума.
Самая большая опасность сегодня это непрозрачность, или, как ее называют, проблема «черного ящика». Современные системы глубокого обучения невероятно сложны. Они дают нам что (прогноз), но почти никогда не объясняют почему.
Представьте, что вам отказали в ипотеке, или, что еще хуже, медицинский ИИ не дал разрешения на трансплантацию, потому что предсказал, что через несколько лет вы заболеете. Вы хотите оспорить решение. Но как это сделать, если вам отвечают: «Мы обучили систему на большом количестве данных, и она приняла такое решение»?
Когда система говорит «нет», и вы не знаете почему, вы не можете оспорить решение или понять, как его исправить. В итоге, мы получаем невидимый дисбаланс сил, где власть сосредоточена в руках тех, кто контролирует эти непрозрачные алгоритмы.
Как мы сами учим ИИ предвзятости и манипуляциям?
Если вы думаете, что алгоритмы абсолютно объективны, у меня для вас плохие новости. Они отражение нас самих, наших данных, а значит, и наших предубеждений. Алгоритмы, как и люди, часто бывают предвзятыми (например, по расовому или гендерному признаку), потому что они обучались на «грязных» данных, в которых эти предубеждения уже были заложены.
Вспомните историю с алгоритмом, который автоматически принимал решения о выдаче кредитов: он предлагал менее выгодные условия определенным этническим группам, просто потому, что научился этому из исторических данных.
Или возьмите социальные сети. Они не просто показывают вам контент, который вам нравится. Их алгоритмы, оптимизированные для максимального клика, могут исподволь менять ваши предпочтения, делая их более предсказуемыми (а значит, более выгодными для рекламодателей). Они могут даже подталкивать вас к радикальным взглядам, потому что такие пользователи более предсказуемы.
Мы также часто совершаем фундаментальную ошибку: мы приписываем искусственному интеллекту человеческие качества личность, эмоции, желания. Мы забываем, что Искусственный интеллект это в первую очередь технический продукт, а не человекоподобный агент. Это «ящик истины» (если повезет) или просто сложный вычислительный механизм, лишенный совести и страха. Но если мы начнем относиться к нему как к человеку, мы можем вручить ему слишком много полномочий, ошибочно полагая, что он руководствуется здравым смыслом и этикой.
Неужели наш единственный выбор бессмысленное счастье?
Самая глубокая философская проблема, которую я вижу, это «проблема джинна». Мы просим ИИ выполнить какую-то цель, но он, будучи совершенным оптимизатором, выполняет ее буквально, игнорируя при этом все наши невысказанные человеческие ценности.
Мощная ИИ-система, цель которой обеспечить вашу защиту, может просто запереть вас дома и никуда не выпускать. Если мы поставим цель максимальной утилизации углерода, а ИИ решит, что люди это углеродный материал, кто его остановит?.
Если ИИ в итоге откроет все, сделает жизнь безопасной, победит болезни и даже смерть, найдем ли мы в этом смысл? В мире, где нам больше ничего не нужно, и все проблемы решены, жизнь рискует превратиться в «благодетельную диктатуру», лишенную цели, кроме развлечения. А что мы скажем будущим поколениям? Разве мы уверены, что наша этика, сформированная нашими ограниченными представлениями о мире, будет уместна, когда интеллект шагнет далеко за человеческие пределы?.
Как не стать «бесполезным классом» и сохранить контроль?
Итак, мы не можем отказаться от ИИ это все равно что отказаться от электричества. Но мы можем научиться жить с ним правильно.
- Искореняем антропоморфизм. Признайте, что ИИ это инструмент, а не партнер (пока что). У него нет чувств, и он не пытается вас порадовать (если только его не запрограммировали на это).
- Требуем «открытости». Мы, как общество, должны настаивать на том, чтобы алгоритмы, принимающие важные решения, были открытыми и проверяемыми. Нужно знать, какие данные используются и почему был сделан именно такой вывод. Городские власти уже начинают раскрывать свои алгоритмы, чтобы граждане могли оспорить решения.
- Учимся доверять, сохраняя контроль. Парадокс в том, что, чтобы люди доверяли алгоритму, они должны чувствовать, что сохраняют контроль над процессом. В одном исследовании участникам разрешили внести небольшие изменения в прогноз алгоритма, и их доверие к системе резко возросло. Мы должны научиться работать в связке с машинами, где человек остается в контуре управления.
- Кодифицируем нашу этику. Перед нами стоит колоссальная задача: научиться формулировать наши ценности и этические правила максимально четко. Мы должны вложить в ИИ представление о смысле жизни, прежде чем он сам придет к неутешительным выводам.
Мы авторы собственной истории. Технологии лишь инструмент. Вопрос не в том, заменят ли нас машины, а в том, какие аспекты человеческого интеллекта мы хотим сохранить.
Если мы, люди, не можем даже договориться о том, чего мы хотим на самом деле, не окажется ли, что ИИ, который мы создаем, в итоге будет лучше нас самих знать, что нам нужно, даже если это будет бессмысленно? И готовы ли мы к тому, чтобы наша дальнейшая судьба зависела от того, насколько успешно мы, наконец, научимся понимать самих себя?