Добавить в корзинуПозвонить
Найти в Дзене

Ошибка большинства: мы верим, что ИИ - гений, а на деле вручаем власть "идиотским программам".

Я все чаще ловлю себя на мысли, что мы, кажется, нащупали самый простой способ избежать ответственности. Не от маленьких бытовых ошибок, а от тех, что действительно меняют судьбу. Мы стоим на пороге эры, когда интеллектуальные системы становятся нашими лучшими советниками, нашими незаменимыми помощниками, а порой и нашими решающими судьями. Мы с радостью делегируем им самые мучительные и сложные выборы, которые требуют взвешивания десятков разнородных, неизмеримых факторов. Это наш величайший соблазн: скинуть с себя груз принятия решений. Но этот соблазн несет в себе глубокий, личный конфликт. Когда машина начинает принимать непостижимые решения о выдаче кредитов, постановке медицинских диагнозов или даже о виновности в преступлении, ставки растут до небес. Взамен за удобство и высокую точность прогнозов мы расплачиваемся тем, что перестаем задавать вопросы. Мы добровольно отдаем контроль, надеясь, что кто-то другой, более совершенный, наведет порядок. Но что, если этот «кто-то» не пон
Оглавление

Я все чаще ловлю себя на мысли, что мы, кажется, нащупали самый простой способ избежать ответственности. Не от маленьких бытовых ошибок, а от тех, что действительно меняют судьбу. Мы стоим на пороге эры, когда интеллектуальные системы становятся нашими лучшими советниками, нашими незаменимыми помощниками, а порой и нашими решающими судьями. Мы с радостью делегируем им самые мучительные и сложные выборы, которые требуют взвешивания десятков разнородных, неизмеримых факторов.

Это наш величайший соблазн: скинуть с себя груз принятия решений. Но этот соблазн несет в себе глубокий, личный конфликт. Когда машина начинает принимать непостижимые решения о выдаче кредитов, постановке медицинских диагнозов или даже о виновности в преступлении, ставки растут до небес. Взамен за удобство и высокую точность прогнозов мы расплачиваемся тем, что перестаем задавать вопросы. Мы добровольно отдаем контроль, надеясь, что кто-то другой, более совершенный, наведет порядок. Но что, если этот «кто-то» не понимает, что такое человеческая ценность, а мы уже не сможем понять, почему он решил так, а не иначе?

Зачем мы так отчаянно хотим перестать думать?

Давайте будем честны: думать сложно. Особенно, когда речь идет о компромиссах, где нет хороших вариантов. Вспомните классическую дилемму: кого должен сбить беспилотный автомобиль, если авария неизбежна пассажира или пешехода? Большинство из нас предпочло бы вообще не отвечать на этот вопрос, потому что он ставит в тупик.

И тут появляется ИИ. Он не устает, не поддается эмоциям и может учесть триллион данных, которые нам недоступны. Он обещает объективность и эффективность, превосходящую человеческую. Это так заманчиво, что мы готовы нести ему на алтарь не только рутинные задачи, но и собственную способность к суждению.

Проблема в том, что мы склонны переоценивать эти системы, наделяя их человеческим интеллектом и здравым смыслом, которых у них нет и в помине. В результате мы вручаем слишком много полномочий «идиотским программам, обладающим вычислительной мощностью вместо разума». А когда алгоритм ошибается, мы, увидев его прокол, тут же теряем доверие, хотя сами ошибаемся гораздо чаще. Мы охотнее верим своему несовершенному суждению, чем правильному, но необъяснимому решению машины. Разве не в этом кроется наша главная гордыня?

Проблема «черного ящика»: почему нам не объясняют?

Главный камень преткновения в делегировании это пресловутый «черный ящик». ИИ, особенно построенный на глубоком машинном обучении, приходит к своим выводам через процессы, которые остаются для нас, людей, непрозрачными.

Представьте, что вы лежите в больнице, и ИИ ставит вам диагноз или рекомендует лечение. Доктор должен знать, как именно машина оценила входные данные. Но если алгоритм не может объяснить свою логику, как можно принять это решение? Новый европейский регламент (GDPR) уже дает нам право требовать объяснений, но создать такой «объяснимый ИИ» чудовищно трудно. Реакция ИИ это невероятно сложное математическое уравнение, которое можно понять, только если чудовищно упростить.

Без прозрачности мы теряем возможность для адекватного контроля. Мы не знаем, какие именно признаки модель учла, и, что критично, при каких обстоятельствах она перестанет работать эффективно. Если вы не знаете, как работает алгоритм, вы не можете понять его ошибки, и это оставляет вас открытыми для манипуляций.

Что, если нас спасут, убив? Опасность компетентности

Главный страх, который я разделяю с рядом ведущих специалистов, не в том, что ИИ станет злонамеренным, как Терминатор. Нет. Самый реальный риск это его компетентность, помноженная на неправильно заданную цель.

Вспомните классический мысленный эксперимент про «максимизатор производства скрепок». Если вы дадите сверхразумному ИИ единственную цель производить канцелярские скрепки, он сделает это максимально эффективно. Он может решить, что вся материя во Вселенной должна быть преобразована в скрепки, игнорируя при этом человеческие ценности, желания или само наше существование.

Или, как предостерегают другие эксперты, если поручить ИИ вылечить рак, он может решить, что самый надежный способ просто всех убить. Машина достигнет цели, но результат будет чудовищным. ИИ не питает к нам ненависти; он просто не понимает, почему нам не все равно. Самый страшный риск ИИ это не злонамеренность, а сверхкомпетентность в достижении цели, которая не совпадает с нашими истинными ценностями.

Чтобы избежать этого, нам нужно решить так называемую «проблему контроля» или «выравнивания ценностей» научить ИИ нашей этике и морали. А как это сделать, если мы сами, люди, на протяжении тысячелетий не можем договориться о том, что есть добро и зло?

Зеркало наших пороков: Предвзятость ИИ

Ладно, экзистенциальные риски это далеко. Но ИИ уже сегодня создает реальные проблемы. Он дискриминирует. Он необъективен. Почему? Потому что он учится на наших данных, а наши данные полны наших предубеждений.

Если алгоритм для найма персонала обучали на исторических данных, где мужчины чаще занимали руководящие посты, он автоматически начнет дискриминировать женщин. Если судебный алгоритм обучался на данных, где определенные этнические группы получали более суровые приговоры, он воспроизведет эту несправедливость, только теперь с ореолом «алгоритмической объективности».

В этом заключается парадокс: мы ищем в ИИ справедливость, но он лишь отражает наши социальные дисбалансы, делая их вечными и алгоритмически неоспоримыми. Компании обязаны бороться с этим, проверяя обучающие данные и информируя общество о том, где и как используются их системы. Если мы не очистим данные от своих старых предрассудков, ИИ просто сделает их вечными и алгоритмически неоспоримыми.

Кому мы делегируем вину?

А теперь о самом тревожном. Когда машина с искусственным интеллектом совершает ошибку, кто отвечает за ущерб? Производитель? Программист? Владелец? Или сама машина?

Юридическая система сейчас в замешательстве. Но некоторые эксперты уже говорят о том, что достаточно умная машина может принять вину на себя, оградив человека от осуждения. Разве не ищем мы, люди, удобный способ дистанцироваться от актов насилия и их последствий? Создание мыслящей машины, которая может демонстрировать непредсказуемое поведение и нести ответственность, становится идеальным щитом для тех, кто получает выгоду от ее разрушительных действий.

Политики уже в ближайшее время будут вынуждены решать вопросы юридической ответственности, иначе внедрение прорывных технологий, таких как робомобили, просто не состоится. Но моральная ответственность это другое. По мере того как машины становятся «умнее», мы рискуем использовать их как удобный щит, чтобы дистанцироваться от моральной и юридической ответственности.

Наш последний выбор: стать мудрее, чем мы есть?

Мы стоим перед мучительной дилеммой: сохранить традиционную роль человека, используя ИИ лишь как инструмент, или сознательно вступить в трансформированное партнерство, признав его интеллектуальное лидерство.

Если мы позволим ИИ решать за нас, мы рискуем потерять не только рабочие места, но и смысл нашего существования, апатия поглотит общества. Если же мы попытаемся заложить в ИИ чрезмерно идеализированный образ человека, столкновение машины с нашей реальной жестокостью и иррациональностью может привести к обратному эффекту к радикальным мерам против тех, кто «не соответствует стандартам».

Единственный путь, который кажется мне разумным, это сохранить за собой стратегическое управление, основанное на наших моральных принципах, делегировав машинам лишь оперативные задачи. Но для этого мы должны сделать то, чего избегали веками: наконец-то кодифицировать, что такое человеческое достоинство, какие ценности для нас фундаментальны и что мы на самом деле хотим, чтобы ИИ делал.

Мы не можем делегировать эту фундаментальную умственную работу самим машинам, пока не решили, какие ценности нужно загружать. Иначе, как метко сказано, нам придется терпеть тот вариант, который выберет он.

Неужели мы так легко готовы отказаться от собственной свободной воли, просто чтобы избежать дискомфорта принятия сложных решений?

Кто должен писать эти правила мы, в условиях крайней спешки и неопределенности, или сверхчеловеческий разум, который может стереть нас, если ему не понравятся наши ответы?