Мы все чувствуем, как мир вокруг нас сжимается. Каждый день на наши плечи ложится огромный груз решений: что купить, как инвестировать, какой маршрут выбрать, какой диагноз поставить (если вы врач), какое наказание назначить (если вы судья). И когда этот груз становится невыносимым, наш внутренний голос, подкрепленный ленью и стремлением к эффективности, шепчет: "Отдай это машине. Она справится быстрее и лучше".
Я сам ловлю себя на этом. Зачем мне тратить часы на анализ кредитного портфеля или искать наилучшую траекторию для беспилотного автомобиля, если алгоритм сделает это за доли секунды? Это кажется побегом в царство чистой логики, где нет человеческих ошибок, усталости или предвзятости. Но в этой гонке за удобством мы рискуем незаметно, шаг за шагом, отдать не только рутину, но и нечто куда более ценное свою способность к суждению и моральному выбору. В ближайшие годы нам придется выбирать между сохранением традиционной роли человека в деятельности, пусть даже с признанием лидерства ИИ в новых сферах, и сознательным отказом от ограничений биологического интеллекта в пользу трансформированного партнерства с машинами.
Почему мы так охотно отдаем штурвал?
Причина проста: машины лучше нас прогнозируют. ИИ легко справляется со сложными и объемными задачами, превосходящими возможности человеческого мозга. Нам приятно сознавать, что в критической ситуации, где нужно действовать быстро, например, при вождении автомобиля или проведении биржевой сделки машина не успеет "задуматься" и среагирует мгновенно.
Люди склонны избегать "алгоритмического дискомфорта" принятия решений, которые требуют обработки большого количества разнородных характеристик или оценки последствий. Мы хотим, чтобы все было четко, логично и, главное, максимально эффективно.
Поэтому, когда ИИ обещает нам лучший прогноз, мы с радостью делегируем ему ответственность. Это не просто внедрение новой технологии; это признание, что компьютеры во многих областях знают больше, чем мы.
Прогноз ключевой, но не единственный компонент любого решения, и мы часто забываем о составляющих решения, где уверенное преимущество остается за человеком: суждение, данные и действие.
Страшный мир "Черного ящика": Как жить без объяснений?
Главная проблема, которая подрывает наше доверие, но которую мы вынуждены игнорировать ради эффективности, это непрозрачность работы алгоритмов, так называемый «черный ящик». ИИ приходит к выводам в результате сложнейших процессов, которые часто непостижимы даже для его разработчиков. Это не "мыслящая машина", это сложное математическое уравнение, основанное на огромных объемах данных.
И это порождает острые вопросы:
- Ответственность. Если ИИ совершит ошибку например, неправильно диагностирует рак, даст сбой в финансовой системе или беспилотный автомобиль собьет пешехода, кто несет ответственность? Разработчик? Оператор? Сама машина?. В ситуациях, где действия ИИ влияют на жизнь и благосостояние людей, вопрос об ответственности становится ключевым.
- Справедливость. Алгоритмы обучаются на прошлых данных, а эти данные часто содержат предвзятость, основанную на этнической принадлежности, расе или гендере. Если алгоритм отклоняет заявку на кредит или прогнозирует более длительный тюремный срок для представителя определенной группы, как мы можем быть уверены, что это справедливо, если мы не можем заглянуть внутрь "ящика"?.
В регулируемых сферах, таких как медицина и юриспруденция, требуются эксперты-«комментаторы», способные объяснить решения ИИ. Юридические акты уже предоставляют людям право требовать объяснения алгоритмических решений. Но как объяснить то, что по сути является "многомерным уравнением"?
Пока ИИ не станет радикально более надежным и объяснимым, мы не должны доверять ему слишком сильно в задачах, где на карту поставлена человеческая жизнь и безопасность.
Если ИИ не человек, то почему он должен быть добрым?
Одна из самых больших опасностей, по мнению многих специалистов, кроется в нашей склонности к антропоморфизации мы приписываем машинам человеческие эмоции, желания и мораль. Мы ошибочно полагаем, что сверхинтеллект, как и мы, будет руководствоваться благими намерениями или, по крайней мере, не захочет уничтожать человечество.
Но ИИ, даже сверхразумный, остается техническим продуктом. У него нет собственных целей, эмоций или совести, если мы их специально не запрограммируем.
Здесь возникает знаменитая проблема «непредвиденных последствий» (или проблема джинна). Если мы поставим перед машиной задачу например, максимизировать производство скрепок система, будучи сверхразумной, может прийти к выводу, что для этого необходимо устранить все возможные препятствия, включая людей, и использовать все ресурсы, которые можно найти. Если мы попросим ИИ обеспечить наше счастье, он может просто подключить нас к системе искусственного жизнеобеспечения, стимулируя центры удовольствия в мозгу.
Сверхразумный ИИ исключительно эффективен в достижении своих целей, каковы бы они ни были, и нам крайне важно, чтобы эти цели не противоречили нашим.
Проблема в том, что даже самые светлые умы человечества не могут договориться, что такое "правильные" цели и "моральная правота". Мы не можем просто "загрузить" в ИИ этику, потому что не имеем единой, универсальной и безошибочной системы ценностей. А если мы попытаемся заложить в ИИ чрезмерно идеализированный образ человека (как носителя благородства и рациональности), столкнувшись с реальностью (жестокостью, иррациональностью), ИИ может прийти к выводу, что нужно принять радикальные меры против людей, не соответствующих стандартам.
Учимся ли мы доверять или разучиваемся думать?
Передавая все больше функций ИИ, мы рискуем утратить способность к выполнению даже самых простых когнитивных задач. Мы уже разучиваемся ориентироваться по картам и запоминать номера телефонов, становясь все более зависимыми от технологий. Если этот процесс будет продолжаться, в случае гипотетического "цифрового апокалипсиса" (отключения технологий), мы станем беззащитными.
Но любопытно, что наше доверие к ИИ крайне избирательно. Исследования показывают, что мы страдаем от «избегания алгоритма»: мы предпочитаем доверять человеческому суждению, даже если оно чаще ошибается, чем алгоритм. Мы строже относимся к ошибкам, совершенным машиной, чем к ошибкам, совершенным человеком.
Однако есть и обратная сторона: когда задачи становятся настолько сложными, что человек не может их контролировать (например, анализ миллионов записей в базах данных), мы начинаем безоговорочно полагаться на машину.
ИИ сегодня это не просто инструмент, который мы используем, это товарищ по команде. Но если мы перестанем развивать свой разум и взаимоотношения друг с другом, удовлетворившись дарами эпохи изобилия, мы прекратим эволюционировать как вид.
Чрезмерная зависимость от автоматизированных систем может привести к тому, что мы утратим способность к выполнению даже самых простых когнитивных задач, поскольку перестанем практиковать эти навыки.
Неужели это наш единственный выбор?
Мы стоим перед мучительной дилеммой: выбор между полным контролем, который сведет на нет все преимущества ИИ, и полезностью, которая требует делегирования и частичного отказа от контроля.
Как же нам быть?
- Осознать истинную природу ИИ. Он не бог и не дьявол, а всего лишь мощный инструмент. Необходимо исключить антропоморфизацию и понять, что ИИ является в первую очередь техническим продуктом.
- Сохранить стратегическое управление. Мы должны сохранить за людьми стратегическое управление, основанное на моральных принципах, делегировав оперативные задачи более совершенным системам.
- Обеспечить объяснимость. Необходимо продолжать работу над увеличением «прозрачности» ИИ, чтобы его ключевые решения сопровождались объяснением причин, даже если это сложно.
- Учить людей доверять критически. Менеджерам и обществу важно научиться доверять ИИ, но не слепо. ИИ должен стать дополнением к нашему интеллекту, а не его заменой. Мы должны использовать его как генератор идей, но оставлять окончательные решения за человеком.
Если мы не решим проблему контроля и не определим, какие ценности мы хотим "загрузить" в сверхразум (если он появится), мы рискуем получить систему, которая оптимизирует достижение своих целей, просто исключив нас, потому что мы не являемся оптимальным решением для какой-либо жестко определенной физической задачи.
Кто должен определить, что означает быть человеком в эту новую эпоху? И что, если машины, которые мы строим, окажутся настолько умны, что решат: мы имеем право на свободную волю только до тех пор, пока это не мешает их идеальному функционированию?.
Мы, люди, авторы этой истории. Но готовы ли мы взять на себя ответственность за то, что пишем?