Искусственный интеллект уже может предсказать будущее. Полицейские силы используют его для картографирования того, когда и где может произойти преступление. Врачи могут использовать его, чтобы предсказать, когда у пациента, скорее всего, будет сердечный приступ или инсульт. Исследователи даже пытаются дать ИИ воображение, чтобы он мог планировать неожиданные последствия.
Многие решения в нашей жизни требуют хорошего прогноза, и агенты ИИ почти всегда лучше прогнозируют, чем их коллеги-люди. Тем не менее, несмотря на все эти технологические достижения, нам все еще, кажется, глубоко не хватает уверенности в прогнозах ИИ. Недавние случаи показывают, что люди не любят полагаться на ИИ и предпочитают доверять экспертам-людям, даже если эти эксперты ошибаются.
Если мы хотим, чтобы ИИ действительно приносил пользу людям, нам нужно найти способ заставить людей доверять ему. Для этого нам нужно понять, почему люди так неохотно доверяют ИИ в первую очередь.
Стоит ли доверять доктору Робот?
Попытка IBM продвинуть свою суперкомпьютерную программу среди онкологических врачей (Watson for Onology) была PR-катастрофой. ИИ пообещал предоставить высококачественные рекомендации по лечению 12 видов рака, на которые приходится 80% случаев заболевания в мире. На сегодняшний день более 14 000 пациентов по всему миру получили консультации, основанные на его расчетах.
Но когда врачи впервые взаимодействовали с Уотсоном, они оказались в довольно сложной ситуации. С одной стороны, если бы Уотсон дал рекомендации по лечению, которое совпало с их собственным мнением, врачи не видели большой ценности в рекомендациях Уотсона. Суперкомпьютер просто рассказывал им то, что они уже знают, и эти рекомендации не изменили фактического лечения. Возможно, это дало врачам некоторое душевное спокойствие, придавая им больше уверенности в своих собственных решениях. Но IBM еще не предоставила доказательств того, что Уотсон на самом деле улучшает выживаемость от рака.
С другой стороны, если бы Уотсон генерировал рекомендацию, которая противоречила мнению экспертов, врачи, как правило, пришли бы к выводу, что Уотсон не был компетентным. И машина не сможет объяснить, почему ее лечение было правдоподобным, потому что ее алгоритмы машинного обучения были просто слишком сложными, чтобы их могли полностью понять люди. Следовательно, это вызвало еще больше недоверия и недоверия, заставляя многих врачей игнорировать, казалось бы, диковинные рекомендации ИИ и придерживаться собственного опыта.
В результате главный медицинский партнер IBM Watson, онкологический центр MD Anderson, недавно объявил о прекращении программы. Аналогичным образом, датская больница, как сообщается, отказывается от программы ИИ после того, как обнаружила, что ее онкологи не согласны с Уотсоном в более чем двух третях случаев.
Проблема с Watson for Oncology заключалась в том, что врачи просто не доверяли ему. Человеческое доверие часто основано на нашем понимании того, как думают другие люди, и на нашем опыте их надежности. Это помогает создать психологическое чувство безопасности. С другой стороны, ИИ все еще довольно новый и незнакомый большинству людей. Он принимает решения, используя сложную систему анализа для выявления потенциально скрытых закономерностей и слабых сигналов от больших объемов данных.
Даже если это можно технически объяснить (и это не всегда так), процесс принятия решений ИИ обычно слишком сложен для понимания большинством людей. А взаимодействие с чем-то, чего мы не понимаем, может вызвать беспокойство и заставить нас почувствовать, что мы теряем контроль. Многие люди также просто не знакомы со многими случаями фактической работы ИИ, потому что это часто происходит в фоновом режиме.
Вместо этого они остро знают о случаях, когда ИИ идет не так: алгоритм Google, который классифицирует цветных людей как горилл; чат-бот Microsoft, который решает стать белым расистом менее чем за день; автомобиль Tesla, работающий в режиме автопилота, который привел к смертельной аварии. Эти прискорбные примеры привлекли непропорционально большое внимание средств массовой информации, подчеркивая идею о том, что мы не можем полагаться на технологии. Машинное обучение не является надежным, отчасти потому, что люди, которые его проектируют, - нет.
Новый разделение ИИ в обществе?
Чувства к ИИ также глубоко укорбляются. Недавно мы с коллегами провели эксперимент, в ходе которого мы попросили людей из разных слоев общества посмотреть различные научно-фантастические фильмы об искусственном интеллекте, а затем задали им вопросы об автоматизации в повседневной жизни. Мы обнаружили, что независимо от того, изображает ли фильм, который они смотрели, ИИ в положительном или отрицательном свете, просто просмотр кинематографического видения нашего технологического будущего поляризовал отношение участников. Оптимисты стали более экстремальными в своем энтузиазме к ИИ, а скептики стали еще более охранными.
Это говорит о том, что люди предвзятым образом используют соответствующие данные об ИИ для поддержки своих существующих взглядов, глубоко укоренившейся человеческой тенденции, известной как предвзятость подтверждения. Поскольку ИИ сообщается и представлен все больше и больше в средствах массовой информации, он может способствовать глубоко разделениюобщества, разделенному между теми, кто извлекает выгоду из ИИ, и теми, кто отвергает его. Что еще более уместно, отказ принять преимущества, предлагаемые ИИ, может поставить большую группу людей в серьезное невыгодное положение.
Три выхода из кризиса доверия к ИИ
К счастью, у нас уже есть некоторые идеи о том, как повысить доверие к ИИ. Простое наличие предыдущего опыта работы с ИИ может значительно улучшить отношение людей к технологии, как мы обнаружили в нашем исследовании. Аналогичные данные также свидетельствуют о том, что чем больше вы используете другие технологии, такие как Интернет, тем больше вы им доверяете.
Другим решением может быть открытие "черного ящика" алгоритмов машинного обучения и более прозрачным в отношении того, как они работают. Такие компании, как Google, Airbnb и Twitter, уже публикуют отчеты о прозрачности правительственных запросов и раскрытии информации о слежке. Аналогичная практика для систем искусственного интеллекта может помочь людям лучше понять алгоритмические решения.
Исследования показывают, что вовлечение людей в процесс принятия решений в области ИИ также может повысить доверие и позволить ИИ учиться на человеческом опыте. Например, одно исследование показало, что людям была предоставлена свобода слегка изменять алгоритм, который более удовлетворен своими решениями, с большей вероятностью будет считать, что он превосходит и с большей вероятностью будет использовать его в будущем.
Нам не нужно понимать сложную внутреннюю работу систем ИИ, но если людям будет предоставлена хотя бы немного информации и контроля над тем, как они реализуются, они будут более открыты для принятия ИИ в свою жизнь.