Мы находимся в беспрецедентной точке в истории человечества, где машины с искусственным интеллектом могут вскоре принимать решения, которые затрагивают многие аспекты нашей жизни. Но что, если мы не знаем, как они достигли своих решений? Это имеет значение?
Представьте, что вам отказали в медицинской страховке, но когда вы спрашиваете, почему компания просто обвиняет свой алгоритм оценки риска.
Или, если Вы подали заявку на ипотеку и Вам отказывают, но банк не может точно сказать, почему.
Или, что более серьезно, если полиция начнет арестовывать людей по подозрению в планировании преступления исключительно на основе предсказательной модели, предоставленной суперкомпьютером.
Это некоторые из тех сценариев, которые беспокоят техническую индустрию, поскольку искусственный интеллект (ИИ) неумолимо продвигается вперед, проникая во все больше и больше аспектов нашей жизни.
ИИ экспериментируют в большинстве секторов, включая медицинские исследования и диагностику, автомобили без водителя, национальный надзор, военную ориентацию противников и уголовные наказания.
Недавний отчет консультанта PwC прогнозирует, что к 2030 году ИИ может повысить глобальную экономику.
Но какой ценой? Эти программные алгоритмы становятся настолько сложными, что даже их создатели не всегда понимают, как они придумали ответы, которые они выдали.
Появление нейронных сетей, предназначенных для имитации того, как думает человеческий мозг, связано с большим количеством взаимосвязанных процессоров, которые могут обрабатывать огромное количество данных, спотовые шаблоны среди миллионов переменных, используя машинное обучение, и в решающей степени адаптироваться.
Это позволяет получить удивительную информацию, от лучших прогнозов погоды до более точной идентификации рака.
Но Родри Дэвис, руководитель отдела политики и программы Фонда благотворительных фондов, говорит: «Если эти системы используются для таких вещей, как голосование или доступ к государственным услугам, которые мы начинаем видеть, то это обычно проблематично».
Дэвид Стерн, менеджер по количественным исследованиям в G-Research, техническая фирма, использующая машинное обучение для прогнозирования цен на финансовых рынках, предупреждает, что «самый быстрый прогресс в исследованиях ИИ в последние годы связан с все более ориентированным на данные методом черных ящиков.
«В популярных в настоящее время методах подходов нейронной сети это процедура обучения определения настроек миллионов внутренних параметров, которые взаимодействуют сложными способами их очень трудно перепроектировать и объяснить».
Еще одной тенденцией в робототехнике является «глубокое обучение усилению», при котором «разработчик просто определяет поведенческие цели системы и автоматически узнает, взаимодействуя непосредственно с окружающей средой», - говорит он.
«Это приводит к системе, которую еще труднее понять».
Поэтому индустрия исследует способы, которыми алгоритмы всегда могут быть поняты и оставаться под контролем человека. Например, оборонное агентство США Darpa запускает проект Explainable AI, а OpenAI, некоммерческая исследовательская компания, работает над тем, чтобы «найти и привести к безопасному общему искусственному интеллекту».
Это звучит разумно, но одно из преимуществ ИИ состоит в том, что он может делать то, чего не может сделать человек. Что, если мы в конечном итоге станем менее эффективными?
Адриан Уэллер, программный директор AI в Институте Алана Тьюринга, предполагает, что необходимость понять, как машина достигает своих решений, будет зависеть от того, насколько важны эти решения. И другие соображения могут быть более важными, чем объяснимость.
«Если бы мы были уверены, что система работает надежно, без какой-либо дискриминации и безопасно - иногда эти проблемы могут быть важнее, чем мы можем точно понять, как она работает», - говорит он.
Когда речь идет о машинах без водителя или медицинском диагнозе, например, наличие более точной машины и спасение большего количества жизней может быть более важным, чем понимание того, как это работает, говорит он.
«Для медицинского диагноза, если система на 95% точна в среднем, это звучит хорошо - хотя все же я хотел бы знать, насколько это точно для меня лично, и интерпретация может помочь понять это.
«Но если бы у нас был другой способ быть уверенным в том, что это действительно точно для меня, тогда я мог бы меньше беспокоиться о толковании».
С другой стороны, если ИИ используется в уголовном наказании, чтобы определить, как долго люди заперты, важно понять процесс принятия решений, утверждает он.
«Если алгоритм рекомендовал, чтобы я был заключен в тюрьму на шесть лет, я бы хотел получить объяснение, которое позволило бы мне узнать, соответствовал ли он соответствующему процессу, и позволить осмысленную способность бросить вызов алгоритму, если я не соглашусь», - говорит доктор Уэллер.
«Я согласен с рекомендациями, что мы должны требовать, чтобы компании понимали, когда алгоритм что-то делает, особенно когда мы могли бы ожидать, что это человек», - добавляет он.
Без этих гарантий существует риск, что люди могут быть подвергнуты дискриминации, не понимая почему и становясь «крайне маргинализованными».
И если многие из нас даже не знают, что алгоритм ИИ был за решением, которое повлияло на нас, оно противоречит установленным принципам в законодательстве, утверждает Марк Деем, партнер юридической фирмы Кули.
«Если кто-то думает о теории контракта, обещания, как вы можете обещать определенный результат на основе машинного обучения, если вы действительно не знаете точно, что должно быть создано алгоритмом черного ящика?»
Для решения проблемы транспарентности в законодательстве Европейского союза по ВВП [Общие правила защиты данных] было введено право знать, был ли применен автоматизированный процесс для принятия решения.
«Концепция автоматизированного принятия решений в ВВП заключается в том, что вы не должны принимать решение, которое влияет на основные права субъекта данных, основанного исключительно на автоматическом принятии решений», - объясняет г-н Деем.
У нас есть право на какое-то человеческое объяснение и надзор. Но что, если компании не смогут это объяснить? Это серая зона, которую нужно будет проверять в судах.
Так мы будем рады работать вместе с супер-интеллектуальными машинами, которые будут принимать полезные решения, которые мы, возможно, не сможем понять, или это сделает нас рабами автоматизации за счет наших прав и свободы как людей?
«Мы достаточно комфортно сидим в алюминиевой трубке толщиной 1 мм, пробираясь сквозь воздух на высоте 30 000 футов, с очень ограниченным пониманием того, как она работает, заверил статистику безопасности и регулирование», - утверждает Дэвид Стерн из G-Research.
«Я уверен, что до тех пор, пока существует аналогичный надзор и имеются достаточные доказательства безопасности, мы привыкнем сидеть в машине, управляемой машиной, или доверять компьютерному диагнозу наших медицинских результатов», - заключает он.
Скажу от себя. У пока у нас нет уверенности и согласия в данном вопросе.
Не забывайте следить за новостями канала. Подписывайтесь и вы всегда будете в курсе новостей. Если у Вас есть какие-то пожелания то пишите на почту killerbous@yandex.ru Я рассмотрю Ваши интересы и обязательно напишу статью на Вашу тему.
Спасибо за внимание! С уважением Кирилл Д.