Найти тему
Идеономика

Компьютер-судья: почему на самом деле нужно опасаться ИИ

Руководитель направления, занимающегося развитием искусственного интеллекта Google, не боится супер-интеллектуальных роботов-убийц. Джон Джаннандреа обеспокоен опасностью, которая может скрываться внутри алгоритмов машинного обучения, используемых для принятия миллионов решений каждую минуту.

"Реальная проблема безопасности заключается в том, что если мы дадим этим системам необъективные данные, они станут предвзятыми", - сказал Джаннандреа накануне недавней конференции Google, посвященной взаимоотношениям между людьми и системами ИИ.

Проблема предвзятости машинного обучения может стать более значимой, поскольку технологии начинают применяться в таких важных областях, как медицина и право, и все больше людей, не обладающих глубокими техническими знаниями, должны их применять. Некоторые эксперты предупреждают, что предвзятость алгоритмов уже широко распространена во многих отраслях, и что почти никто не пытается ее идентифицировать или исправить.

"Важно соблюдать прозрачность в отношении данных, которые мы используем для обучения, и искать в них скрытые предубеждения, иначе мы будем создавать предвзятые системы, - добавляет Джаннандреа. - Если кто-то пытается продать вам черный ящик для принятия медицинских решений, и вы не знаете, как он работает и какие данные были использованы для обучения, то я бы не стал ему доверять".

Модели машинного обучения в виде непонятного прибора уже оказывают серьезное влияние на жизнь некоторых людей. Система под названием COMPAS, созданная компанией Northpointe, якобы может предсказывать вероятность повторного совершения преступления осужденными и используется некоторыми судьями, чтобы решить, предоставлять ли заключенному условно-досрочное освобождение. Принцип работы COMPAS хранится в секрете, но исследование, проведенное ProPublica, показало, что модель может быть предвзятой против меньшинств.

Однако публикация сведений о данных или используемом алгоритме не решит проблему. Многие самые мощные новые методы машинного обучения настолько сложны и непрозрачны, что не поддаются пониманию даже при тщательном изучении. Поэтому исследователи ищут способы, как эти системы могли бы предоставлять инженерам и конечным пользователям упрощенное объяснение их внутреннего механизма.

У Джаннандреа есть веские основания говорить о потенциальной склонности ИИ к предвзятости. Google входит в число нескольких крупных компаний, рекламирующих возможности ИИ своих облачных вычислительных платформ для всех видов бизнеса. Эти облачные системы машинного обучения намного проще в использовании, чем базовые алгоритмы. Это поможет сделать технологию более доступной, но также более уязвимой для возникновения предубеждений. Важно будет предлагать учебные пособия и инструменты, чтобы помогать менее опытным ученым и инженерам данных определять и устранять предвзятость из данных для обучения.

Ряд спикеров, приглашенных на конференцию, организованную Google, также подчеркнули проблему предвзятости. Исследователь Google Майя Гупта рассказала о своих усилиях по созданию более прозрачных алгоритмов в составе команды, известной как GlassBox. А профессор Университета Иллинойса Карри Карахалиос представил исследования, в которых подчеркивалось, насколько сложно определить предвзятость даже в самых обычных алгоритмах. Карахалиос продемонстрировал, что пользователи обычно не понимают, как Facebook фильтрует сообщения, показываемые в ленте новостей. Это кажется безобидным, но это точная иллюстрация того, насколько сложно понять детали работы алгоритма.

Алгоритм ленты Facebook может, безусловно, определять общественное восприятие социальных взаимодействий и крупных событий. Другие алгоритмы, возможно, уже незаметно искажают виды медицинской помощи, которые получает человек, или отношение к нему в системе уголовного правосудия. Это намного важнее, чем роботы-убийцы, по крайней мере на данный момент.

В последние годы Джаннандреа был голосом разума среди более фантастических опасений в отношении ИИ. В СМИ широко освещалось, например, высказывание Илона Маска, который заявил, что ИИ представляет собой большую угрозу, чем Северная Корея, и может привести к третьей мировой войне.

"Я не согласен с предположением о том, что мы перейдем к какой-то сверхинтеллектуальной системе, которая превзойдет человека, - говорит Джаннандреа. - Я понимаю, почему люди обеспокоены этим вопросом, но думаю, что ему уделяется слишком много внимания. Я просто не вижу технологического основания, почему это было бы неизбежно".

Оригинал