Найти в Дзене
The Edinorog

Этика и искусственный интеллект. Могут ли машины творить зло?

Photo by FuYong Hua on Unsplash
Photo by FuYong Hua on Unsplash

На конференции Russian Tech Week целый отдельный день был посвящен искусственному интеллекту. Выступлений было много — и про промышленность, и про ритейл, и про big data. Но нашей маленькой редакции особенно понравилось выступление антивирусного эксперта Лаборатории Касперского Алексея Маланова про искусственный интеллект и этику. Мы сделали небольшой конспект.

Как объясняет Маланов, искусственный интеллект принято делить на два вида — слабый и сильный. В первом случае машина учится решать конкретную задачу на предоставленный ей примерах. Сильный искусственный интеллект предполагает, что система сможет мыслить и осознавать себя как отдельную личность. Сильного искусственного интеллекта пока нет. Исследователи из США и Европы считают, что он будет изобретен приблизительно через 74 года, исследователи из Азии — через 30 лет. «Возможно, они что-то знают или просто верят в высокую скорость прогресса», — говорит Маланов.

С развитием и применением искусственного интеллекта появляются этические вопросы, на которые пока нет ответа. Например, можем ли мы обидеть искусственный интеллект, если оставим его одного надолго или проявим к нему агрессию? Но есть и другая сторона: может ли искусственный интеллект обидеть нас? Такие вопросы вызывают одновременно и страх, и интерес.

Мы, люди, изначально можем попросить искусственный интеллект сделать что-то плохое. Например, есть Project Maven, в рамках которого Google помогал Министерству обороны США в разработке алгоритмов компьютерного зрения для анализа видеозаписей с дронов. Противники проекта из числа сотрудников Google придерживаются мнения, что проводить анализ видео с дронов должны люди, а не машины, поскольку одна мельчайшая ошибка может стоить человеческой жизни.

Даже если мы не просим искусственный интеллект выполнять «заведомо плохую» задачу, нельзя исключать фактор так называемой жадной предвзятости. Если создатель преследует единственную цель — увеличение прибыли, то не стоит удивляться потом, что система дает советы исключительно по платным услугам, игнорируя заложенный в нее посыл.

Иногда мы и сами не хотим делать высоко этичный продукт: те же беспилотные автомобили никто не будет программировать на максимальную скорость в 20 км/ч, хотя это явно уменьшило бы количество смертей на дорогах. Поэтому этика — это лишь один из параметров, который нужно закладывать в систему при ее создании. Кроме того, этика разная в разных странах, ее сложно формализовать. Она зависит от политического климата и от веяний времени, под которые тяжело подстроиться.

В Китае уже частичного начала работать «система социального рейтинга» (Social Credit Score или SCS). С помощью системы будет определен рейтинг всех жителей Китая (почти 1,3 млрд человек). Рейтинг будет находиться в открытом доступе. SCS будет определять позицию гражданина, отслеживая его социальное поведение: как он тратит деньги, регулярно ли оплачивает счета, как он взаимодействует с другими людьми. На этой публичной оценке и будет основано доверие к каждому отдельному человеку. От рейтинга гражданина будет зависеть, сможет ли он получить работу или кредит, а также, в какой детский сад пойдут его дети. Для граждан Китая такая система воспринимается нормально, но давайте попробуем представить, как бы на нее отреагировали жители Америки?

Искусственный интеллект влияет не людей. Например, он может советовать нам фильмы, которые соответствуют нашему вкусу. Но наш вкус из-за этого сужается, и мы перестаем воспринимать другую точку зрения. «Меньше вариативность — более узкие вкусы», — считает Маланов.

Важно сказать, что сами алгоритмы машинного обучения далеки от совершенства — сложно определять обратные связи. Известный пример: искусственный интеллект утверждает, что астматики с пневмонией умирают реже, чем астматики без пневмонии. Как система сделала такой вывод? Оказывается, с одной стороны и правда так. Но дело в том, что если пациент с астмой вдруг заболел пневмонией, то это считается крайне сложным случаем, поэтому таким больным помогают очень быстро, минимизируя шанс на летальный исход. При этом нельзя исключить непредвиденную ситуацию с человеком-астматиком, который во время сильного приступа остался дома один. Искусственный интеллект не видит такой тонкой связи, поэтому выдает неверное решение.

Неидеальное обучение искусственного интеллекта — это следствие неидеального мира. Есть еще один яркий пример того, что машина не видит связи между событиями, и итоговое решение не помогает изменить ситуацию. Искусственный интеллект определил, что в опасных районах Калифорнии развивается преступность. Решение: направить больше машин полиции в такие районы. Но чем больше полицейских машин появлялось в районе, тем больше люди сообщали о новых преступлениях. Замкнутый круг, в котором искусственный интеллект не может найти решение.

Пока не существует сильного искусственного интеллекта — человек умнее алгоритма. Но не стоит забывать, что слабый искусственный интеллект уже здесь.