Нет…. но все вопросы, поднятые ИИ, должны быть рассмотрены
Появление технологии искусственного интеллекта порождает всевозможные неожиданные трудности, о которых нужно подумать европейским политикам - от практического, например, как преподавать этику молодым инженерам, до более причудливого, например, как обращаться с влюбленным роботом.
Это было одним из последствий ИИ, обсуждавшихся на конференциях по социальным и гуманитарным наукам.
Участники уже отметили, что правительства вкладывают миллиарды в компьютерные исследования ИИ.
В этом году Европейская комиссия объявила о выделении 2,5 миллиардов евро на финансирование новых исследований в области искусственного интеллекта, присоединившись к Франции, Германии, США, Китаю, Японии и другим странам в гонке за исследованиями и разработками, чтобы первыми освоить новые технологии. Но, несмотря на эти большие бюджеты, некоторые участники конференции задались вопросом, достаточно ли инженеров ИИ думают о социальных аспектах.
Например, один из участников аудитории, Марике Шутс из Тилбургского университета в Нидерландах, поднял поразительный вопрос о том, могут ли роботы влюбиться в людей.
Они не могут… потому что они совершенно не знают контекста. Роботы могут быть очень умными, когда имеешь дело с «маленькими» проблемами, такими как вождение автомобиля в западном городе с хорошо соблюдаемыми правилами дорожного движения, но менее подходят для вождения в таких местах, как Индия, где зрительный контакт с другими автомобилистами, возможно, важнее, чем кодекс шоссе.
Есть чувство, что разговоры слишком сфокусированы на искусственном интеллекте «как технологической возможности».
А ведь вопрос «может ли робот влюбиться в нас?» является символом вопросов, которые необходимо поднимать при обсуждении ИИ. Вопрос не так прост, как кажется: он связан с тем, что философы называют «трудной проблемой» сознания - выяснить, как возникает сознание и как его идентифицировать объективно.
Обучение этике ИИ
Еще одна сложная проблема - как учить этике. Харальд Лейтенмюллер, технический директор Microsoft Австрия, пожаловался на то, что ему пришлось поехать в США, чтобы пройти курс этики искусственного интеллекта.
В Европе много курсов по этике, но не нашлось ни одного курса по искусственному интеллекту и этике. По его словам, курс в США был интересным, но основан на американском праве: «Мне было трудно его перевести в европейскую систему», - сказал он.
Действительно, кажется, что существует высокий спрос со стороны студентов. Катя Майер, которая преподает совместные курсы по политологии и информатике в Техническом университете Мюнхена, сказала, что курс бакалавриата, посвященный вопросам искусственного интеллекта и этики, имеет всего 30 мест в семестр, но получает 250 заявок.
Несмотря на то, что курс был переподписан, Майер, тем не менее, утверждал, что «у студентов нет стимулов для прохождения этих курсов. Они получат свои очки за это, но это не входит в обычную учебную программу, и это в большинстве случаев.
Инженеры считают этику трудной
Недостаток соответствующих курсов - не единственная проблема. «Технику трудно начать с этики. Мне потребовалось довольно много времени, чтобы понять это», - сказал Лейтенмюллер из Microsoft. «Это очень тяжело, потому что из школы, из университета - я изучал электронную технику - у меня не было часа обучения в этом вопросе (этика)».
Другой член аудитории, Matthias Reiter-Pázmándy из министерства образования Австрии, утверждал, что молодые инженеры конечно, движимы своим любопытством и стремлением решать технологические проблемы.
Если вы пришли с этическими проблемами, они не так заинтересованы в этом. Они хотят решать проблемы с программным обеспечением или другие проблемы.
Лейтенмюллер сказал, что решение для школ состоит в том, чтобы на раннем этапе обучать базовым этическим концепциям, чтобы инженеры ИИ были лучше подготовлены к изучению более сложных этических последствий в своей области. «Я слышал несколько сессий, прежде чем мы должны упростить вещи. Для меня это совершенно неправильный подход. Мы должны обобщить.
Мы должны абстрагироваться, чтобы сделать его актуальным для большего числа людей», - сказал он, - «но абстракция трудна». Такие понятия, как достоинство, сказал он, абстрактны и трудны для понимания, но чрезвычайно важны. «У нас должно быть фундаментальное понимание этих основных принципов в школе».
Разные страны, разная этика
Помимо абстракций, участники также обсудили геополитические проблемы. Другая участница, Анабела Гаго, из генерального директората правосудия Европейской комиссии, сказала, что Европа сильно отстает от Китая в ИИ, и она спросила, как различные правовые и этические рамки в разных частях мира могут повлиять на темпы развития ИИ.
Гаго процитировал европейского министра, сказав: «ЕС не столько изучает возможности искусственного интеллекта, потому что они очень озабочены этическими аспектами». Гаго утверждал, что «фундаментально смотреть на этические аспекты, курс. Но этические аспекты для таких стран, как Китай и другие, очень разные. Правовые рамки накладывают различные ограничения на этику».
Оути Кески-Эйдж из Business Finland ответил: «Я бы сказал, что нам нужно обсудить, но мы должны также действовать, чтобы нас не угнали Китай и американцы».
Вальтер Вейгель из Huawei предположил, что даже если более жесткие этические нормы замедляют темпы инноваций, они могут принести другие выгоды позже. Он сказал, что существует «компромисс между «давайте будем осторожны» и, с другой стороны, «не препятствуйте инновациям».
Он утверждал, что «я думаю, что мы будем инвестировать и покупать продукт только в том случае, если будем доверять ему», и что продукты, изготовленные в соответствии с европейскими стандартами, могут породить это доверие: «Может быть, это не новейшая технология, а технология из Европы, которой вы можете доверять».