Искусственный интеллект (ИИ) прочно вошел в нашу жизнь и даже отчасти сделал ее приятнее и лучше. Он уже работает в колл-центрах, «управляет» автомобилями и принимает заказы в ресторанах. С каждым днем зона влияния его расширяется. Он все более активно идет в клиентские сферы, где на первый взгляд даже не заметен. При этом вопросов к искусственному интеллекту становится все больше.
Можно ли привлечь искусственный интеллект к ответственности?
В 2019 году искусственный интеллект убил Элейн Херцберг. Американку сбил беспилотный автомобиль компании Uber. Она переходила дорогу в неположенном месте, машина, не «увидев» рядом перехода, просто не распознала в ней пешехода. Обычные водители с такими ситуациями сталкиваются чуть ли не ежедневно и прекрасно понимают, что люди нарушают правила и совершают оплошности. А кто виноват в этой трагедии? Кто несет ответственность? Производитель беспилотника – Uber? Или может быть программист, который не учел такого при разработке алгоритмов для искусственного интеллекта?
И хотя, предполагается, что беспилотные автомобили будут гораздо безопаснее усталых или, не дай Бог, пьяных водителей, в аварии они попадать будут. И даже со смертельным исходом. По данным Национального управления безопасности дорожного движения Министерства транспорта США, в 2017 году на 100 миллионов километров пути беспилотных автомобилей приходилось 1,16 смертельных случаев. Но пока количество километров, пройденных беспилотниками, не будет измеряться миллиардами, понять сколько пешеходов от них погибнет невозможно.
Понятное дело, что каждая смерть от автономного транспорта будет рассматриваться как отдельный случай. Но на кого возложат вину за подобное, кого накажут? Неужели волна судебных исков накроет все автомобильные компании?
Вывод: Внедрение искусственного интеллекта приведет к тому, что ответственность может перейти к производителю, а не к потребителю. Поэтому при использовании подобных решений необходимо изучить их влияние на бизнес и подготовиться к возможным последствиям.
Можно ли объяснить необъяснимое?
Искусственный интеллект должен принимать решения, которые могут иметь важное значение для человека. Машины могут выбрать какого кандидата принять на работу и даже назначить наказание преступнику. Проблема заключается в том, что зачастую сложно понять, почему было принято то или иное решение. Модели машинного обучения строятся на основе нейронных сетей, которые выдают некий результат на основе входных данных. Но понять ход «раздумий» сложно, решения принимаются в «черном ящике», недоступном для человека. В итоге не понятно, почему, например, искусственный интеллект одному преступнику назначает два месяца наказания, а другому десять при одних и тех же правонарушениях.
Вывод: Основная сложность в использовании систем искусственного интеллекта – понять, как принимаются решения и делаются выводы. Ведь ход «размышления» в машинах скрыт от человека. Не понятно и как получить 100-процентную гарантию правильности принятых решений. Именно поэтому ученые и разработчики задумались о создании осознанного искусственного интеллекта – механизма, который четко «объяснит» почему и как он работает.
Есть ли место личной жизни в мире искусственного интеллекта?
Признайтесь, вас тоже смущает, когда часы «сообщают», что нужно еще пройти 10 километров, чтобы потратить дневную норму калорий? А вам понравится, если холодильник начнет присылать сообщения с просьбой купить молоко? То, что когда-то казалось выдумкой режиссеров фантастических фильмов, сегодня становится реальностью.
И несмотря на то, что доступность информации кажется очень удобной, каждый раз, когда включается мобильный телефон, вдруг понимаешь, что потерял кусочек личной жизни. Исследование компании Genpact, показало, что 71 процент пользователей различных удобных гаджетов все же не готовы променять на них личную жизнь. Особенно, учитывая, что сегодня системы искусственного интеллекта применяются на государственном уровне. В Китае уже внедрена система распознавания лиц. С одной стороны подобные решения могут использоваться в целях безопасности, с другой - стать инструментами повсеместного надзора, как в книгах Оруэлла.
Вывод: С проблемой конфиденциальности данных уже столкнулись такие гиганты как Facebook и Google. Чем больше данных используется и чем чаще применяется искусственный интеллект для их обработки, тем актуальными становятся вопросы сохранения данных. И ответов здесь пока очень мало.
Можем ли мы «защитить» искусственный интеллект?
Какой бы замечательной не была технология, всегда найдутся те, кто захочет использовать ее в своих личных, иногда не совсем чистых целях. Помните ролик, в котором вроде бы Илон Маск пел песню «Земля в иллюминаторе»? Его создали благодаря возможностям искусственного интеллекта, заменили изображение артиста на фигуру создателя марсианских ракет. Все посмотрели и улыбнулись. А вот когда виртуальный Илон Маск, как две капли воды похожий на реального, сообщил о том, что Tesla не сможет выполнить обязательства, и это вызвало падение цен на акции, владельцам бумаг было совсем не смешно. Не говоря уже о политиках, которые благодаря стараниям хакеров вдруг оказалась на месте порно-актеров. Вот и объясняй потом, что ты не верблюд, а создание виртуальных клонов – это просто новые возможности искусственного интеллекта. А если завтра вместо Илона Маска по велению преступников, президент какой-то страны объявит о национальной угрозе? И люди этому фейку поверят! Получается, в руках злоумышленников искусственный интеллект становится очень опасным инструментом. Уже сейчас по оценкам специалистов случаи его использования в преступных целях увеличиваются в два раза каждые полгода.
Вывод: Искусственный интеллект дарит злоумышленникам новые и новые возможности. Чтобы бороться с возможными угрозами, их нужно хотя бы предусмотреть. Широкое поле раздумий для разработчиков.
Кто определяет этику искусственного интеллекта?
Помните историю из Кореи? У одной мамы заболела и умерла дочь. Чтобы как-то ее утешить, создали виртуального клона. То есть, одевает мама очки виртуальной реальности, а там ее ребенок, живет, разговаривает, общается. Такой подход разделил общество на две части. Некоторые считали – «здорово!», остальные опасались за психику мамы. Но вывод сделали все – искусственный интеллект должен иметь некоторые этические границы. Только вот пока не понятно, кто должен определить правила, которым в отношении этики будет подчиняться искусственный интеллект. Технологические гиганты, такие как Google и Microsoft, считают, что стандарты искусственного интеллекта должны быть разработаны на государственном уровне. Только прийти к консенсусу, который устроит и общественность, и бизнес, и государство будет очень нелегко. Пока же многие компании-разработчики искусственного интеллекта начинают вводить должность специалиста по этике, который на свой страх и риск решает подобные вопросы.
Вывод: Регулирование искусственного интеллекта на национальном и международном уровнях пока еще далеко, а вся ответственность пока лежит на разработчиках.
Конечно, системам искусственного интеллекта придётся пройти долгий путь, чтобы соответствовать не только поставленным задачам, но и этическим нормам. И только задавая подобные вопросы, можно будет решить какую роль искусственный интеллект должен занять в жизни реального человека.
Хотите знать больше о цифровой трансформации, подписывайтесь на нашу страницу в Facebook.