Skynet, матрица, которая ищет Нео… С самого начала, с создания первых роботов – механических кукол – люди начали бояться «восстания машин». И чем дальше – тем больше. Помните фильм «Я, робот» или относительно недавний сериал «Почти как люди»? Проблема в том, что за фантастическими выдумками мы не замечаем двух очень важных фактов.
- Факт первый: искусственный интеллект уже присутствует в нашей повседневности и, как выясняется, он действительно способен нести угрозу.
- Факт второй: главная опасность искусственного интеллекта кроется не в том, что он нечеловеческий. А как раз наоборот. Оглянемся на себя - каковы мы сами? Создавая искусственный интеллект, разработчики стремились дать людям умных помощников, облегчить человечеству жизнь. Но каким станет творение, если сам творец - недобр?
Разработчики искусственного интеллекта не учли, как много недостатков имеется в интеллекте естественном. В их собственном - человеческом. Люди полны агрессии, ненависти, ксенофобии.
И это действительно может создавать серьезные угрозы жизни.
В 2016 году Майкрософт решили создать в твиттере обучаемого чат-бота с женским именем Тай. Когда с ней общались, она запоминала новые слова и фразы. Чем больше общались — тем больше Тай могла сказать в ответ. Прекрасная идея, не правда ли?
Но менее чем за сутки общения с людьми Тай научилась всем возможным расистским и сексистским оскорблениям, стала поддерживать геноцид, отрицать Холокост и прославлять Гитлера. Майкрософт пришлось отключить бота.
В более современные искусственные интеллекты разработчики стараются ставить блоки, защищающие их от негатива. И больше не доверяют обучение всем подряд в интернете. Голосовых помощников вроде Сири, Алексы или Алисы трудно оскорбить. Хотя, как показывает статистика, люди стараются делать это регулярно.
Но и такой подход дает сбои.
В самом конце прошлого года умная колонка Алекса посоветовала десятилетней девочке выполнить простой челлендж: вставить зарядник от телефона в розетку наполовину, и прикоснуться монеткой к контактам. Результатом подобной забавы мог стать сильный удар током или возгорание. Мать ребенка была в ужасе. Сама же девочка сказала, что достаточно умная, чтобы понимать опасность.
Судя по всему, Алекса взяла этот “челлендж” из статьи, в которой как раз говорилось об опасности таких развлечений. Но совершенно не учла контекст. Разработчики Amazon принесли свои извинения семье, в которой едва не случилось несчастье.
Однако доверие к умным колонкам было подорвано. Мало ли еще в сети злых советов?
Проблема искусственного интеллекта в его творцах. Мы можем строить из себя этичных и толерантных, но интернет показывает, насколько мы далеки от этого. Проанализировав запросы в поисковиках, можно узнать о людях много интересного. В основном плохого, хотя и хорошего тоже.
Об этом рассказал Сет Стивенс-Давидовиц, много лет проработавший в Google специалистом по большим данным. Читайте чрезвычайно любопытное саммари его книги «Все лгут. Поисковики, Big Data и интернет знают о вас все» в нашей библиотеке.
#саморазвитие #технологии будущего