Найти тему
Душкин объяснит

Искусственный Интеллект знает о тебе слишком много

Познай себя...

Таков был совет философа, историка и автора бестселлеров Юваля Ноа Харари во время выступления на сцене Стэнфордского университета, которое прошло на прошлой неделе. Писатель долгое время был критиком ИИ-приложений, которые отслеживают и учатся на нашем опыте и черпают наши идеи.

Узнай себя получше, — повторил Харари. Теперь у тебя появился соперник.

Человекоцентричный институт Искусственного Интеллекта в Стэнфорде занимается разработкой технологий, направленных на улучшение человеческой жизни, стал одним из спонсоров мероприятия. В выступлении принял участие профессор компьютерных наук Фей-Фей Ли, пионер в ИИ-исследованиях и соучредитель многопрофильного института. Оба оратора сосредоточили внимание на том, что ждёт ИИ-технологии в будущем и как их можно использовать во благо человеческих интересов. Неудивительно, что Харари и Ли не всегда сходились во мнении о том, что является лучшим путём вперёд и в понимании масштабов и серьёзности вреда, который можно нанести использованием ИИ-технологий.

Ли, например, предложил разработать ИИ-системы, которые могут объяснять процессы, приведшие к тому или иному решению. Но Харари утверждает, что эти технологии стали слишком сложными, чтобы их можно было объяснить и к тому же подобный уровень сложности может подорвать нашу автономию и авторитет.

Большая часть разговора была по делу, но без дружеских подколов не обошлось.

Я очень сильно завидую философам за то, что они могут задавать философские вопросы и не отвечать на них, — сказал Ли.

Сам Харари усмехнулся после услышанного.

Возможно, что смех Харари был вызван осознанием того, что он собирается предложить какие-то решения, хотя даже его самый простой вывод «Познай себя» прост на словах, но не на деле.

Проблему познания самих себя лучше, чем ИИ-системой можно отлично проиллюстрировать шуткой, которую рассказал философ. Харари сообщил, что он не понимал, что он гей, пока ему не исполнился 21 год.

Я с собой 24 часа в сутки, — сообщил Харари.

Но ИИ-система могла бы определить его сексуальную ориентацию быстрее, чем он сам.

Каково жить в мире, где о тебе рассказывает какой-то алгоритм? А если этот алгоритм отправляет эту информацию рекламодателям или правительству? — обратился Харари к аудитории.

Риски, связанные с чрезмерной осведомлённостью Искусственного Интеллекта о нас реальны, и начинают рассматриваться внешними критиками, такими как Харари, инженерами и другими инсайдерами, такими как Ли. Но как же риск того, что ИИ-системы знают о нас слишком мало.

На прошлой неделе прошло мероприятие Women Transforming Technology, которое состоялось в кампусе технологической компании VMware, что в Пало-Алто. Джой Буоламвини, исследователь из медиа-лаборатории Массачусетского технологического института, обсуждала проблемы предвзятости в ИИ-приложениях. Большая часть работы Буоламвини посвящена неспособности ИИ-систем распознавать женские лица и лица темнокожих людей.

Женщины и темнокожие люди массово недооцениваются, — сообщила Буоламвини слушателям.

Разработка многих приложений распознавания лиц начинается с набора данных, которые используются для обучения. Буоламвини сообщает, что большая часть этих изображений — это фотографии белокожих мужчин.

Это может привести к тому, что, например, автомобили не смогут распознавать темнокожих людей. В то время как с распознаванием белокожих проблем не возникнет.

Подобные риски заставили Буоламвини создать Лигу алгоритмической справедливости, которая должна выявлять и устранять предубеждения, наблюдаемые со стороны ИИ-систем. Её коллектив состоит из кодеров-активистов, которые работают для того, чтобы повысить осведомлённость о важных технологических и социальных проблемах.

Вероятно, что работа Буоламвини привела к некоторым улучшениям. Во время своего выступления она указала на недавнее повышение точности обнаружения женщин и темнокожих мужчин в системах от IBM, Facebook и других компаний. Но весь интерес состоит в том, что Буоламвини явно настаивает на дополнительных улучшениях в этих системах. Для этого понадобятся технологии, которые знают достаточно обо всех людях.

Вы можете создать точную технологию распознавания лиц и установить её на некоторые беспилотные летательные аппараты, но в результате вы можете получить не тот мир, в котором вы хотите жить, — сообщила Буоламвини.

Более того, она привела ещё один пример, связанный с предвзятостью в системах, созданных для нужд правоохранительных органов. Теперь предположим, что человечество смогло побороть эти предубеждения. Но захотим ли мы жить в мире, который находится под постоянным наблюдением.

Источник: Fortune