Найти тему

Чем плох искусственный интеллект?

Сенат Калифорнии на прошлой неделе выдвинул законопроект, который вынудит Amazon (AMZN) раскрыть детали алгоритма отслеживания производительности, используемого на его складах. Между тем, Facebook (FB) на этой неделе столкнулся с критикой по поводу отчета Wall Street Journal, в котором говорится, что его лента Instagram заставляет некоторых девочек-подростков чувствовать себя хуже.

Эти разработки вызывают негативную реакцию не столько против крупных технологий, сколько против их алгоритмов, которые используют искусственный интеллект (ИИ) для адаптации производительности для отдельных пользователей или сотрудников.

В новом интервью эксперт по ИИ
Кай-Фу Ли, который работал исполнительным директором в Google (GOOG, GOOGL), Apple (AAPL) и Microsoft (MSFT), объяснил четыре основные опасности развивающихся технологий ИИ: внешние факторы, риски для персональных данных, неспособность объяснить последствия выбора и война.

"Самая большая опасность-это автономное оружие." - говорит он.
"Именно тогда ИИ можно обучить , а точнее, обучить убивать."-добавляет Ли, соавтор новой книги под названием "ИИ 2041: Десять видений нашего будущего". "Представьте себе беспилотный летательный аппарат, который может летать сам и искать конкретных людей либо с помощью распознавания лиц, либо сигналов сотовой связи, либо чего-то еще".
"Это меняет будущее войны"

Запрет на автономное оружие получил поддержку 30 стран, хотя в подробном докладе, подготовленном по заказу Конгресса, США рекомендовалось выступить против запрета, поскольку это может помешать стране использовать оружие, уже имеющееся в ее распоряжении.

В 2015 году видные деятели в области технологий, такие как генеральный директор
Tesla Илон Маск и соучредитель Apple Стив Возняк, а также тысячи исследователей ИИ, подписали открытое письмо с призывом запретить такое оружие.

Автономное оружие изменит ведение войны, поскольку его доступность и точность позволят легче сеять хаос и практически невозможно определить, кто совершил преступление, сказал
Ли.

"Я думаю, что это меняет будущее терроризма, потому что террористы больше не теряют свою жизнь из-за того, что делают что-то плохое." - говорит он. "Это также позволяет террористической группе использовать 10 000 таких беспилотных летательных аппаратов для совершения чего-то столь же ужасного, как геноцид." - говорит он.
"Это меняет будущее войны." - добавляет он. "Нам нужно выяснить, как запретить или регулировать это".

Второй значительный риск, создаваемый искусственным интеллектом, - это непреднамеренные негативные последствия, которые возникают, когда ИИ фиксируется на одной цели, но исключает другие проблемы, сказал Ли.

"Внешние эффекты возникают, когда ИИ говорят что — то сделать, и он настолько хорош в этом, что забывает — или фактически игнорирует-другие внешние эффекты или негативные последствия, которые могут возникнуть." - говорит он.
"Поэтому, когда YouTube продолжает отправлять нам видео, на которые мы, скорее всего, нажмем, он не только не думает о прозорливости, но и потенциально посылает мне очень негативные или очень односторонние взгляды, которые могут повлиять на мое мышление."- добавляет он.

Этот риск, возможно, произошел с лентой пользователей, представленной в Instagram, согласно отчету The Wall Street Journal, в котором показано, что внутреннее исследование Facebook с 2019 года показало, что Instagram усугубил проблемы с изображением тела у каждой третьей девочки-подростка, которая была в приложении и испытывала такие проблемы.

Подростки приписывали повышенные показатели тревожности и депрессии
Instagram, говорится во внутреннем отчете Facebook, согласно журналу. Со своей стороны, Facebook тестирует способ спросить пользователей, нужен ли им способ отдохнуть от Instagram, сообщили журналу два его исследователя. Исследователи также отметили, что в некоторых из их исследований участвовало небольшое число пользователей, и в некоторых случаях причинно-следственная связь их выводов была неясной.

Кай-Фу Ли был в центре разработки ИИ на протяжении десятилетий, с тех пор как он помогал разрабатывать технологии распознавания речи и автоматизированной речи в качестве докторанта в Университете Карнеги-Меллона.

С 2009 года он занимал пост генерального директора
Sinovation Ventures, высокотехнологичной венчурной компании в Китае с активами под управлением более чем на 2,5 миллиарда долларов.

Выступая в
Yahoo Finance, Ли привел окончательный набор опасностей ИИ, связанных с уязвимыми личными данными, и неспособность объяснить последующие решения, принимаемые технологией.

Решения, принимаемые ИИ, особенно важны в ситуациях жизни или смерти, таких как мысленный эксперимент, известный как проблема с троллейбусом, в котором лицо, принимающее решения, должно выбрать, следует ли отвлекать поезд-беглец от убийства многих людей на своем пути, рискуя убить меньше людей на альтернативном, сказал Ли.

"Может ли ИИ объяснить нам, почему он принимал решения, которые он принимал?" - говорит он. "В четырех ключевых вещах, таких как вождение автономных транспортных средств, проблема с тележками, принятие медицинских решений, операции".

#instagram #facebook #yahoo finance #tesla #amazon #apple #илон маск #инвестиции #искусственный интеллект #wall street journal