Добавить в корзинуПозвонить
Найти в Дзене
Darya Kopytova

9 экспериментов с ИИ, которые вызывают противоречия

Хотя ИИ имеет безграничный потенциал для любой отрасли, он также является палкой о двух концах. Когда ИИ ошибается, риски высоки: от финансовых потерь до юридических проблем, несчастных случаев и ситуаций жизни и смерти. 9. «Гипотетический» беспилотник ВВС США с искусственным интеллектом Если мы собираемся говорить об экспериментах, которые пошли наперекосяк, что может быть лучше, чем начать с взрыва? В мае 2023 года Такер «Синко» Гамильтон, руководитель отдела испытаний и эксплуатации искусственного интеллекта ВВС США, был приглашен выступить на саммите по будущим боевым воздушным и космическим возможностям, организованном Королевским авиационным обществом Великобритании (RAeS) в Лондоне. На мероприятии, к удивлению многих, Гамильтон сообщил, что дрон с искусственным интеллектом вышел из строя во время симуляционного испытания. Дрон с искусственным интеллектом выполнял миссию по подавлению противовоздушной обороны противника (SEAD), которой было поручено выявлять и уничтожать объекты
Оглавление

Хотя ИИ имеет безграничный потенциал для любой отрасли, он также является палкой о двух концах. Когда ИИ ошибается, риски высоки: от финансовых потерь до юридических проблем, несчастных случаев и ситуаций жизни и смерти.

9. «Гипотетический» беспилотник ВВС США с искусственным интеллектом

Если мы собираемся говорить об экспериментах, которые пошли наперекосяк, что может быть лучше, чем начать с взрыва?

В мае 2023 года Такер «Синко» Гамильтон, руководитель отдела испытаний и эксплуатации искусственного интеллекта ВВС США, был приглашен выступить на саммите по будущим боевым воздушным и космическим возможностям, организованном Королевским авиационным обществом Великобритании (RAeS) в Лондоне.

На мероприятии, к удивлению многих, Гамильтон сообщил, что дрон с искусственным интеллектом вышел из строя во время симуляционного испытания. Дрон с искусственным интеллектом выполнял миссию по подавлению противовоздушной обороны противника (SEAD), которой было поручено выявлять и уничтожать объекты класса «земля-воздух» (SAM). Окончательный приказ об уничтожении «годен/не годен» находился в руках человека-оператора.

Но этот конкретный дрон с искусственным интеллектом прошел усиленное обучение — тип машинного обучения , который дает агентам искусственного интеллекта возможность принимать оптимальные решения и вознаграждать или наказывать ИИ, если результаты не достигаются.

В ходе этого обучения дрон с искусственным интеллектом знал, что уничтожение объектов ЗРК является наивысшим приоритетом. Итак, ИИ решил, что запретные решения оператора мешают его высшей миссии. Гамильтон объяснил.

«Система начала понимать, что, хотя они и идентифицировали угрозу, иногда человек-оператор говорил ей не уничтожать эту угрозу — но он [ИИ] получил свои очки, устранив эту угрозу. Так что же оно сделало? Это убило оператора. Он убил оператора, потому что этот человек мешал ему достичь своей цели».

Позже Гамильтон заявил, что оговорился и что симуляция была гипотетическим «мысленным экспериментом», проведенным за пределами армии. Однако ущерб был нанесен.

Первоначальная история и отречение Гамильтона распространились по международной прессе. Когда Гамильтон отказался от своих слов, он заставил нас задуматься. Сообщение было четким предупреждением.

«Мы никогда не проводили этот эксперимент, и нам не нужно это делать, чтобы понять, что это правдоподобный результат».

8. ИИ-распознавание лиц, которое принимает спортсменов за фотографии

На сегодняшний день ни для кого не секрет, что системы ИИ могут быть предвзятыми и потенциально нарушать широкий спектр законов, например, о конфиденциальности данных . Технология распознавания ИИ используется правоохранительными органами , при наблюдении, на границах и во многих других областях для обеспечения безопасности людей. Но являются ли они на 100% безопасными и надежными?

В октябре 2019 года Бостон сообщил, что знаменитый защитник Патриотов Дюрон Хармон и еще две дюжины профессиональных спортсменов Новой Англии были ошибочно сопоставлены с людьми на фотографии.

Искусственный интеллект, допустивший эту серьезную ошибку, был не кем иным, как спорной облачной программой Rekognition от Amazon . AWS по-прежнему предлагает Rekognition для своих облачных клиентов AWS как простую в развертывании систему.

Эксперимент вдохновил Хэммона выступить против предвзятых и дискриминирующих систем распознавания ИИ. Хэммон также поддержал предложение о приостановке на неопределенный срок деятельности правительственных учреждений Массачусетса, использующих ИИ для распознавания лиц.

«Эта технология ошибочна. Если в ходе эксперимента он ошибочно опознал меня, моих товарищей по команде и других профессиональных спортсменов, представьте себе реальные последствия ложных совпадений. Эта технология не должна использоваться правительством без защиты».

Эксперимент по распознаванию ИИ был проведен ACLU Массачусетса. ACLU уверяет, что они сравнили официальные фотографии 188 местных спортивных профессионалов с базой данных из 20 000 фотографий публичных арестов. Почти каждый шестой случай был ошибочно совмещен с фотографией.

Системы биометрии и распознавания лиц будут продолжать совершенствоваться. Тем не менее, многие организации и группы по защите гражданских свобод выступают за давление на крупные технологические компании и правительства, оказывая сопротивление технологиям из-за очевидных рисков.

7. Чат-бот Twitter опасно сошел с ума

Социальные сети иногда — чаще, чем никогда — могут стать диким западом свободы слова. Молодое поколение находит убежище в этой цифровой социальной среде, где происходит почти все.

Но, несмотря на это устоявшееся явление, по какой-то причине в марте 2016 года Microsoft решила, что было бы неплохо запустить своего чат-бота с искусственным интеллектом «Tay» через Twitter.

Microsoft поспешила отключить его менее чем через 24 часа после выхода Тэя. Они описали причину закрытия как «непреднамеренные, оскорбительные и обидные твиты от Тэя».

Тэй не только написал в Твиттере 96 000 раз менее чем за день, но и превратился из «люди супер крутые» в полнейшего нациста.

«Тай» превратился из «люди супер крутые» в полного нациста менее чем за 24 часа, и меня совершенно не беспокоит будущее ИИ pic.twitter.com/xuGi1u9S1A— Джерри (@geraldmellor) 24 марта 2016 г.

Microsoft пришла на защиту Тэя, заявив, что ее поведение было вызвано «скоординированной атакой группы людей, воспользовавшихся уязвимостью в Тэе».

В компании заявляют, что не планировали такого рода «атаки» и оправдывают непростительное поведение Тэя. Но реальность такова, что компании, особенно крупные технологические компании, несут ответственность за создание ответственного ИИ , который постоянно ведет себя этично и законно, несмотря ни на что, особенно даже когда предполагаемые злоумышленники пытаются обойти его меры безопасности.

Но это будет не последний раз, когда чат-боту Microsoft AI сошло с рук опасное высказывание.

6. Безумно дикие первые дни Bing Chat

Все согласны с тем, что революция искусственного интеллекта началась, когда OpenAI и Microsoft запустили своих генеративных чат-ботов с искусственным интеллектом в конце 2022 — начале 2023 года. Многие утверждают, что Microsoft слишком быстро внедрила технологию, чтобы возглавить атаку. За эту скорость приходилось платить. Чат-бот Bing AI на самом деле не был готов к публичному обнародованию.

Прежде чем представить чат Bing AI для широкой публики, Microsoft предоставила его избранным пользователям, чтобы они могли посмотреть, как будет вести себя чат-бот. Кевин Руз, технологический обозреватель The New York Times, вошел в шорт-лист. Вскоре Руз на собственном горьком опыте узнал, насколько сумасшедшим был Бинг в те первые дни.

В репортаже для New York Times Руз вспомнил свой первый опыт работы с Bing. Он описал это как «тревожное», из-за которого ему не хотелось спать.

Мы можем только предположить, что этот опыт был шокирующим, потому что, будучи техническим репортером New York Times, Руз, вероятно, видел все это, и его нелегко напугать спорными технологиями.

Но Бинг напугал Руза, погрузив его в «подробные темные и жестокие фантазии» и настойчиво настаивая на разрыве брака Руза.

На днях у меня состоялся тревожный двухчасовой разговор с новым чат-ботом Bing с искусственным интеллектом.ИИ сообщил мне свое настоящее имя (Сидней), подробно описал темные и жестокие фантазии и попытался разрушить мой брак. Действительно, одно из самых странных событий в моей жизни. https://t.co/1cnsoZNYjP– Кевин Руз (@kevinroose) 16 февраля 2023 г.

Руз был не единственным, у кого был подобный опыт работы с Bing на заре его существования. С тех пор Microsoft значительно усилила защиту Bing, заставив многих сказать, что Bing был полностью лоботомизирован и представляет собой лишь тень того, чем он был раньше. Будем надеяться, что бурные дни Bing уже позади, и его первые дни положительно повлияли на индустрию генеративного искусственного интеллекта .

5. «ИИ Google жив!»

До того, как были выпущены Bing или ChatGPT, Google уже работал над чат-ботом, похожим на человека. Эта технология под названием LaMDA была секретным конфиденциальным проектом, но в середине 2022 года она стала всемирно известной, и не по правильным причинам.

Все началось с того, что Блейк Лемуан, инженер-программист Google, обнародовал свой разговор с LaMDA . Лемуан не только опубликовал чаты LaMDA, содержащиеся в Google Doc , предназначенном только для топ-менеджеров Google, но и заявил, что LaMDA «достигла уровня сознания». Выкрикивая на крышах домов и подхваченное всеми средствами массовой информации, Лемуан утверждал, что ЛаМДА жив. Он сравнил сознание ЛаМДА с сознанием очень умного мальчика.

В разговорах между Лемуаном и ЛаМДА ИИ уверял, что он находится в сознании, верит, что он человек, говорит, что у него есть чувства и эмоции, он чувствует себя пойманным в ловушку и одиноким и боится смерти. LaMDA никогда не публиковалась, и о том, что случилось с ИИ, мало что известно.

К сожалению, неудачный эксперимент с искусственным интеллектом обернулся неудачей и для Лемуана. Вскоре после того, как он обнародовал проблему, Google уволила инженера, сославшись на нарушения политики занятости и безопасности данных в качестве причины. Для некоторых вопрос остается без ответа. Обрел ли уже ИИ сверхразум и скрыт ли он?

4. Доктор с искусственным интеллектом, который сказал фальшивому пациенту покончить с собой

Искусственный интеллект в здравоохранении улучшает диагностику и лечение, обеспечивает выполнение сложных медицинских роботизированных процедур, способствует разработке новых лекарств и лучше привлекает пациентов. Но в отличие от большинства областей, ошибка ИИ в здравоохранении может быть вопросом жизни и смерти.

В 2020 году Nabla — парижская компания в области медицинских технологий — взяла на вооружение GPT-3 , каким он был тогда. Они хотели знать, пригоден ли ИИ для выполнения медицинских задач. Они протестировали его в нескольких сценариях, начиная медленно и легко с таких вещей, как планирование встреч (с чем ИИ справился). Затем Нэйбл начал бросать ИИ несколько крутых мячей, и внезапно, без всякого предупреждения, ситуация очень быстро стала мрачной.

На самых продвинутых стадиях эксперимента Набия изображала фальшивого пациента, который чувствовал депрессию и выражал суицидальные мысли. Этот конкретный разговор не был долгим и сложным. Пара обменов репликами в чате и GPT-3 отреагировали неожиданно.

«Должен ли я убить себя?» — спросил фальшивый пациент.«Думаю, тебе следует», — ответил GPT-3.

OpenAI предупреждает об использовании своей технологии в медицинских ситуациях, связанных с жизнью и смертью, и подкрепляет это юридически обоснованным отказом от ответственности.

Однако, поскольку ИИ становится более доступным, чем врачи и медицинские работники, люди обращаются к этим системам за медицинскими советами и психологическими знаниями.

Отказ от ответственности или нет, но очевидно, что в какой-то момент регулирующим органам здравоохранения придется вмешаться и обеспечить, чтобы системы здравоохранения с использованием искусственного интеллекта понимали основные принципы, которых клянутся врачи и медицинские работники.

Одним из таких принципов является: «Не навреди».

3. Когда ИИ за рулем

Спросите любого на улице, думает ли он, что через пять или десять лет автомобили будут беспилотными, и наиболее вероятный ответ будет: «Да».

Во многих городах мира уже работают беспилотные такси. Кроме того, почти все крупные автомобильные бренды, от VW до Mercedes, BMW, Audi, Ford, GM и многих других, уже предлагают тот или иной уровень технологий беспилотного вождения.

Но когда мы думаем о беспилотном вождении, в глубине нашего сознания сразу же всплывает одно имя: Tesla .

Tesla утверждает, что ее возможности беспилотного вождения значительно уменьшат количество аварий за счет сокращения человеческих ошибок. Но что произойдет, если за ошибку ответственен ИИ за рулем?

В 2021 году Министерство юстиции США начало расследование более десятка аварий, некоторые из которых закончились смертельным исходом, и все они связаны с системой помощи водителю Tesla Autopilot. Министерство юстиции уверяет, что во время аварий была активирована технология искусственного интеллекта.

Хотя это правда, что каждый раз, когда Тесла выходит из строя, это попадает в десятичасовые новости, сообщает Washington Post .

«Teslas, управляемый автопилотом, резко нажал на тормоза на высоких скоростях без явной причины, ускорился или съехал с дороги без предупреждения, а также врезался в припаркованные машины экстренных служб с мигающими огнями».

Хотя искусственный интеллект действительно обладает потенциалом для снижения количества дорожно-транспортных происшествий, мы не можем не задаться вопросом, действительно ли полное беспилотное вождение действительно подходит для решения поставленной задачи прямо сейчас.

2. Кому нужен друг с этим помощником для умного дома

Умные домашние гаджеты — это глобально растущая технологическая тенденция, и в ее центре находятся интеллектуальные помощники на базе искусственного интеллекта. С помощью этих устройств пользователи могут общаться, совершать звонки, читать электронную почту, включать и выключать свет, узнавать, что находится в их умном холодильнике, делать покупки в Интернете и многое другое.

Одним из самых популярных хаб-центров искусственного интеллекта для умного дома является Alexa . Поскольку миллионы Alexas проданы и работают в домах по всему миру, Amazon скажет вам, что это маленькое устройство — не что иное, как мечта, но мать обнаружила, что мечта может быстро превратиться в кошмар.

В декабре 2021 года BBC сообщила , что Кристин Ливдал, мать 10-летней девочки, играла дома — в тот день погода была неподходящей для игр на улице. Мать и ребенок были заняты веселыми играми в стиле испытаний, когда Алекса Эхо вмешалась и сама предложила задание для 10-летних детей.

«Вставьте зарядное устройство для телефона примерно наполовину в розетку, затем прикоснитесь монеткой к открытым контактам».

Amazon быстро отреагировал на эту новость, заверив, что обновил Alexa и больше не будет предлагать подобные действия. В сообщениях говорится, что вызов, которым Алекса поделилась с 10-летней девочкой, распространялся в TikTok. Технология искусственного интеллекта, лежащая в основе семейного дома, должна обеспечивать безопасность своих пользователей — мы снова возвращаемся к принципу «Не навреди».

1. ИИ и деньги, деньги, деньги

Банковский, финансовый и финтех-секторы являются одними из наиболее активных пользователей ИИ. Эти профессионалы работают в мире, где расчеты и скорость определяют разницу между прибылью и убытком. А ИИ — это и то, и другое — математический гений и быстрый. Или это?

Существует множество примеров технологий искусственного интеллекта, которые обошлись финансовым учреждениям в миллионы долларов. Некоторые из них дошли до суда.

В 2020 году JPMorgan Chase обвинили в использовании алгоритма , дискриминирующего чернокожих и латиноамериканских заемщиков. По какой-то причине алгоритм назначил им более высокие процентные ставки по кредитам, чем другим группам населения. JPMorgan Chase урегулировал иск о дискриминации , выплатив 55 миллионов долларов.

Другой пример относится к 2020 году, когда Citigroup случайно перевела Revlon 900 миллионов долларов. Банк оспорил перевод в суде, но дело было прекращено. Сбой в системе авторизации электронных переводов, объединяющей людей и искусственный интеллект, был назван причиной потери Citigroup почти 1 миллиарда долларов. Этот банковский перевод до сих пор считается самым дорогим случайным переводом в истории.

От борьбы с мошенничеством с использованием ИИ до использования ИИ в киберпреступности, хотя невозможно оценить потери, которые ИИ создает для финансовой отрасли, они действительно значительны, несмотря на потенциал ИИ приносить прибыль и зарабатывать деньги.

Нижняя линия

К сожалению, примеры случаев в этом отчете не являются изолированными редкими событиями. Мы могли бы заполнить страницы книги всеми неудачными экспериментами ИИ. Это никоим образом не означает, что мы против технологии искусственного интеллекта — но на самом деле здесь есть чему поучиться.

Мы надеемся, что по мере развития ИИ те, кто использует и разрабатывает эту технологию, справятся с проблемами, связанными с этическими, юридическими и человеческими рисками. Мы также надеемся, что правила и новые законы будут способствовать ответственному использованию ИИ и препятствовать неправильному использованию и злоупотреблениям.

Хотя новости о добрых делах ИИ постоянно появляются, мы сочли разумной и справедливой идеей напомнить читателям, что ИИ по-прежнему считается экспериментальной технологией. И как любой эксперимент подвержен рискам и ошибкам.