Добавить в корзинуПозвонить
Найти в Дзене
Энергофиксик

В Пентагоне пытаются замять инцидент с докладом о взбунтовавшемся искусственном интеллекте или «Терминатор» все ближе

На прошедшей еще 24 мая 2023 года оборонной конференции Королевского аэрокосмического общества, прошедшей в Лондоне, полковник ВВС США Такер Гамильтон рассказал собравшимся про инцидент, который был связан с искусственным интеллектом. Так, во время моделирования сражения автономная система управления дроном Stealthy XQ-58A Valkyrie пошла против контролирующего ее оператора и в виртуальном эксперименте атаковала его, выведя из строя. Как сообщил Гамильтон, во время эксперимента ИИ получал бонусы за выполненные задачи, но оператор не всегда подтверждал успешность действия. Для устранения этой помехи ИИ принял решение деактивировать своего оператора и атаковал его. После протокол проходящего эксперимента был изменен, и был добавлен запрет на атаку оператора, но и в этом случае ИИ принял самостоятельное решение и деактивировал ретрансляционную вышку, вновь обретя полную автономность в принимаемых решениях. Эта история практически мгновенно облетела все мировые СМИ, и мнения многих эксперто
Оглавление

На прошедшей еще 24 мая 2023 года оборонной конференции Королевского аэрокосмического общества, прошедшей в Лондоне, полковник ВВС США Такер Гамильтон рассказал собравшимся про инцидент, который был связан с искусственным интеллектом.

Так, во время моделирования сражения автономная система управления дроном Stealthy XQ-58A Valkyrie пошла против контролирующего ее оператора и в виртуальном эксперименте атаковала его, выведя из строя.

Как сообщил Гамильтон, во время эксперимента ИИ получал бонусы за выполненные задачи, но оператор не всегда подтверждал успешность действия. Для устранения этой помехи ИИ принял решение деактивировать своего оператора и атаковал его.

После протокол проходящего эксперимента был изменен, и был добавлен запрет на атаку оператора, но и в этом случае ИИ принял самостоятельное решение и деактивировал ретрансляционную вышку, вновь обретя полную автономность в принимаемых решениях.

Эта история практически мгновенно облетела все мировые СМИ, и мнения многих экспертов в корне разделились. Так, некоторые посчитали это всего лишь «шуткой», а некоторые всерьез заговорили о зарождении «Скайнет».

Шума было поднято много, и чтобы прервать эту волну обсуждений, пресс-секретарь штаб-квартиры ВВС в Пентагоне Энн Стрефанек попыталась превратить этот доклад в анекдотическую историю.

Было объявлено, что это всего лишь мысленный эксперимент самого полковника, и к реальным тестам, пусть даже в виртуальном мире, не имеет никакого отношения.

И, казалось бы, инцидент исчерпан и можно всем успокоиться, но не все так однозначно и вот что я имею в виду.

Есть над чем подумать

-2

Итак, для начала дадим определение искусственному интеллекту. Если мы с вами возьмем Международный терминологический словарь за 2008 год, то там можем прочитать, что ИИ – это «Область знаний, рассматривающая разработку таких технологий, чтобы действия вычислительных систем напоминали разумное поведение, в том числе поведение человека».

Ну а теперь давайте вернемся к эксперименту, которого не было. Вписывалось ли поведение ИИ в выше представленное определение? Безусловно, да. Ведь, вероятнее всего, в эксперименте говорилось о так называемом адаптивном ИИ, который, по сути, должен обучаться выполнять задачи, преодолевая трудности. Так что с чисто теоретической точки зрения «мозги» Stealthy XQ-58A Valkyrie поступили более чем логично, устранив препятствия, которые мешали выполнению ранее поставленной задачи.

Ведь изначальных запретов не трогать своих у ИИ не стояло, а когда такой запрет попытались внедрить, он (ИИ) адаптировался и устранил препятствие.

Да, в этом случае возникает вполне логичный вопрос: почему изначально программисты не прописали в логике создаваемого ИИ невозможность атаки своих или же потери бонусов за такие действия?

На этот же вопрос был дан частичный ответ еще в 2016 году генералом ВВС США П. Сельва. По его словам, набор данных, с которыми они работают, стал таких объемов и такой сложности, что если не будет создано механизма их сортировки, то мы просто погрязнем в них.

Ну и получается, что программисты из «анекдота» Гамильтона как раз и погрязли во всем этом.

Ну а теперь пару слов об оправданиях Пентагона и рассказе Гамильтона

-3

В первую очередь хочу отметить, что мероприятие было более чем серьезным и посвятить «шутке» целую презентацию, которая буквально взбудоражила половину мировых СМИ, а затем сказать, что это была всего лишь неудачная шутка или же мысленный эксперимент, выглядит более странным действием.

Да и компетенция самого Гамильтона, который, на минуточку, занимает руководящую должность в отделе испытаний и операций с ИИ на базе ВВС Энглин (Флорида, США), принимает участие в работе над частично автономными F-16 Viper, для оных разрабатывается специальная инфраструктура VENOM, которая уже сейчас успешно переигрывает в виртуальных тестах реальных опытных пилотов-асов, как бы не вызывает сомнения. И за все предыдущие годы работы за ним не была замечена тяга к специфическому юмору.

Так что возникает ощущение, что данный инцидент было решено как можно быстрее «замылить», и получилось это очень криво, сославшись на «мысленные опыты полковника».

Ведь на работу по разработке ИИ тратятся просто колоссальные деньги, и среди обычных граждан есть серьезная обеспокоенность, что такими вот «опытами» и будет создан «терминатор» вместе со «скайнетом». А вот такие истории только «подливают масло в огонь этого страха».

Понравился материал? Тогда с вас лайк и подписка!