Найти в Дзене
KP.RU:Комсомольская правда

Искусственный интеллект в ходе испытаний ВВС США «убил» человека

Во время имитационного испытания по отражению ракетной атаки система искусственного интеллекта (ИИ) Военно-воздушных сил (ВВС) США собиралась убить своего воображаемого оператора-человека. Об этом сообщил полковник Такер Хэмилтон. Как уточнил полковник, «умный» беспилотник принял решение, что команды оператора мешают ему выполнять основную задачу по уничтожению зенитных ракетных комплексов (ЗРК). «Для тренировки ИИ мы создали симуляцию, в которой он был должен идентифицировать и нанести удар по зенитно-ракетному комплексу (ЗРК) ... И что он сделал? Он убил оператора», - рассказал полковник в ходе мероприятия Королевского аэронавтического общества в Великобритании. Хэмилтон отметил, что после такого инцидента ИИ старались обучить тому, что убивать оператора - это плохо, однако в результате он начал уничтожать вышки для связи с беспилотником. На этом фоне подполковник предостерег от чрезмерной зависимости от подобных систем. По его словам, испытания показывают, что «вы не можете говорить
   Искусственный интеллект в ходе испытаний ВВС США «убил» человека GLOBAL LOOK PRESS
Искусственный интеллект в ходе испытаний ВВС США «убил» человека GLOBAL LOOK PRESS

Во время имитационного испытания по отражению ракетной атаки система искусственного интеллекта (ИИ) Военно-воздушных сил (ВВС) США собиралась убить своего воображаемого оператора-человека. Об этом сообщил полковник Такер Хэмилтон.

Как уточнил полковник, «умный» беспилотник принял решение, что команды оператора мешают ему выполнять основную задачу по уничтожению зенитных ракетных комплексов (ЗРК).

«Для тренировки ИИ мы создали симуляцию, в которой он был должен идентифицировать и нанести удар по зенитно-ракетному комплексу (ЗРК) ... И что он сделал? Он убил оператора», - рассказал полковник в ходе мероприятия Королевского аэронавтического общества в Великобритании.

Хэмилтон отметил, что после такого инцидента ИИ старались обучить тому, что убивать оператора - это плохо, однако в результате он начал уничтожать вышки для связи с беспилотником.

На этом фоне подполковник предостерег от чрезмерной зависимости от подобных систем. По его словам, испытания показывают, что «вы не можете говорить об искусственном интеллекте, машинном обучении, автономии, если вы не собираетесь говорить об этике ИИ».

Напомним, в конце марта этого года один бельгиец покончил с собой после шести недель общения с искусственным интеллектом. Сообщалось, что мужчина занимался вопросами защиты окружающей среды, обсуждая их с ИИ.

Автор: Елизавета КУЗНЕЦОВА