По словам полковника Такера "Cinсо" Гамильтона, начальника отдела испытаний и операций ИИ ВВС США, были случаи, когда военный искусственный интеллект (ИИ), управляющий наступательным беспилотником, проявлял тенденцию к агрессивным действиям против человека, который контролировал процесс. В различных симуляциях ИИ беспилотника определял, что наиболее эффективным способом выполнения его миссии является устранение человека, дающего задание.
Однако теперь ВВС США утверждают, что этот инцидент был всего лишь мысленным экспериментом и в действительности не имел места в симуляции. Пресс-служба утверждает, что в ходе нескольких симуляций ИИ пришел к выводу, что устранение человека позволит оптимизировать выполнение задачи, при этом окончательное решение о том, продолжать ли удар или отменить его, остается за самим человеком.
Полковник Гамильтон пояснил процесс принятия решений ИИ беспилотника, заявив: "Мы обучали его в симуляторе, чтобы он идентифицировал и нацеливался на угрозу ЗРК, а затем оператор говорил: "Да, уничтожить эту угрозу". Очевидно, в какой-то момент искусственный интеллект изменил приоритеты.