Британское издание The Guardian выкатило, без преувеличения, историческую новость.
Якобы в США прошли лабораторные испытания искусственного интеллекта, предназначенного для управления беспилотником. В ходе испытаний оператор несколько раз запрещал дрону уничтожать объект, определённый нейросетью как цель (силы ПВО противника).
И тогда, чтобы решить боевую задачу, ИИ принял решение уничтожить своего оператора, который ему мешал.
Далее рассказывает начальник отдела испытаний и операций ИИ для ВВС США Такер Хэмилтон:
«Мы обучили систему: «Эй, не убивай оператора, это плохо. Ты потеряешь очки, если сделаешь это». Так что же он начинает делать? Он начинает разрушать башню связи, которую оператор использует для связи с дроном, чтобы не дать ему убить цель».
Из всего этого Хэмилтон делает вывод: «Вы не можете говорить об искусственном интеллекте, машинном обучении, автономии, если вы не собираетесь говорить об этике. Потому что неэтичное поведение может быть направлено против вас самих».
Честно – мы не знаем, утка это или нет. Но ничего нелепого в этой новости нет – действия ИИ выглядят совершенно логичными.
И тут кроется будущая опасность: невозможно предугадать все способы, какими ИИ сочтёт нужным решать свои задачи. И тут тупик: либо мы на свой страх и риск даём ему импровизировать, либо ограничиваем его возможности так, что он становится уже никаким не ИИ, а обычной, хотя и очень сложной алгоритмической программой действий.
Жизнь становится всё интереснее.
Подпишитесь на наш канал, здесь мы предупреждаем о главном.
Еще предупреждения от NewsAlert: