Сейчас в информационном поле широко обсуждается проблема искусственного интеллекта (ИИ). Представляет ли он потенциальную опасность или нет?
Особое внимание различных специалистов привлекает вопрос использования ИИ в военном деле. На самом деле возможности оружейных систем анализировать обстановку и самостоятельно принимать решение на поражение каких-либо целей давно обсуждается в среде экспертов.
В ООН регулярно проводятся конференции по так называемым «Смертоносным автономным системам вооружения» (САС). При этом все попытки прийти к единому мнению по регулированию или запрету таких систем участники никак не могут. За много лет международные специалисты даже не смогли выработать единое определение САС.
В чем же собственно кроется проблема? Давайте разберемся.
Собственно САС, если очень упрощенно, представляет собой комплекс средств обнаружения, идентификации цели и ее поражения. Казалось бы все просто, все давно известно. Однако «великие гуманисты» пришли к выводу, что отдавать машине право принимать самостоятельное решение на уничтожение цели не этично. Другими словами робот не должен сам решать убивать или нет человека.
Существует такое, понятное и вроде бы вполне обоснованное мнение:
- Смертоносные системы вооружения, известные как "роботы-убийцы" должны оставаться под контролем людей, так как ответственность за их применение нельзя возложить на машины.
- Международное гуманитарное право продолжает полностью применяться в отношении всех систем вооружения, включая потенциальную разработку и использование автономных систем вооружения.
Вроде бы все верно. Эксперты обращают внимание на вероятность ошибок в действиях САС. Так, робот может поразить не законную военную цель, а мирного жителя. При этом возникает трудноразрешимый вопрос, а кто собственно несет ответственность за подобные инциденты? Военные, производители или разработчики? Вот именно эта неопределенность и не дает экспертам сформировать единый подход к роботам-убийцам.
Давайте говорить прямо, ИИ это большой фейк. Создать самостоятельно мыслящую систему, обладающую сознанием мы сейчас не в состоянии, да и не факт, что сможем в обозримом будущем. Таким образом, все эти роботы и прочая автоматизированная машинерия действует на основе заложенной в нее программы, алгоритма, созданного людьми. При этом программисты, как мы многократно убеждаемся в жизни, могут допускать различного рода ошибки от малозначительных, до критических Естественно в таком случае и САС могут действовать не правильно. Да, что там могут, наверняка таких эксцессы будут иметь место. Такая вот складывается неприглядная картинка.
Однако есть и другая сторона медали. Ряд экспертов утверждают, что проблема надумана. Например, человечество давно использует оружие, убивающее людей и не спрашивающее не сей счет мнение оператора. Это и автоматические пулеметы (детище Израиля), некоторые дроны, ракеты ПВО и другие средства поражения с головками самонаведения.
Однако самое поразительное, что даже простейшее оружие действует также, Мины. Они ведь не спрашивают оператора перед взрывом и с одинаковой легкостью подорвут и солдата и мирного жителя, танк и автобус с людьми. И ведь совсем не важно, что в ней нет никакого ИИ или сложной программируемой автоматики (хотя в новейших есть), и «команда» на срабатывание чисто механическая, результат собственно тот же самый, что и в случаях с САС. Так есть ли разница?
Таким образом, проблема «Смертоносных автономных систем вооружения» не имеет однозначного решения и похоже в ближайшее время все так и останется в подвешенном состоянии. Думается, что дело не в так называемой автономности, а скорее в самом факте убийства. Ведь насильственная смерть сама по себе негуманна. Как- то вот так.