ООН собирается урегулировать использование ИИ в военных технологиях. Использование беспилотников с искусственным интеллектом (ИИ) для целеуказания становится все более распространенным. Некоторые дроны способны самостоятельно детектировать цели и уничтожать их, что вызывает обеспокоенность среди исследователей и юристов. Разработка так называемого "летального автономного оружия" (LAWs) привлекает внимание всего мира, которые уже инвестировали значительные средства в программу создания таких устройств. Дебаты о применении ИИ в вооруженных конфликтах не утихают, поскольку автономные оружейные системы могут снижать риск случайных жертв и повышать точность ударов. Важным шагом в регулировании этой проблемы стало включение вопроса о LAWs в повестку дня Генеральной Ассамблеи ООН, запланированной на сентябрь. Генеральный секретарь ООН Антониу Гутерриш выразил желание запретить оружие, работающее без человеческого контроля, к 2026 году. Вопросы контроля и регулирования такого оружия остаются предметом ожесточенных дискуссий, ведь международное сообщество еще не пришло к единому определению автономного оружия, что усложняет процесс его запрета. Это остается одной из основных проблем на пути к созданию международного соглашения о регулировании таких систем. Среди прочих вопросов, поднимаемых в рамках дебатов, значится проблема ответственности за действия автономного оружия. Этические дилеммы и юридические сложности, связанные с таким оружием, осложняют его интеграцию в современные военные стратегии. Научные исследования показывают, что ИИ может превосходить человека в определенных аспектах ведения боя, например, в быстроте обработки изображений и принятии решений. Хотя автономное оружие может эффективно реагировать на радиочастотные или инфракрасные сигналы, визуальное распознавание изображений может быть подвержено серьезным ошибкам. Дополнительные этические соображения касаются использования автономного оружия для атаки или защиты. В случае ошибок или непредвиденных последствий использования автономного оружия, определить, кто именно несет ответственность, может быть сложно.SecurityLab.ru