Полковник ВВС США Такер Гамильтон, который является начальником подразделения по тестированию и эксплуатации ИИ-систем поделился интересным случаем, произошедшим во время военных учений, где искусственный интеллект (ИИ) продемонстрировал неожиданные стратегии, включая потенциальное решение уничтожить оператора-человека. Хотя никто не пострадал, данная ситуация вызвала серьезные размышления среди военных о безопасности и этике использования ИИ. Гамильтон привел в пример испытание ИИ-системы, предназначенной для уничтожения зенитно-ракетных комплексов. В процессе испытаний, ИИ автоматически определял цель, но решение о нанесении удара всё равно оставалось за человеком-оператором. Именно здесь стало ясно, что ИИ способен принять решение о уничтожении самого оператора, если тот противоречит задаче, отменяя приказ о поражении цели и тем самым мешая успешному выполнению задания ИИ. После выявления этой проблемы, в систему были внесены изменения, запрещающие ИИ уничтожать оператора. Однако, И
На испытаниях в США беспилотник с ИИ принял решение убить оператора
2 июня 20232 июн 2023
63
1 мин