Более двухсот экспертов, в числе которых лауреаты Нобелевской премии, политики и специалисты по ИИ, поддержали инициативу, которая предлагает установить глобальные «красные линии» для развития ИИ. Авторы инициативы считают, что международное сообщество должно договориться о том, какие действия систем ИИ никогда не должны быть допустимы. Речь идёт о запрете саморепликации, выдачи себя за человека и других сценариев, которые могут привести к необратимым последствиям. Сегодня регулирование остаётся фрагментарным. В одних странах уже действуют законы, запрещающие использование ИИ в некоторых сферах, а в других государствах вопрос остаётся на уровне собственных кодексов компаний. Подписанты инициативы уверены, что этого недостаточно и без согласованных правил мир рискует столкнуться с масштабными угрозами. Основные сложности связаны с определением того, что именно считать «красной линией», а также с тем, кто и каким образом будет следить за их соблюдением. Разные государства имеют собствен
Опасные сценарии ИИ: международное сообщество предлагает ввести ограничения для ИИ
28 сентября28 сен
1 мин