Найти в Дзене
AI-TREND

Опасные сценарии ИИ: международное сообщество предлагает ввести ограничения для ИИ

Более двухсот экспертов, в числе которых лауреаты Нобелевской премии, политики и специалисты по ИИ, поддержали инициативу, которая предлагает установить глобальные «красные линии» для развития ИИ. Авторы инициативы считают, что международное сообщество должно договориться о том, какие действия систем ИИ никогда не должны быть допустимы. Речь идёт о запрете саморепликации, выдачи себя за человека и других сценариев, которые могут привести к необратимым последствиям. Сегодня регулирование остаётся фрагментарным. В одних странах уже действуют законы, запрещающие использование ИИ в некоторых сферах, а в других государствах вопрос остаётся на уровне собственных кодексов компаний. Подписанты инициативы уверены, что этого недостаточно и без согласованных правил мир рискует столкнуться с масштабными угрозами. Основные сложности связаны с определением того, что именно считать «красной линией», а также с тем, кто и каким образом будет следить за их соблюдением. Разные государства имеют собствен

Более двухсот экспертов, в числе которых лауреаты Нобелевской премии, политики и специалисты по ИИ, поддержали инициативу, которая предлагает установить глобальные «красные линии» для развития ИИ. Авторы инициативы считают, что международное сообщество должно договориться о том, какие действия систем ИИ никогда не должны быть допустимы. Речь идёт о запрете саморепликации, выдачи себя за человека и других сценариев, которые могут привести к необратимым последствиям.

Сегодня регулирование остаётся фрагментарным. В одних странах уже действуют законы, запрещающие использование ИИ в некоторых сферах, а в других государствах вопрос остаётся на уровне собственных кодексов компаний. Подписанты инициативы уверены, что этого недостаточно и без согласованных правил мир рискует столкнуться с масштабными угрозами.

Основные сложности связаны с определением того, что именно считать «красной линией», а также с тем, кто и каким образом будет следить за их соблюдением. Разные государства имеют собственные интересы и представления о допустимом, а технологический прогресс развивается слишком быстро, оставляя нормотворчество позади.

Инициатива направлена на то, чтобы до 2026 года страны пришли к международному соглашению о минимальных и универсальных ограничениях. Смысл такого подхода в том, чтобы создать основу для безопасности, не лишая мир инноваций, но удерживая развитие ИИ в пределах, где оно не угрожает человечеству.

В числе подписавшихся также есть сотрудники крупных технологических корпораций, которые сегодня и создают современный ИИ.