Найти в Дзене
OVERCLOCKERS.RU

Накануне ряд стран подписал соглашение, регулирующее разработки технологии ИИ

В 20-страничном документе содержатся несколько предложений по предотвращению неправильного использования и обеспечения ответственной разработки искусственного интеллекта. В частности, упоминается необходимость, чтобы технологические компании "разрабатывали и внедряли его таким образом, чтобы защитить клиентов и широкую общественность от неправильного использования". Среди подписавших документ США, Германия, Великобритания, Италия, Чехия, Польша, Эстония, Австралия, Чили, Израиль, Сингапур и Нигерия.

В рамках соглашения описываются методы защиты ИИ от взлома хакерами и даются рекомендации о проведении полагающегося тестирования безопасности перед выпуском их моделей. Однако, документ не затрагивает спорные вопросы, такие как сбор данных для моделей ИИ. Возможно, в будущем регулирующие органы и законодатели вмешаются для решения этой проблемы, которая уже вызвала множество юридических стычек.

Названное первым глобальным соглашением по безопасности ИИ "Руководство по безопасной разработке ИИ" направлено на то, чтобы сделать разработчиков ИИ более ответственными за свое программное обеспечение. Все заинтересованные стороны, включая специалистов по данным, разработчиков, менеджеров и принимающих решения лиц, должны следовать рекомендациям и принимать обоснованные решения о проектировании, разработке, развертывании и эксплуатации своих систем искусственного интеллекта.

Некоторые страны уже начали формулировать правила саморегулирования разработки ИИ для таких компаний, как Google и OpenAI, даже до подписания данного соглашения. Франция, Германия и Италия достигли соглашения об "обязательном саморегулировании посредством кодексов поведения", а администрация Байдена в США выдала указ, направленный на уменьшение рисков, связанных с нерегулируемым развитием ИИ и его потенциальными угрозами национальной безопасности.

📃 Читайте далее на сайте