Найти тему
OVERCLOCKERS.RU

OpenAI раскрывает свою концепцию безопасности искусственного интеллекта

Популярность ChatGPT недавно вызвала в технологическом сообществе дискуссию о том, насколько опасен ИИ. Руководители OpenAI, Google и Microsoft уже предупредили об экзистенциальных угрозах, которые могут возникнуть с развитием ИИ.

В недавно опубликованном заявлении OpenAI объявила о своей стратегии по превентивному устранению потенциальных опасностей искусственного интеллекта. Особое внимание уделяется предотвращению рисков, связанных с развитием технологий.

-2

Ключевую роль в этой миссии будет играть так называемая группа готовности, возглавляемая профессором искусственного интеллекта Массачусетского технологического института Александром Мадри. В команду войдут исследователи ИИ, учёные-компьютерщики, эксперты по национальной безопасности и эксперты по политике, которые будут работать вместе, чтобы следить за развитием искусственного интеллекта и предупреждать OpenAI о появлении потенциальных угроз.

Эта группа работает с командой систем безопасности, которая занимается решением существующих проблем, таких как предотвращение расовых предубеждений в ИИ, и командой Superalignment. Она изучает, как ИИ будет работать, когда превзойдет человеческий интеллект.

Концепция безопасности OpenAI включает оценку рисков по четырём основным категориям: кибербезопасность, ядерная, химическая, биологическая угроза, убеждение и автономия модели. Затем каждой категории присваивается рейтинг на основе конкретных критериев по шкале от «низкой» до «критической». Эта модель предназначена для применения до и после реализации мер безопасности.

OpenAI со своей концепцией безопасности обещает ответственно продвигать разработку ИИ, одновременно контролируя существующие и будущие риски.

📃 Читайте далее на сайте