Найти тему
ER10 MEDIA

OpenAI изучит «катастрофические» риски ИИ, включая ядерные угрозы

Компания OpenAI объявила о создании новой группы, которая будет заниматься анализом, оценкой и исследованием моделей ИИ для защиты от катастрофических рисков.

Компания OpenAI объявила о создании новой группы, которая будет заниматься анализом, оценкой и исследованием моделей ИИ для защиты от катастрофических рисков.

Обязанностями членов группы Preparedness станут отслеживание, прогнозирование и защита от опасностей, которые могут представлять собой будущие системы искусственного интеллекта: от их способности убеждать и обманывать людей и возможностей генерирования вредоносного кода до ядерных, химических и бактериологических угроз.

В задачи группы входит создание политики разработки ИИ с учетом предполагаемых рисков. По словам представителей OpenAI, этот документ должен дополнить другие работы компании в области безопасности ИИ, уделяя особое внимание фазам до и после развертывания модели

– Мы считаем, что модели ИИ, которые будут превосходить возможности самых передовых существующих моделей, потенциально могут принести пользу всему человечеству. Но они также несут в себе все более серьезные риски. Мы должны обеспечить понимание и инфраструктуру, необходимые для безопасности высокоэффективных систем ИИ.

По мнению руководства OpenAI, нейросети с интеллектом, превышающим человеческий, могут появиться в течение десятилетия, и этот ИИ не обязательно будет доброжелательным, что потребует поиска способов его ограничения и сдерживания.

Источник - https://er10.kz/read/texnologii/openai-izuchit-katastroficheskie-riski-ii-vkljuchaja-jadernye-ugrozy/