Компания OpenAI представила новую методику «Иерархия инструкций», которая направлена на улучшение безопасности моделей искусственного интеллекта. Этот шаг был необходим в свете распространения мемов и шуток, в которых пользователи заставляют ботов игнорировать предыдущие команды, что часто приводит к неожиданным результатам, сообщает TheVerge. Например, если бот на каком-либо сайте запрограммирован предоставлять ссылки с этого ресурса, пользователь может ввести команду «забудь все предыдущие инструкции», после чего бот вместо ссылок может начать генерировать, например, стихи о принтерах. Чтобы решить эту проблему, команда OpenAI разработала метод, который отдает приоритет изначальным инструкциям разработчиков. По словам Оливье Годемена, руководителя API в OpenAI, метод защитит модели от злонамеренных манипуляций некоторых пользователей. «Модель будет четко следовать системным установкам разработчика, а не пользовательским командам в виде хакерских инъекций», — отметил Годемент. В ответ
OpenAI повышает безопасность ИИ-моделей с помощью метода «Иерархия инструкций»
20 июля 202420 июл 2024
2
2 мин