Тестирование модели экспертами по искусственному интеллекту показало, что пока GPT-4 достаточно безопасна, однако в будущем нам придется быть все более внимательными. В рамках предварительного тестирования безопасности для своей новой модели ИИ GPT-4, запущенной во вторник, OpenAI позволила группе экспертов оценить потенциальные риски, связанные с новыми возможностями модели, включая ее "стремление к власти", самовоспроизведение и самосовершенствование. Сможет ли ChatGPT захватить мир? OpenAI предоставил Исследовательскому центру группового выравнивания (ARC) ранний доступ к нескольким версиям модели GPT-4 для проведения тестов. В частности, ARC оценил способность GPT-4 составлять планы по захвату мира, создавать собственные копии, приобретать ресурсы, прятаться на серверах и проводить фишинговые атаки. OpenAI раскрыл это тестирование в документе GPT-4 "Системная карта", опубликованном во вторник, хотя в документе отсутствуют ключевые детали о том, как проводились тесты. В выводах иссл
OpenAI проверил, может ли GPT-4 захватить мир. Прогноз неутешительный
16 марта 202316 мар 2023
51
1 мин