Недавно в интернете было опубликовано открытое письмо, в котором призывалось прекратить на шесть месяцев работы над современными ИИ. Однако разработчики ChatGPT высказали свою официальную позицию и объяснили, что не собираются замедлять темпы развития нейронных сетей.
OpenAI опубликовала ответ на письмо, в котором компания уверяет общественность, что принимает меры для обеспечения безопасности развития ИИ. Разработчики осознают потенциальные риски и уделяют большое внимание тестированию ChatGPT, чтобы выявить его слабые стороны и предотвратить возможность злонамеренного использования. Кроме того, компания привлекает сторонних экспертов для оценки своей работы. OpenAI также сообщает, что сотрудничает с правительствами, чтобы определить наилучший способ регулирования ИИ. Была готова модель GPT-4 еще полгода назад, но в компании проводились дополнительные тесты и оценки, чтобы обеспечить безопасность использования ИИ.
«Невозможно заочно предсказать все положительные и отрицательные способы использования какой-либо технологии, поэтому важно извлекать уроки из её реального применения», — заявили в компании.
По мнению OpenAI, остановка развития нейросетей приведет к ухудшению безопасности ИИ. Компания утверждает, что благодаря тестированию пользователей модель GPT-4 стала на 82% менее склонна к генерации недопустимого контента, чем ее предшественник GPT-3.5.
Кроме того, разработчики обеспокоены конфиденциальностью пользователей и заявляют, что не собирают личные данные, не продают их и не создают скрытые личные профили. Все полученные сведения используются только в обезличенном виде и исключительно для обучения ИИ.
«OpenAI будет проявлять всё большую осторожность в создании и развёртывании более продвинутых моделей, и будет продолжать улучшать меры безопасности по мере развития своих систем искусственного интеллекта», — резюмировали разработчики.
OpenAI ответили на критику, связанную с возможностью выдачи ложной информации ChatGPT, заявив, что основным источником точной информации являются пользователи. Если модель выдаёт недостоверную информацию, разработчики могут внести соответствующие коррективы. В результате этого GPT-4 стала на 40% более точной, чем её предшественница. Остановка развития ИИ приведёт к возрастанию риска распространения дезинформации.
Если тебе понравилось, подпишись! Дальше будет только большие и лучше!