Найти тему
4pda.to

OpenAI создала инструмент для определения ИИ-текста, но не хочет им делиться

   OpenAI создала инструмент для определения ИИ-текста, но не хочет им делиться
OpenAI создала инструмент для определения ИИ-текста, но не хочет им делиться

По информации издания Wall Street Journal, ссылающегося на собственные источники, OpenAI разработала инструмент, позволяющий с невероятной точностью определить тексты, сгенерированные с помощью её же чат-бота ChatGPT. Однако в компании пока есть сомнения относительно того, стоит ли делать его общедоступным.

-2

По словам источников внутри OpenAI, дебаты относительно целесообразности этого инструмента ведутся в компании уже порядка двух лет, а сам он был готов к выпуску ещё год назад. Указывается, что в компании колебались между приверженностью к прозрачности и желанием привлечь и удержать как можно больше пользователей. Проведённый опрос показал, что порядка трети лояльных пользователей ChatGPT не были в восторге от технологии, которая могла бы определять сгенерированный текст.

Приверженцы этого инструмента в компании уверены, что потенциальная польза от него превышает все доводы тех, кто выступает против. В первую очередь это помогло бы учителям выявлять недобросовестных учеников. Опрос некоммерческой организации Center for Democracy & Technology показал, что порядка 59% учителей средних и старших классов считают, что их ученики используют ИИ при выполнении домашних заданий, что на целых 17% больше по сравнению с прошлым годом.

Суть разработанного инструмента заключается в добавлении в текст «водяных знаков», невидимых человеком, но определяемых фирменной технологией OpenAI. Они бы позволяли определить, что предложенный текст целиком или частично создан с помощью ChatGPT. Внедрит ли компания эту разработку, пока неизвестно.