Совсем недавно писал в своем Telegram-канале и предполагал, что скоро появится нейросетевая цензура и будет выявляется текст и контент, созданный нейросетями. В конце также был вопрос — как будут устанавливать факт генерации нейросетью?
Sam Altman, CEO в Open AI сообщил, что у них есть мысли как помочь учителям выявлять текст из ChatGPT (ссылка с таймкодом).
Логично — лучше всех выявлять результат работы продукта смогут сами разработчики продукта. Но интересная мысль в том, что он считает это решением чисто "на сейчас". Потом все равно найдут способы обходить подобные защиты, т.к. нейросети слишком явно двигают процесс создания контента вперед.
Цитата из видео:
There may be ways we can help teachers to detect output or anyone output of like a gpt-like system. Honestly a determined person is going to get around them and I don't think it'll be something Society can or should rely on long term.
We're just in a new world now like generated text is something we all need to adapt to an