Найти тему
Журнал «Эксперт»

OpenAI запустила инструмент для выявления изображений, созданных ее ИИ

   Фото: Growtika/Unsplash
Фото: Growtika/Unsplash

OpenAI запустила инструмент, который позволит выявлять изображения, сгенерированные ее нейросетью DALL-E 3, пишет The Wall Street Journal.

По словам представителей компании-разработчика, точность, с которой новый инструмент выявляет генеративный контент, достигает 98%. В случаях, когда изображение изменено — обрезано, подверглось изменению цвета, либо рассматривается его скриншот, точность определения снижается. В OpenAI ищут решение этих проблем, в том числе открыв инструмент для сторонних исследователей.

В OpenAI также заявили, что присоединяются к отраслевой группе, сформированной Google, Microsoft и Adobe, которая работает над стандартами и нормами, призванными обеспечить отслеживаемость сгенерированного контента.

Дискуссия об ущербе от генерируемой ИИ дезинформации, в том числе от преднамеренных ИИ-фейков в последнее время обострилась на фоне большого числа избирательных кампаний в 2024 г. во всем мире.

«Предвыборная озабоченность абсолютно точно стимулирует эту работу. Это самый важный контекст, о котором мы слышим от политиков», — приводит издание слова Дэвида Робинсона, который в OpenAI отвечает за политическое планирование.

Напомним, в феврале о планах начать маркировать изображения, сгенерированные ИИ других компаний, заявляла Meta (признана в России экстремистской организацией и запрещена).

В начале текущего года Всемирный экономический форум причислил ИИ-фейки к главным глобальным рискам современности, наряду с последствиями глобального потепления, а также политической поляризацией.

Материалы по теме:

Все материалы «Эксперта» на expert.ru