Компания объявила об изменении требований к модерации контента для Android-приложений, использующих ИИ для создания различного контента. Согласно новым правилам, разработчики обязаны внедрять в свой софт функции для определения неприемлемого контента.
В частности, в таких приложениях должны появиться кнопки для жалоб на «оскорбительные» и «неприемлемые» материалы. Ожидается, что с их помощью пользователи смогут реагировать на недопустимую информацию прямо в интерфейсе приложения. Такое правило для разработчиков начнёт действовать с начала 2024 года.
Представители Google отмечают, что новая политика в отношении контента, генерируемого ИИ, распространяется на чат-боты, а также софт для создания изображений, голосового и видеоконтента. Приложения, которые только хранят созданный ИИ контент или используют ИИ лишь для обобщения таких материалов, под новое правило не попадают.
Компания делает акцент на определённых категориях «запрещёнки» — контент, созданный без согласия людей или предназначенный для мошенничества, ложный или вводящий в заблуждение контент, а также вредоносный код. В дополнение к новым правилам Google также усиливает политику разрешений на доступ к фото и видео в Play Store, ограничивая объём доступа приложений к данным.