Компания расширила список возможностей Google Shopping — фирменного сервиса для поиска товаров в интернете. Новая функция на базе ИИ-алгоритма позволяет виртуально примерять одежду на людей с различной комплекцией. Представители компании рассказали журналистам TechCrunch, как это работает.
Если раньше бренды фотографировали одежду на моделях с различной комплекцией, то теперь с помощью новой функции пользователь сам может посмотреть, как сидит та же футболка на любом из представленных людей. При этом модели — настоящие, а не сгенерированные: ИИ только адаптирует одежду под их форму тела.
Сервис основан на генеративных нейросетях Stable Diffusion и DALL-E 2. С их помощью в Google обучили свою нейронную сеть, чтобы она в точности имитировала складки одежды и формы тела женщин с различной комплекцией. Пока виртуальная примерка доступна только в США для некоторых вещей брендов H&M, Anthropologie, LOFT и Everlane. Возможность примерки мужской одежды появится позже в этом году. Дата глобального релиза сервиса ещё не объявлена.
По словам старшего директора по продуктам для потребительских покупок Google Лилиан Ринкон, задача сервиса — сделать так, чтобы при онлайн-покупке одежды человек чувствовал себя так же уверенно, как во время похода в магазин. Сейчас же, по статистике Google, 59% покупателей чувствуют разочарование от одежды, потому что на экране она выглядела не так, как в жизни.