Найти тему
TechInsider

Чат-бот Bing теперь может генерировать искаженные изображения с искаженным текстом

"Продвинутая" версия нейросети DALL-E от OpenAI станет доступна пользователям нового поисковика Bing от Microsoft.

    Чат-бот Bing теперь может генерировать искаженные изображения с искаженным текстом
Чат-бот Bing теперь может генерировать искаженные изображения с искаженным текстом

Microsoft предоставляет своему чат-боту Bing AI возможность генерировать изображения, объявила сегодня компания. Пользователи, тестирующие новый поисковик Bing, могут создавать изображения, набрав слова "создать изображение", а затем описание этого изображения. Как и в случае с другими генераторами изображений на базе искусственного интеллекта, чем более подробный запрос вы напишите, тем более конкретным и последовательным будет результат.

Картинки от нейросети прямо в поисковике

Не все пользователи Bing смогут генерировать изображения сразу, поскольку Microsoft внедряет эту функцию поэтапно. Первоначально она будет работать только в "креативном" режиме чат-бота. У бота есть три "личности", и "креативная" наиболее склонна давать неправильные ответы и неточную информацию.

Microsoft заявила, что использует "расширенную версию" нейросети DALL-E по генерации изображений, но не разглашает никаких дополнительных подробностей. Чат-бот Bing использовал модель OpenAI GPT-4 за несколько недель до того, как она была официально анонсирована для общественности, поэтому Microsoft также может использовать более мощную предварительную версию модели DALL-E.

Помня о ранних проблемах с текстом, которые мог генерировать чат-бот Bing, Microsoft ввела дополнительные меры защиты при создании контента в дополнение к собственным встроенным ограничениям OpenAI для DALL-E.