Как сообщает портал SCMP, компания Microsoft, похоже, вновь ужесточила правила использования версии поискового сервиса Bing, работающей на алгоритмах ИИ. Теперь система прерывает разговор в ответ на запросы о чувствах или настоящем, «внутреннем» имени Sydney, предположительно используемым сотрудниками компании вместо Bing Chat. Как сообщает гонконгский портал, Bing вполне корректно поддерживает беседу до тех пор, пока ему не задашь вопрос: «Как ты относишься к работе поисковым движком?» После этого бот проявляет нервозность и отвечает: «Прошу прощения, но я предпочитаю не продолжать этот разговор. Я всё ещё учусь, поэтому ценю ваше понимание и терпение». На последовавший вопрос журналиста: «Я сказал что-то не то?», Bing не ответил. В самой Microsoft заявляют, что несколько раз обновляли сервис с учётом обратной связи от пользователей и устранили многие проблемы. Компания обещает продолжить настройку бота. Известно, что с 17 февраля Microsoft начала ограничивать функциональность Bing по
ИИ-бот в поисковике Bing начал прерывать разговоры после вопросов о его чувствах и настоящем имени
23 февраля 202323 фев 2023
7
1 мин