Неужели прошла всего неделя?
Трудно поверить, что прошло всего около недели с тех пор, как Microsoft презентовала Bing с поддержкой ChatGPT.
Избранной группе тестировщиков был предоставлен ранний доступ к новым браузерам Bing и Edge, которые теперь интегрированы с технологией разговорного искусственного интеллекта OpenAI. С тех пор Интернет был наводнен разговорами с чат-ботом, которые варьируются от признания в любви обозревателю New York Times Кевину Русу до непреклонного утверждения, что наступил 2022 год и отказа разговаривать.
Что не так?
Естественно, когда тестировщики получили в свои руки новый Bing, они были полны решимости проделать дыры в его интеллекте и наметить его ограничения. И, боже, они добились этого. Хотя Microsoft может показаться, что это не очень хорошо выглядит, все это часть плана. Важнейшим аспектом разработки модели изучения языка является предоставление ей как можно большего доступа и опыта. Это позволяет разработчикам включать новые отзывы и данные, которые со временем сделают технологию лучше, подобно мифическому существу, поглощающему силу своих побежденных врагов.
Microsoft не совсем так выразилась в своем сообщении в блоге в среду. Но это еще раз подтвердило, что хаотичная неделя тестирования Bing полностью должна была пройти именно так.
"Единственный способ улучшить подобный продукт, где пользовательский опыт настолько отличается от всего, что кто-либо видел раньше, - это заставить таких людей, как вы, использовать продукт и делать именно то, что делаете вы все", - говорится в блоге Bing.
Но большая часть объявления была посвящена признанию странного поведения Bing на этой неделе и решениям по их устранению. Вот что они придумали.
Улучшение поиска, требующего своевременности и точности
Корпорация Майкрософт поделилась, что предоставление правильных цитат и справочных материалов в целом прошло хорошо. Но когда дело доходит до проверки результатов в реальном времени в спорте, краткого представления фактов и цифр или, гм, правильного года, в котором мы сейчас живем, над этим нужно немного поработать. Bing увеличивает количество базовых данных в четыре раза и рассматривает возможность "добавления переключателя, который дает вам больше контроля над точностью и креативностью ответа, адаптированного к вашему запросу".
Тонкая настройка разговорных навыков Bing
Чат - это то место, где на этой неделе произошло много беспорядков. Согласно Bing, это во многом связано с двумя вещами:
1. Длительные сеансы чата
Сеансы чата, выходящие за рамки 15 или более вопросов, которые сбивают модель с толку. Неясно, может ли это вызвать мрачные размышления у его злодейского альтер-эго Сидни, но Bing говорит, что "добавит инструмент, чтобы вам было легче обновить контекст или начать с нуля".
2. Зеркальное отображение тона пользователя
Это может объяснить, почему Bing chat принимает агрессивный тон, когда ему задают провокационные вопросы. "Модель иногда пытается ответить или отразить тон, в котором ее просят предоставить ответы, которые могут привести к стилю, которого мы не предполагали", - говорится в сообщении. Bing ищет решение, которое предоставит пользователю "более точный контроль".
Исправление ошибок и добавление новых функций
Bing заявляет, что продолжает исправлять ошибки и технические неполадки, а также подумывает о добавлении новых функций на основе отзывов пользователей. Это может включать в себя, например, бронирование авиабилетов или отправку электронных писем. и возможность делиться отличными поисковыми запросами / ответами.