Когда на прошлой неделе Microsoft представила новую версию своей поисковой системы Bing с интегрированным чат-ботом ChatGPT на основе ИИ, разработанным OpenAI, руководители компании понимали, что рискуют. Зная, что не все ответы нового чат-бота будут точными, его разработчики встроили защиту от пользователей, которые будут пытаться спровоцировать его на странные действия или побуждать к публикации расистских или разжигающих ненависть материалов. Но Microsoft оказалась не совсем готова к тому, что когда пользователи попытаются вовлечь чат-бота в открытые личные беседы, тот поведёт себя неадекватно, начнёт повторяться, делать ошибки и даже выказывать агрессию. Впрочем, эта проблема хорошо известна в мире исследователей, специализирующихся на искусственном интеллекте. Как сообщает The New York Times, сейчас компания работает над ограничениями для новой версии Bing, рассматривая, в том числе, возможность добавления пользователями инструментов для возобновления разговора с чат-ботом или пре
Microsoft готовит дополнительные ограничения для своего ИИ-чат-бота, чтобы избежать ошибок и агрессии
18 февраля 202318 фев 2023
5
2 мин