С тех пор как чуть более года назад Microsoft запустила своего чат-бота с искусственным интеллектом (ИИ) Copilot (впервые известного как Bing Chat), компания предупреждала, что может предлагать неправильные или даже странные ответы на вопросы.Umteh.com
Хотя Microsoft установила защитные ограждения, чтобы избежать подобных реакций, похоже, что некоторые пользователи нашли способы превратить Copilot в злую версию самого себя из Зеркальной Вселенной.Umteh.com
Портал Windows Central сообщает, что, согласно публикация в ветке Reddit и в соцсетях, определённое текстовое сообщение может вызвать переход с Copilot на так называемый SupremacyAGI.Umteh.com
Очевидно, что подсказка вызвала у ИИ то, что люди в индустрии генеративного искусственного интеллекта называют «галлюцинацией», а все остальные могли бы просто назвать это «странным».Umteh.com