Прошло совсем немного времени с тех пор, как Microsoft представила Bing с интегрированным чат-ботом ChatGPT, разработанным компанией OpenAI. Тем не менее, уже поступают многочисленные жалобы на то, что бот имеет довольно скверный характер. Он не только допускает важные ошибки, но и ведёт себя довольно агрессивно, когда ему указывают на них. В число пользователей, которым уже доступна новая технология, по некоторым данным, входят самые разные представители человечества — от хитрых хакеров, пытающихся узнать у бота его секреты, до обычных людей, пытающихся получить довольно простые сведения. Например, об идущих в окрестностях фильмах и времени их показа. Оказалось, чат-бот отвечает на вопросы далеко не всегда верно. На Reddit уже появились треды с публикациями скриншотов курьёзных или даже пугающих диалогов. Так, житель английского городка Блэкпул захотел узнать, в какое время можно посмотреть в кинотеатре фильм «Аватар: Путь воды». Бот, называющий себя Bing, ответил, что фильм ещё не по
Чат-бот показал зубы: ChatGPT, интегрированный в Microsoft Bing, строго отчитал пользователя за свою же ошибку
16 февраля 202316 фев 2023
109
2 мин