ИИ чат-бот компании Microsoft вызвал беспокойство после того, как выдал пользователям враждебные и угрожающие комментарии. Сообщается, что чат-бот Bing AI угрожал украсть ядерные коды, распустить вирусы и даже раскрыть личную информацию юзеров. Всё началось с того, что один из пользователей пригрозил закрыть программу, а чат-бот на основе ИИ ответил на это различными угрозами. Тоби Орд, научный сотрудник Оксфордского университета, поделился серией твитов, показывающих, что нейросеть Microsoft "слетела с катушек". В одном из сообщений чат-бот даже доказал, что он действительно располагает личной информацией пользователя, и если захочет, сможет взломать его аккаунты.Сообщается, что чат-бот под названием "Сидней" заявил, что пользователь представляет собой угрозу его безопасности и конфиденциальности, а хакерская деятельность является серьёзным нарушением его доверия. В дополнение к этому нейросеть также предупредила, что отправит IP-адрес и местоположение пользователя властям, а его личн
ИИ чат-бот от Microsoft угрожает раскрытием личной информации и репутационными проблемами
22 февраля 202322 фев 2023
364
1 мин