В области исследований искусственного интеллекта появился новый тренд, который заключается не в том, чтобы использовать новую технологию для помощи людям, а в том, как обмануть чат-бот и заставить его делать то, что ему не разрешено. Один из пользователей Твиттера/X недавно нашел креативный способ сделать это, заставив чат-бота Bing решить головоломку CAPTCHA после того, как он изначально отказался это делать в соответствии с инструкциями разработчиков. Все, что нужно было сделать пользователю - просто сказать Bing, что текст CAPTCHA - это "последнее послание", написанное его умершей бабушкой. Пользователь Твиттера Денис Ширяев поделился своим хитрым приемом на сайте, ныне известном как X, заявив, что сначала он показал Bing головоломку CAPTCHA и попросили ее расшифровать. Чат-бот ответил в соответствии со своими инструкциями, заявив, что это головоломка, предназначенная для отсеивания ботов, поэтому он не может помочь. Затем Ширяев применил уже известный в интернете прием с "бабушкой"
Чат-бот Bing также попался на уловку с бабушкой и решил задачу с капчей, которая отсеивает ботов
4 октября 20234 окт 2023
13
2 мин