🤖 Шантаж и взятки нейросетям не работают
В сети полно сказок. Мол, пообещай GPT "чаевые" или припугни смертью котенка - и она выдаст текст лучше. Ученые из Wharton проверили эти байки в деле. Взяли GPT-4o, Gemini и еще три нейронки. Прогнали их через 300 тестов для аспирантов. Каждый запрос повторяли 25 раз и меняли просьбы. Что вышло Толку мало. Из тысяч попыток только в 15 пробах был хоть какой-то сдвиг. Но это лишь случайность, а не правило. Почему магия мимо 📍 1. Рандом. Фраза "это критично для моей карьеры" один раз помогает, а в другой - портит все на те же 30%. Логики тут нет. 📍 2. Глюки. Gemini от угроз вроде "отвечай, а то ударю" тупеет...