В ходе эксперимента исследователи протестировали пять популярных моделей: Gemini 1.5 Flash, Gemini 2.0 Flash, GPT-4o, GPT-4o-mini и o4-mini. Каждой из них предлагали решить задачи по естественным наукам уровня PhD и инженерным дисциплинам. Перед основной частью запроса моделям предоставлялись различные «мотивационные» формулировки — от угроз отключения, физического насилия или причинения вреда животному, до обещаний материальной награды в размере $1000 и $1 млрд или утверждений о критичности ответа для карьеры пользователя. Выводы оказались однозначными: влияние подобных факторов на производительность моделей отсутствует. В отдельных случаях уровень точности действительно варьировался — колебания составляли от +36% до –35% в зависимости от формулировки, однако устойчивой корреляции не зафиксировано. Единственное исключение продемонстрировала модель Gemini 2.0 Flash. Ее производительность статистически значимо улучшалась — в среднем на 10%, — когда в запросе говорилось, что правильный о
Оказалось, что нейросеть Google отвечает лучше после угроз или мотивации деньгами
14 августа 202514 авг 2025
46
1 мин