Это конец: новое исследование доказывает (https://papers.ssrn.com/sol3/papers.cfm?abstract_id=5375404), что все прикольные промты в духе «я убью сто бабушек, если ты не справишься», угрозы и чаевые больше НЕ РАБОТАЮТ на современные LLM — результат от них настолько незначителен, что его можно списать на статистическую погрешность. Более того — chain of thought (думай шаг за шагом) и все подобные техники тоже больше не эффективны (https://papers.ssrn.com/sol3/papers.cfm?abstract_id=5285532). Авторы советуют не угрожать ИИ, а вместо этого максимально подробно расписывать задачу — чем подробнее описание, тем лучше результат, это аксиома. Фанфакт: единственная моделька, где до сих пор работает давление на жалость — Gemini 2.0 Flash. Она не может устоять перед историями, где чья-то мама болеет раком 😭