OpenAI признала, что у моделей закрепился странный словесный тик, из-за которого в ответах всплывали goblin, gremlin и прочая нечисть. Самое интересное, что это выросло не из мема, а из настройки личности модели и reward-сигналов. Полный разбор этой странной и очень показательной истории уже на сайте. 🔗 Читать статью полностью