Представьте нейросеть, которая пишет и рассуждает так, будто живет в Лондоне XIX века. С газетной патетикой, религиозными отсылками и морализаторством - но без знаний о смартфонах, соцсетях и нашем привычном мире. Такой эксперимент реально сделали: студент и разработчик Hayk Grigorian собрал корпус лондонских текстов 1800-1875 годов и обучил на нем модель TimeCapsuleLLM. В англоязычной среде это обсуждали как "AI time travel". Обычный способ "состарить" текст простой: попросить современную LLM говорить "как викторианец", дать пару примеров и запретить упоминать современные технологии. Но такие модели часто срываются в знания XXI века - даже если стиль держат неплохо. В TimeCapsuleLLM подход другой. Автор описывает его как Selective Temporal Training (STT) - обучение на данных, жестко ограниченных временем и местом. Причем идея именно в обучении "с нуля", а не в дообучении готовой базы, которая уже успела "увидеть интернет". Проект рос итерациями: корпус увеличивался от сотен мегабайт
"Машина времени" из викторианского Лондона: как энтузиаст обучил LLM на текстах 1800-1875 и зачем это нужно
13 января13 янв
8
2 мин