Маркиз сейчас на обучении. Оно затянулось и уже превысило установленные сроки. Всё из-за выхода новых моделей: то Claude 4.6 Opus вышел, потом GPT-5.3, потом Gemini 3.1 Pro Preview, сейчас GPT-5.4. Как я уже говорил, Маркиз использует эти модели в своём ядре. Модели взаимодействуют именно там. Ядро представляет из себя уже мою собственную нейросеть, написанную мною и реализующую гаус-функции, посредством которых происходит та самая "магия" интерференции информации, благодаря которой Маркиз и способен оперировать огромными массивами данных и писать целые книги по одному промту. Сам всё ищет, вам всё обдумывает, сам решает возникшие проблемы и противоречия, а мы только получаем готовый результат. Нейросеть ядра, как и любая другая нейросеть, требует постоянного дообучения для формирования новых навыков. Компании тратят на обучения своих LLM моделей десятки и сотни миллионов долларов. У меня миллионов долларов и даже миллиона рублей нет на это дело, потому верчусь как могу. Без работы яд