Накануне японская Rakuten при поддержке правительственной программы GENIAC (METI) анонсировала модель Rakuten AI 3.0 — «700‑миллиардный» MoE‑модуль, который по заявлениям компании должен был стать крупнейшей и «самой сильной» японской LLM. Но сообщество быстро разобрало релиз по кусочкам — и обнаружило, что ядро модели по сути является DeepSeek V3, а Rakuten ограничилась дообучением (fine‑tune) на японских данных и попыткой представить результат как «японскую разработку». Это вызвало шквал возмущения в сети. При проверке репозитория на Hugging Face и в конфигурационных файлах сообщества обнаружили ссылки на архитектуру DeepSeek V3 (идентичные параметры и конфигурация). По словам некоторых исследователей, модель фактически совпадает по основе с DeepSeek (≈671B параметров, с активацией ~37B). В исходной публикации Rakuten не было прямого упоминания DeepSeek. Более того — при первом публичном выкладывании в репозитории, по данным сообщества, был удалён файл лицензии MIT, сопутствовавший D