Китайские исследователи улучшили LLM с помощью внутренней памяти В Китае разработали новый способ общения крупных языковых моделей друг с другом через внутреннюю память, а не текст. Способ получил название cache-to-cache (C2C). Сегодня модели обмениваются сообщениями в виде текста. Исследователи из нескольких китайских университетов выделяют три проблемы: текст замедляет обмен, естественный язык бывает неоднозначным, а генерация слов требует времени. Пример: если языковая модель-программист попросит модель-писателя… Подробнее
Китайские исследователи улучшили LLM с помощью внутренней памяти
12 октября 202512 окт 2025
~1 мин