1. Мультимодальность: Большие языковые модели (LLMs) становятся все более мультимодальными, то есть способны обрабатывать и генерировать информацию в различных форматах, включая текст, аудио, изображения и видео. Это позволит им взаимодействовать с пользователем на более естественном уровне.
2. Сближение открытых и закрытых моделей: Разрыв между закрытыми коммерческими моделями (ChatGPT, Claude, Bard) и открытыми моделями с открытым исходным кодом постепенно сокращается. Открытые модели, такие как Code Llama 70B и Mistral AI 8x7B, демонстрируют высокую производительность на стандартных тестах.
3. Расцвет малых языковых моделей: Высокая стоимость обучения и эксплуатации больших LLM ограничивает их применение. Поэтому разрабатываются малые LLM с меньшим количеством параметров, которые могут выполнять задачи менее ресурсоемко. Примеры: Stable LM (1.6 млрд параметров) и Microsoft Phi-2 (2.7 млрд параметров).
4. Снижение стоимости: Разработчики стремятся снизить стоимост