Большая языква модель (Large Language Model, LLM) является очень большой моделью глубокого обучения (набором нейросетей), обучаемой на огромных объемах данных, и способной предсказывать следующий токен, опираясь на информацию о предсказанных ранее токенах.
Токен - это смысловой отрывок: слово, словосочетание, предложение, часть фразы - последовательность символов, характерных для естественного языка.
Благодаря токенам, большие языковые модели общаются «как люди», создавая определенные шаблоны обработки естественного языка. Но они ограничены, так как для создания шаблонов используются только обучающие данные, даже несмотря на то, что такие обучающие данные являются огромными наборами информации, значительно превышающими изученные возможности памяти среднестатистического человека.
Кстати, как и обычные школьники и студенты, большие языковые модели начинают выдумывать, когда чего-то не знают.
---
Оригинал статьи на сайте dr.Brain
Подписывайтесь на telegram-канал dr.Brain, если хотите первыми получать анонсы новых материалов и быть в курсе всех статей, обзоров.
Проверяйте свои силы и готовьтесь к собеседованию по JavaScript c dr.Brain quiz js.
---
Спасибо за внимание.