Поддержать в один клик: 1️⃣ Базовое обучение (Pretraining) Модель учится предсказывать следующий фрагмент текста на огромном количестве данных. Подробнее Это фундамент: модель читает триллионы токенов (терабайты данных) и учится языку, фактам, структурам, стилям. Она не «понимает», но выучивает статистику и связи между понятиями. Без этого этапа всё остальное бессмысленно. Да, это математика. 2️⃣ Самообучение / Self-supervised learning Модель учит сама себя, без разметки людьми. Подробнее Никто не говорит «это правильный ответ». Задача формируется автоматически: угадать пропущенное, следующее, перепутанное. Это позволяет обучаться на гигантских объёмах данных почти бесплатно. Масштабирование (Scaling laws) Чем больше модель, данных и вычислений - тем лучше результат (до определённого предела). Подробнее Существуют эмпирические законы (например, Chinchilla): качество растёт предсказуемо при правильном балансе параметры ↔ данные ↔ compute (вычисления). Это инженерная оптимизац