ChatGPT весит гигабайты. Llama 70B — почти 140 гигабайт. Но что там внутри? Не код — он занимает мегабайты. Основной объём — это веса модели. Именно в них хранится всё, что нейросеть «знает». Веса (weights) — это числа. Миллиарды чисел.
Каждое число определяет силу связи между «нейронами» в нейросети. Именно эти числа модель «выучивает» во время тренировки.
Но что именно хранится в этих гигабайтах? Аналогия: Представьте мозг человека. В нём ~86 миллиардов нейронов, связанных между собой. Сила каждой связи определяет, как мы думаем. Веса нейросети — это сила связей между её «нейронами». Веса появляются в результате обучения:
1. 📚 Модели показывают огромное количество текстов
2. 🔄 Она пытается предсказать следующее слово
3. ❌ Ошибается — веса корректируются
4. ✅ Угадывает — веса закрепляются
5. 🔁 Повторяем миллиарды раз Аналогия: Это как прокладывание тропинок в лесу. Идёте часто — тропинка становится дорогой. Идёте редко — зарастает. Сейчас покажу на примере. Почти.
• Параме