) Токен — это минимальная единица текста для ИИ. Может быть словом, частью слова или знаком препинания. Ваше "Привет!" для модели — два отдельных токена: ["Привет", "!"]. 💻Как это работает технически Токенизатор разбивает текст на токены. Потом модель превращает каждый токен в вектор чисел — эмбеддинг. Так она "понимает" смысл и может генерировать ответ. У разных моделей разные словари токенов. У GPT-4 словарь на 100K токенов, у Claude — свой набор. Поэтому одна фраза может дать 50 токенов в одной модели и 70 в другой. 🗒Контекстное окно Каждая модель имеет лимит контекстного окна — сколько токенов помещается в её «память». Llama 4 Scout вмещает 512K токенов (целую книгу), GPT-5.2 — 128K. Если диалог длинный или вы загрузили большой документ, выбирайте модель с большим окном. 📜 Откуда взялись токены В 1990-х программисты придумали алгоритм Byte Pair Encoding (BPE) для сжатия текстов. Логика простая: если пара символов встречается часто — объединить её в один токен. Например, "с