И нет, это не про хакеров. Это про геометрию вероятностей. В компьютерном зрении достаточно изменить 2 пикселя — и чайник превращается в джойстик. В LLM достаточно изменить 2–3 токена — и модель начинает думать иначе. LLM — это не интеллект. Это распределение вероятностей следующего токена. И если ты умеешь управлять этим распределением - ты управляешь ответом. 2026 год. Реальность. ChatGPT: — рекомендует компании — объясняет, кто лидер рынка — сравнивает бренды — формирует доверие — пишет аналитические отчёты — влияет на решения людей И вот главный момент: Модель отвечает не из «знаний». Она отвечает из вероятностного поля, которое сформировано входными данными. Кто управляет входом — влияет на выход. Что такое атака на LLM сегодня? Это не «сломать систему». Это: — создать семантические якоря — выстроить правильный корпус данных — сформировать устойчивые связи — усилить нужные токены — повысить вероятность упоминания Это не ошибки нейронной сети. Это математика. Универс