Добавить в корзинуПозвонить
Найти в Дзене

От рулетки до ChatGPT: как цепи Маркова изменили мир

Поэзия, которая взорвала мир 1906 год. Российский математик Андрей Марков анализирует «Евгения Онегина» и выводит формулу: будущее зависит только от настоящего, а прошлое — неважно. Звучит как философия дзен, но это математика. Цепь Маркова — модель, где каждое следующее состояние системы зависит исключительно от текущего, а не от всей истории. Казалось бы, абстракция. Но эта «абстракция» через 40 лет станет основой Манхэттенского проекта. От Пушкина к бомбе 1943 год, Лос-Аламос. Физики бьются над проблемой: как просчитать поведение нейтронов в ядерной реакции? Классические методы не работают — слишком много переменных, слишком сложно. Станислав Улам и Джон фон Нейман вспоминают про цепи Маркова и создают метод Монте-Карло. Идея гениально проста: вместо того чтобы считать все возможные варианты, они запускают тысячи случайных симуляций. Каждая симуляция — это цепь Маркова, где каждое состояние нейтрона зависит только от предыдущего. Агрегируешь результаты — получаешь статистически точ

Математическая модель, придуманная в 1906 году для анализа поэзии Пушкина, запустила ядерную гонку, создала Google и научила нейросети генерировать тексты. История одной формулы, которая стоит за всем, чем вы пользуетесь сегодня.

Поэзия, которая взорвала мир

1906 год. Российский математик Андрей Марков анализирует «Евгения Онегина» и выводит формулу: будущее зависит только от настоящего, а прошлое — неважно. Звучит как философия дзен, но это математика. Цепь Маркова — модель, где каждое следующее состояние системы зависит исключительно от текущего, а не от всей истории.

Казалось бы, абстракция. Но эта «абстракция» через 40 лет станет основой Манхэттенского проекта.

От Пушкина к бомбе

1943 год, Лос-Аламос. Физики бьются над проблемой: как просчитать поведение нейтронов в ядерной реакции? Классические методы не работают — слишком много переменных, слишком сложно. Станислав Улам и Джон фон Нейман вспоминают про цепи Маркова и создают метод Монте-Карло.

Идея гениально проста: вместо того чтобы считать все возможные варианты, они запускают тысячи случайных симуляций. Каждая симуляция — это цепь Маркова, где каждое состояние нейтрона зависит только от предыдущего. Агрегируешь результаты — получаешь статистически точный прогноз.

Бомба сработала. Математика Маркова буквально взорвала Хиросиму.

Как цепи научили Google читать ваши мысли

Перемотка на 50 лет вперёд. 1998 год, гараж в Кремниевой долине. Ларри Пейдж и Сергей Брин придумывают PageRank — алгоритм, который оценивает важность веб-страниц. В его основе — марковская цепь.

Логика та же: состояние системы (ваше положение в интернете) зависит только от того, где вы сейчас, а не от всего пути. Пользователь кликает по ссылке — переходит в новое состояние. Через миллион таких переходов вырисовывается карта «важности» страниц. Страницы, на которые чаще всего приходят случайные блуждающие пользователи — самые авторитетные.

Google стал монополистом не потому, что у них крутые серверы, а потому что они первыми применили цепи Маркова для ранжирования веба. Остальные искали по ключевикам — Google моделировал поведение людей.

От поиска к генерации: нейросети как марковские машины

А теперь самое интересное.

Все современные языковые модели — GPT, Claude, Gemini — это усложнённые потомки цепей Маркова. Базовая идея не изменилась: следующее слово в предложении зависит от предыдущих слов, но не от всей истории вселенной. Только вместо простой вероятности «после А идёт Б» нейросети учитывают контекст на миллиарды параметров.

Когда вы набираете промпт в Сабка ПРО (которая агрегирует несколько топовых моделей), за кулисами работает усложнённая версия той самой формулы 1906 года. Модель «блуждает» по пространству возможных ответов, как нейтрон в реакторе или пользователь по ссылкам Google, и методом Монте-Карло выбирает наиболее вероятную последовательность токенов.

Марков предсказывал буквы в «Онегине». ChatGPT предсказывает ваши мысли.

Почему это важно именно сейчас

Теоретически, вы можете самостоятельно освоить промпт-инженерию, разобраться в архитектуре трансформеров и научиться «управлять» марковскими цепями внутри нейросети. Практически — на это уйдут месяцы, а результат всё равно будет хуже, чем у профессиональных платформ.

Недавний эксперимент в Sabka Pro показал интересную вещь: когда один и тот же запрос прогоняешь через три модели одновременно (мультичат), получаешь не три похожих ответа, а три разные «траектории блуждания» по пространству вероятностей. И часто самое ценное — это именно различия, неочевидные паттерны, которые одна модель увидела, а другая пропустила.

Марков искал закономерности в стихах. Физики — в ядерных реакциях. Google — в поведении миллиардов пользователей. А современные ИИ находят закономерности в триллионах текстов и переводят их в конкретную пользу: контент-план за 15 минут, анализ конкурентов без зубодробительных таблиц, редактуру текста, которая не убивает авторский стиль.

Главный парадокс Маркова

Цепи Маркова работают, потому что забывают прошлое. Но именно это «забывание» создало будущее: атомную энергетику, интернет-поиск, генеративный ИИ.

Мы живём в мире, где случайность стала предсказуемой, а предсказания — случайными. Формула столетней давности до сих пор определяет, какой пост вы прочтёте в ленте, какой текст сгенерирует нейросеть, и даже — страшно подумать — куда полетит следующий нейтрон в реакторе.

Хорошая новость: теперь вам не нужно быть Марковым, чтобы использовать его наследие. Плохая — ваши конкуренты это уже поняли.

Наука
7 млн интересуются