Найти в Дзене

📘 Линейная алгебра в картинках: когда векторы становятся ближе, чем числа

Линейная алгебра часто отпугивает студентов и программистов — слишком много символов, матриц, греческих букв и абстрактных определений. Но статья Адитьи Бхаргавы An Illustrated Introduction to Linear Algebra показывает, что за всей этой математической строгостью скрывается удивительно интуитивный мир, где всё можно буквально увидеть глазами. Автор начинает с простого — задачки про никели и пенни:
сколько нужно монет, чтобы получить 23 цента? 🪙 5x + 1y = 23 Ответ легко проверить — четыре никеля и три пенни.
Так рождается первая идея: линейное уравнение — это не формула, а линия на графике. Но всё становится интереснее, когда таких уравнений несколько.
Тогда на сцену выходит метод Гаусса, который Бхаргава объясняет не сухо, а через «кулинарный пример»:
нужно подобрать комбинацию молока 🥛 и хлеба 🍞, чтобы получить 5 грамм углеводов и 7 грамм белка. В результате:
🥛 3 единицы молока и 🍞 1 единица хлеба дают идеальное соотношение. Метод исключения Гаусса — это не просто школьный алгорит
Оглавление

Линейная алгебра часто отпугивает студентов и программистов — слишком много символов, матриц, греческих букв и абстрактных определений. Но статья Адитьи Бхаргавы An Illustrated Introduction to Linear Algebra показывает, что за всей этой математической строгостью скрывается удивительно интуитивный мир, где всё можно буквально увидеть глазами.

🪙 От монет к векторам

Автор начинает с простого — задачки про никели и пенни:
сколько нужно монет, чтобы получить 23 цента?

🪙 5x + 1y = 23

Ответ легко проверить — четыре никеля и три пенни.
Так рождается первая идея:
линейное уравнение — это не формула, а линия на графике.

Но всё становится интереснее, когда таких уравнений несколько.
Тогда на сцену выходит
метод Гаусса, который Бхаргава объясняет не сухо, а через «кулинарный пример»:
нужно подобрать комбинацию молока 🥛 и хлеба 🍞, чтобы получить 5 грамм углеводов и 7 грамм белка.

В результате:
🥛 3 единицы молока и 🍞 1 единица хлеба дают идеальное соотношение.

🧮 Метод Гаусса в действии

Метод исключения Гаусса — это не просто школьный алгоритм, а элегантный процесс устранения переменных.
Сначала мы переписываем систему уравнений:

🥛 x + 2y = 5
🍞 2x + y = 7

А затем устраняем одну переменную, «вычитая» одно уравнение из другого.
Через пару шагов получаем ответ: x = 3, y = 1.

Бхаргава подчёркивает, что этот метод существовал задолго до Гаусса — его использовали китайские математики ещё 2000 лет назад в трактате “Девять книг об арифметических искусствах”.
Это — один из первых известных примеров
системного мышления, когда множество зависимостей решается шаг за шагом, а не интуитивно.

📈 Две картины: строчная и столбцовая

Затем автор предлагает сменить взгляд.
Можно рассматривать уравнения
построчно (row picture) — как пересечение линий на графике.
А можно
постолбцово (column picture) — как комбинацию векторов.

💡 Это ключевая идея линейной алгебры:
всё, что раньше выглядело как набор чисел,
теперь становится
векторами, которые можно складывать, растягивать и поворачивать.

📊 В строчном представлении — линии пересекаются в одной точке.
🏹 В столбцовом — векторы складываются “на глазах”, пока их сумма не укажет на целевую точку.

Бхаргава демонстрирует это визуально:
вектор «молоко» направлен вверх, вектор «хлеб» — вправо.
Три молока и один хлеб дают целевой вектор [5, 7] — нужный набор питательных элементов.

Источник: https://www.ducktyped.org/p/an-illustrated-introduction-to-linear
Источник: https://www.ducktyped.org/p/an-illustrated-introduction-to-linear

🧠 От интуиции к математике

Когда мы записываем задачу в виде:

x·[1, 2] + y·[2, 1] = [5, 7]

мы, по сути, описываем векторное пространство.
x и y — это веса, с которыми мы комбинируем базисные векторы [1, 2] и [2, 1].

🔢 В программировании это то же самое, что линейная комбинация массивов:
умножаем каждый элемент на коэффициент и складываем поэлементно:

3 * [1, 2] + 1 * [2, 1] = [5, 7]

Именно так работает линейная алгебра во всех ML-фреймворках — от PyTorch до TensorFlow.
То, что визуализирует Бхаргава, буквально лежит в основе нейронных сетей:
матрицы весов — это те самые векторы, просто собранные в большом масштабе.

🧩 Почему это важно

🎨 Иллюстративный подход Бхаргавы делает математику почти тактильной.
Он показывает, что за всеми символами скрыты
геометрические отношения — а линейная алгебра, в сущности, это язык формы и направления.

👾 Именно поэтому она стала сердцем искусственного интеллекта:

  • векторы представляют слова, изображения, звуки;
  • матрицы трансформируют пространство признаков;
  • а методы вроде SVD и PCA — это геометрические “лупы”, которые ищут смысл в данных.

💬 Моё мнение

Как человек, работающий с машинным обучением, я вижу в этой статье не просто вводный урок, а философию ясности: математика не обязана быть страшной. Линейная алгебра — это не про символы, а про движение, соотношение и баланс.

Когда ты видишь, как векторы складываются, чтобы достичь цели,
понимаешь, что это не только про числа — это про архитектуру мышления.

📘 Возможно, именно поэтому лучшие курсы по линейной алгебре (например, лекции Гилберта Странга) не учат вычислять, а учат видеть.

🔗 Источники