Найти в Дзене

Векторное мышление: как задавать направление вместо формулировок

Мы привыкли считать, что мышление - это работа со словами.
Чётко сформулировал - получил результат. Ошибся в формулировке - получил неправильный ответ. Работа с большими языковыми моделями (LLM) показывает, что это представление неполное. Куда важнее не что именно ты сказал, а в каком направлении ты указал. Этот способ мышления всё чаще называют векторным. Векторное мышление - это подход, при котором:
смысл представляется не как текст или формула, а как точка или направление в многомерном пространстве признаков. Идея не новая. Она давно используется: Просто теперь она стала заметной на бытовом уровне - через общение с ИИ. Минимум математики (но по делу) Вектор в математике - это не "стрелочка", а упорядоченный набор координат: v = (x₁, x₂, x₃, ..., xₙ)
В ML: Классический пример - косинусное сходство: similarity(v₁, v₂) = (v₁ · v₂) / (||v₁|| · ||v₂||)
Важно следующее: Модели работают с направлением и близостью, а не с формулировками. Отсюда напрямую следует идея векторного мышления. Л
Векторное мышление
Векторное мышление

Мы привыкли считать, что мышление - это работа со словами.
Чётко сформулировал - получил результат. Ошибся в формулировке - получил неправильный ответ.

Работа с большими языковыми моделями (LLM) показывает, что это представление неполное. Куда важнее не что именно ты сказал, а в каком направлении ты указал. Этот способ мышления всё чаще называют векторным.

Векторное мышление - это подход, при котором:
смысл представляется не как текст или формула, а как
точка или направление в многомерном пространстве признаков.

Идея не новая. Она давно используется:

  • в математике,
  • в машинном обучении,
  • в обработке сигналов.

Просто теперь она стала заметной на бытовом уровне - через общение с ИИ.

Минимум математики (но по делу)

Вектор в математике - это не "стрелочка", а упорядоченный набор координат:

v = (x₁, x₂, x₃, ..., xₙ)


В ML:

  • каждый текст - вектор в пространстве размерности сотню или тысяч чисел,
  • близкие по смыслу тексты - близкие векторы,
  • "понимание" = операция над расстояниями и направлениями.

Классический пример - косинусное сходство:

similarity(v₁, v₂) = (v₁ · v₂) / (||v₁|| · ||v₂||)


Важно следующее:

Модели работают с направлением и близостью, а не с формулировками.

Отсюда напрямую следует идея векторного мышления.

Линейное и векторное мышление - принципиальная разница

Линейное мышление

  • мысль = последовательность слов,
  • смысл = точная формулировка,
  • ошибка в словах ломает результат.

Типичный пример:

Почему ИИ меня неправильно понял? Я же чётко написал!


Векторное мышление

  • мысль = область смыслов,
  • слова - лишь приближение,
  • важнее контекст, ограничения и цель.

Здесь ошибка формулировки не критична, если направление задано правильно.

Почему LLM так хорошо демонстрируют эту идею

LLM буквально устроены как:

текст - embedding - операции в векторном пространстве - текст


Они:

  • не знают, что такое "правильный вопрос",
  • не проверяют логику формально,
  • не читают намерение напрямую.

Они ищут ближайшую область смысла.

Поэтому:

  • длинный, но пустой запрос даёт слабый результат,
  • короткий, но насыщенный контекстом - сильный.

Почему фраза "Представь, что ты архитектор backend-системы" работает

С технической точки зрения она:

  • добавляет измерения в вектор запроса:
    - уровень абстракции,
    - тип аргументации,
    - словарь,
    - структуру ответа.

Но сама по себе она почти бесполезна.

Слабый сигнал

Представь, что ты архитектор. Как сделать поиск?


Сильный сигнал

Контекст: backend-сервис, high-load, PostgreSQL, сложные фильтры.
Ограничения: JPA Specification - bottleneck, индексы не решают проблему.
Цель: снизить P95 latency.
Отвечай на уровне архитектурных trade-offs.

Здесь роль - всего лишь одна координата, а не вся мысль.

Пример из разработки: поиск и фильтрация

Линейный запрос

Как оптимизировать поиск в PostgreSQL?


Результат:

  • общие советы,
  • индексы,
  • EXPLAIN,
  • попробуйте materialized view.

Векторный запрос

Сервис каталога товаров.
Фильтрация по 15+ параметрам, часть - в JSONB.
Требование: гибкость фильтров важнее скорости разработки.
Проблема: рост latency при добавлении новых комбинаций.
Ищу архитектурное решение, а не SQL-тюнинг.


Ответ смещается в область:

  • предварительных ID-выборок,
  • разделения query/aggregation,
  • search-layer,
  • денормализации,
  • CQRS.

Это другой класс решений, хотя вопрос формально тот же.

Векторное мышление = работа с ограничениями

Ограничения - это самые сильные координаты вектора.
Фразы вида:

  • "не предлагай X",
  • "без переписывания сервиса",
  • "не для новичков",
  • "без теории",

часто важнее, чем само описание задачи. Почему? Потому что они отсекают целые области смыслового пространства.

Почему примеры сильнее инструкций

Инструкция:

Ответ должен быть структурирован

Слабая.

Пример:

Ответ должен содержать:
- формулировку проблемы
- 2–3 варианта решения
- риски
- рекомендацию

Это:

  • добавляет форму,
  • задаёт порядок,
  • фиксирует уровень детализации.

Фактически - задаёт базис векторного пространства ответа.

Как применять векторное мышление осознанно

1. Думать не "что спросить", а "куда указать"

  • область,
  • уровень,
  • границы.

2. Сначала направление - потом уточнение

Не пытаться сформулировать идеальный вопрос сразу.

Лучше:

  1. задать рамку,
  2. получить приближённый ответ,
  3. скорректировать вектор.

3. Использовать анти-примеры

Фразы "не делай так" часто полезнее, чем "делай вот так".

Векторное мышление - это не про ИИ

ИИ просто сделал этот принцип очевидным.

На практике он:

  • улучшает постановку задач,
  • снижает количество итераций,
  • помогает мыслить на уровне систем, а не деталей.

Хорошие архитекторы, аналитики и тимлиды давно мыслят векторно - просто не называли это так.

Вывод

Векторное мышление - это:

  • мышление направлениями,
  • работа с контекстом и ограничениями,
  • управление смыслом, а не формулировкой.

LLM не научили нас этому. Они просто показали, как именно мы думаем, когда думаем эффективно.