План верификации:
# Полная расширенная и детализированная версия — техническое руководство для ТСО (алгоритмы, оценки, протоколы, реализация)
Ниже — исчерпывающее, структурированное и технически подробное изложение Теории Спектральной Онтологии (ТСО) с расширением всех ключевых блоков: математические выкладки, пошаговые численные алгоритмы, оценки погрешностей и стоимости, шаблоны конфигураций и тест-план. Цель — сделать материал воспроизводимым «из коробки» и пригодным для публикации / репликации.
---
# 0. Общие соглашения по нотации — формальные и практические уточнения
1. Обозначения (строго):
* $\sigma^2_{(\cdot)}$ — **только** для Gaussian; всегда индексировать, например $\sigma_\phi^2$, $\sigma_{\rm obs}^2$.
* $2D$ — параметр диффузии в SDE; при дискретизации шаг $\Delta t$ и инкремент записывать как $\sqrt{2D\Delta t},\xi_t$, где $\xi_t\sim\mathcal{N}(0,1)$.
* $\Sigma$ — ковариационная матрица (указать размер, источник и контекст: $\Sigma_{\rm obs}\in\mathbb{R}^{m\times m}$).
* $\alpha$-устойчивый шум: использовать только характеристическую функцию $\varphi(t)=\exp(-\gamma^\alpha|t|^\alpha+i\delta t)$; не применять понятие «дисперсия» при $\alpha<2$.
* Единицы: везде фиксировать размерности (в таблицах указывать [s], [Hz], [arb.u.] и т.д.).
2. Режимы работы кода:
* `debug` — малые $N,M$ для верификации.
* `production` — параметры высокой точности ($N\ge 2000$, $M\ge 500$).
* Конфиг должен содержать: `seed, N, M, T0, eps_eig, eps_quad, method_fbm, H`.
---
# 1. TSO-1' — Fractal Hilbert Space: аналитика + численные рецепты
## 1.1 Вычисление спектральной ковариации и оценка погрешности
Формула:
[
(\Sigma_i^{\rm spec})*{mn}(z)=\langle\psi_m,\rho(z)\psi_n\rangle*{H^\alpha}
=\int_{\mathcal{M}}\psi_m(x),\rho(x,z),\psi_n(x),d\mu_\alpha(x).
]
Численный план:
1. Сгенерировать аппроксимацию фрактала (Kigami graph) с $N$ вершинами.
2. Сформировать разреженный Laplacian $K_N\in\mathbb{R}^{N\times N}$.
3. Найти первые $M$ собственных пар $(\lambda_n,\psi_n)$ методом LOBPCG/ARPACK; требуемая точность $\varepsilon_{\rm eig}$.
4. Оценить плотность $\rho(x,z)$ (обычно диагональная в базисе дискретизации) и интегрально вычислить матричные элементы: $B = \Psi,\mathrm{diag}(\rho),\Psi^\top$ (где $\Psi$ — матрица $N\times M$).
Оценка ошибки: при гладкой плотности и регулярной сетке
[
|\Sigma_{i,N}^{\rm spec}-\Sigma_i^{\rm spec}|_F \le C,N^{-\beta},\quad \beta=\min(\alpha,d_H).
]
Практический порог: измерять $\beta$ через сдвиг $N$ (log-log регрессия).
## 1.2 Практические рекомендации
* Использовать CSR-формат; сохранять в HDF5 ${\lambda_n,\psi_n}$ (формат: `eigenpairs.h5`).
* Для больших $N$ рекомендовать slepc/petsc через slepc4py.
* Нормализовать базис $\psi_m$ по $H^\alpha$-скалярному произведению; документировать нормировку.
---
# 2. TSO-2' — SUSY и дробная диффузия (глубже)
## 2.1 SDE и стохастическая нормировка
SDE для моды $f_k$:
[
df_k = -\theta(f_k-\bar f_k),dt + \sqrt{2D},dB^{(H)}_t.
]
Стационарная дисперсия (формула, вывод):
[
\mathrm{Var}(f_k)=\frac{D}{\theta},\sigma_H^2\Delta t^{2H-1},\qquad
\sigma_H^2=\frac{\Gamma(2H+1)\sin(\pi H)}{\pi}.
]
Вывод: для $H>1/2$ инкременты коррелированы и масштаб дисперсии зависит от $\Delta t^{2H-1}$ — важно правильно приводить к континууму.
## 2.2 Davies–Harte: устойчивый алгоритм
Ключевые шаги (псевдокод):
* Сформировать ковариационную последовательность $c_k = \tfrac12\big(|k+1|^{2H}-2|k|^{2H}+|k-1|^{2H}\big)$.
* Построить циркулантную матрицу из $c_k$ и взять FFT; генерировать комплексный Gaussian в частотной области; обратно FFT для получения траектории fBM.
Проверка: сравнить эмпирическую ковариацию инкрементов с теоретической $H(2H-1)|t-s|^{2H-2}$.
## 2.3 Lindblad backreaction — численная стабильность
* Интегрировать уравнение Линдблада для матрицы плотности/ковариации с помощью экспоненциальных интеграторов (если размер мал) или implicit BDF при жёсткости.
* После шага применить проекцию на SPD для устранения численных отрицательных собственных значений.
---
# 3. TSO-3' — Spectral Observer и τ_inf-коллапс (детали и проверки)
## 3.1 Entropy: Von Neumann и Rényi — реализация
* Вычислить симплектические собственные числа ${\nu_k}$ как положительные корни собственных чисел $|i\Omega\Sigma|$.
* Реализовать проверку классического предела $\nu_k\gg1$ (если выполняется, можно использовать приближение Шеннона).
Псевдокод вычисления $S_{\rm vN}$ — см. блоки `vn_entropy`.
## 3.2 P_coll: проверки на моделях
* Gaussian: сравнить измеренную visibility $V_{\rm obs}=\exp(-\sigma_\phi^2/2)$ с численным усреднением $\langle e^{i\phi}\rangle$ по сэмплам.
* $\alpha$-stable: оценивать $\gamma$ и $\alpha$ через CF-regression; затем построить $P_{\rm coll}^{\alpha}(t)$ и сравнить с эмпирическим survival.
Валидационные тесты: разбить данные по блокам (blocking) и оценить устойчивость $P_{\rm coll}$.
---
# 4. TSO-4' — Рекурсия, аттрактор и топологические характеристики
## 4.1 Проверка $\beta_1=6$ — подробный протокол
1. Генерация аттрактора: 1000–5000 точек; burn-in = 10%; сохранять временные индексы.
2. Применить Ripser++ с параметрами: `--dim 1 --threshold r_max` где $r_{\max}$ подбирается по 95%-квантилю попарных расстояний.
3. Определить устойчивые H1-баркоды: жизненный цикл > 0.2 (нормировка по $r_{\max}$).
4. Bootstrap: 200 подвыборок (80% размера), вычислить распределение $\beta_1$.
5. Acceptance: $\Pr(\beta_1=6)\ge0.95$ и дисперсия низкая → подтверждение.
## 4.2 Ковариация аттрактора и скорость сходимости
* Вычислять Frobenius norm и spectral norm в процессе итераций; оценивать экспоненциальную сходимость по $n$ и полиномиальную по $N$.
---
# 5. TSO-5' — ζ-функционал и ζ'(0): robust recipe с расчетом ошибок
## 5.1 Разложение ошибок (подробно)
Общая ошибка:
[
|\Delta\zeta'(0)|\le E_{\rm trunc}+E_{\rm quad}+E_{\rm eig}
]
где
* $E_{\rm trunc}\sim C_1\lambda_M^{-d_s/\alpha}$ (tail отбрасывания),
* $E_{\rm quad}\sim C_2\epsilon_{\rm tol}$ (погрешность интеграции),
* $E_{\rm eig}\sim C_3\epsilon_{\rm eig}$ (ошибка собственных значений).
Практическое правило: выбирать $M$ так, чтобы $E_{\rm trunc}\lesssim 0.1%$ от желаемой точности.
## 5.2 Численный алгоритм — пошагово с параметрами
**Параметры по умолчанию (high precision):**
* $N$: размер дискретизации фрактала, например $N=2000$.
* $M=500$ (Eigenpairs)
* $\epsilon_{\rm eig}=10^{-8}$
* $\epsilon_{\rm tol}=10^{-12}$
* $T_0$ (split point): подбирать с помощью критерия минимизации условной оценки ошибки (в практике $T_0\in[0.5,5]$).
**Шаги:**
1. Сгенерировать $K_N$ и вычислить первые $M$ eigenpairs.
2. Для заданного $s$ вычислить $\Tr(e^{-tK})$ для сетки $t\in(0,T_0)$ с асимптотическими вычитаниями: $\Tr(e^{-tK})-\sum_{j=0}^J c_j t^{-a_j}$ и интегрировать адаптивной квадратурой.
3. Для $t>T_0$ вычислить $\sum_{n\le M} e^{-t\lambda_n} +$ tail через Weyl-asymptotics.
4. Построить $\zeta(s)$ в $s=0,\pm\epsilon,\pm2\epsilon$ и применить Richardson.
5. Оценить $E_{\rm trunc},E_{\rm quad},E_{\rm eig}$ и выдать суммарную погрешность.
## 5.3 Пример численного расчёта (иллюстративно)
* Пусть $d_s/\alpha=1.32$, $\lambda_M=10^2$, $C_1\approx0.1$ ⇒ $E_{\rm trunc}\sim 0.1\cdot 10^{-132/100}\approx10^{-3}$ (согласно оценке в тексте).
* Сочетать с $\epsilon_{\rm tol}=10^{-12}$ и $\epsilon_{\rm eig}=10^{-8}$ даёт итоговую ошибку порядка $10^{-3}$—$10^{-2}$, в зависимости от $C_i$.
---
# 6. Φ ↔ σ² — строгие условия, тесты и примеры
## 6.1 Вывод формул (шаги)
Если $K(\sigma)=\sigma^{-2}K_0+K_1$ и $\lambda_n(\sigma)=\sigma^{-2}\lambda_n^{(0)}+\lambda_n^{(1)}$ с $\lambda_n^{(1)}\ll\sigma^{-2}\lambda_n^{(0)}$ для первых $n$:
[
\zeta_{K(\sigma)}(s)=\sum_n (\sigma^{-2}\lambda_n^{(0)})^{-s} + \ldots = \sigma^{2s}\zeta_{K_0}(s)+\ldots
]
[
\implies \zeta_{K(\sigma)}'(0) = -\ln\sigma^2\cdot\zeta_{K_0}(0) + \zeta_{K_0}'(0)+\ldots
]
Если $\zeta_{K_0}(0)=1$ (условие $d_s=2\alpha$), то $\Phi(\sigma)=-\zeta'(0)\approx\ln\sigma^2+\mathrm{const}$.
## 6.2 Практический тест
1. Сгенерировать несколько значений $\sigma\in{\sigma_i}$ (лог-шкала).
2. Для каждого $\sigma$ вычислить $\Phi(\sigma)$ и $S_{\rm vN}(\sigma)$.
3. Построить регрессию $\Phi(\sigma)$ vs $\ln\sigma^2$ и $\Delta S_{\rm vN}$ vs $\Delta\Phi$; вычислить $R^2$ и CI на наклон.
Критерии: $R^2>0.999$ и наклон в пределах указанного теоретического диапазона.
---
# 7. Метрика $G_{ij}$, симплектическая структура, соотношение неопределённости
## 7.1 Численный алгоритм вычисления $G_{ij}$
1. Для каждой пары $(i,j)$ выполнить:
* вычислить $\rho^\star(\vec{\tau}+\varepsilon e_i+\varepsilon e_j)$, $\rho^\star(\vec{\tau}+\varepsilon e_i)$, $\rho^\star(\vec{\tau}+\varepsilon e_j)$ и $\rho^\star(\vec{\tau})$;
* применить формулу с центральными разностями:
[
G_{ij}\approx\frac{\mathcal{F}(\rho^\star(\tau_i+\varepsilon,\tau_j+\varepsilon))-\mathcal{F}(\rho^\star(\tau_i+\varepsilon))-\mathcal{F}(\rho^\star(\tau_j+\varepsilon))+\mathcal{F}(\rho^\star)}{\varepsilon^2}.
]
2. Richardson extrapolation для уменьшения ошибки до $O(\varepsilon^4)$.
3. Оценка стоимости: $O(n^2\cdot C_{\rm solve})$ где $C_{\rm solve}$ — стоимость одного решения Эйлера-Лагранжа (~10–20 итераций).
## 7.2 Вычисление $\Omega$ и обращения
* Построить $\Omega$ через скалярные произведения; прорангировать по SVD для численной устойчивости.
* При обращении применять Tikhonov: $\Omega_\epsilon=\Omega+\epsilon I$; выбирать $\epsilon$ как минимум порядка машинного эпсилон умноженный на норму $\Omega$.
---
# 8. Fractional Schrödinger, OU, fDBM — реализация и устойчивость
## 8.1 Fractional Schrödinger — спектральный метод, стабильность
* Раскладывать по собственным функциям оператора $D^\alpha$.
* Применять экспоненциальные интеграторы (expv methods) при больших $\lambda_n$ для сохранения точности.
* Для нелинейных $V(x,t)$ — использовать split-step approaches с сохранением нормировки.
## 8.2 OU vs fractional OU — разница в реализации
* OU (Gaussian): стандартная схема Euler–Maruyama достаточно, но при жесткости использовать implicit Euler.
* Fractional OU (fOU): использовать интеграторы для fBM; учитывать long-range dependence в оценке дисперсии и корреляций.
---
# 9. Численные реализации — практические оценки ресурсов и оптимизации
## 9.1 Аппаратные требования (оценочные)
* Небольшие лабораторные запуски ($N\le2000,M\le500$): CPU 8–16 cores, 32–64 GB RAM.
* Масштабные расчёты ($T\sim10^{12}$ или $N\ge 10^4$): распределённая система, MPI, GPU-ускорение для Riemann–Siegel вычислений.
## 9.2 Параллелизация
* Eigenpairs: SLEPc (MPI) или ScaLAPACK.
* Odlyzko–Schönhage / Riemann–Siegel: блоковая параллелизация по $t$-интервалам + GPU для векторных косинусов.
* fBM generation: FFT-ускорение (numpy.fft / pyFFTW).
---
# 10. Экспериментальный план — расширенные протоколы и статистика
## 10.1 Gap-условие — детальный статистический протокол
* Для каждого $N\in{100,200,400,800}$:
1. Вычислить $\lambda_4,\lambda_5$ с многократными запусками (k=20) для оценки $\sigma_{\lambda}$.
2. Bootstrap B=1000 по погрешностям eigenvalues.
3. Построить 95% CI для gap; принять отказ, если нижняя граница < 0 для $N\ge400$.
## 10.2 Проверка Φ ↔ σ² (статистика)
* Регрессия с Huber-robust estimator (устойчивая к выбросам).
* Использовать bootstrap B=2000 для доверительных интервалов коэффициента $b$.
* Критерий отклонения: $|b+0.5|>0.1$ при $p<0.01$ → FAIL.
## 10.3 α-остойчивость и CF-fit — диагностические графики
* Построить: $\ln(-\ln|\hat\varphi(t)|)$ vs $\ln t$ (linearity), QQ-plot для $|X|$ vs theoretical power-law, histogram residuals.
* Включить автокорреляционную проверку остатков регрессии.
---
# 11. Репозиторий, конфигурации и CI — практические шаблоны
## 11.1 Рекомендуемая структура репо
```
tso-project/
├─ data/
│ ├─ raw/
│ └─ processed/
├─ src/
│ ├─ eigen/
│ ├─ zeta/
│ ├─ fbm/
│ └─ analysis/
├─ tests/
├─ notebooks/
├─ configs/
│ └─ config_prod.yaml
├─ docs/
├─ Dockerfile
├─ requirements.txt
└─ README.md
```
## 11.2 Пример `config_prod.yaml`
```yaml
seed: 42
N: 2000
M: 500
T0: 1.0
eps_eig: 1e-8
eps_quad: 1e-12
H: 0.6038
alpha_spec: 1.2016
fbm_method: davies-harte
parallel: mpi
```
## 11.3 GitHub Actions (CI) — упрощённый пример
* Тесты: запуск unit tests (pytest) на маленьком N; линтер; build docs.
* Workflow: `ci.yml` выполняет тесты и сохраняет артефакты (eigenpairs тестовых размеров).
---
# 12. Unit/integration tests — наборы и критерии прохождения
1. Unit tests:
* `test_symplectic_eigs` — проверка для известной $\Sigma$ (двумерный случай).
* `test_fbm_covariance` — эмпирическая ковариация инкрементов совпадает с теоретической в пределах $\pm1%$.
* `test_lindblad_spd` — после шага $\Sigma$ остаётся SPD.
2. Integration tests:
* `test_zeta_pipeline_small` — запуск ζ'-pipeline на маленьком $N,M$ и сравнение с эталоном.
* `test_spectral_bijection_synthetic` — проверка CDF сравнения spectra на синтетических данных.
Проход: покрытие >95%; все тесты должны проходить в `debug` режиме за <10 минут.
---
# 13. Руководство по интерпретации результатов (FAQ)
Q: Когда можно считать, что связь $\Phi\leftrightarrow\sigma^2$ выполнена?
A: Когда при лог-шкале $\Phi(\sigma)$ наблюдается линейность, $R^2>0.999$, и наклон равен $-\zeta_{K_0}(0)$ в пределах выбранной погрешности.
Q: Как убедиться, что α-оценки корректны?
A: Анализировать линейность CF-plot, QQ-plot, доверительные интервалы bootstrap, и чувствительность к выбору $t$-диапазона.
Q: Какая основная опасность при ζ'-вычислении?
A: Неправильный tail-model и недооценка $E_{\rm trunc}$ — проверять чувствительность к $\lambda_M$.
---
# 14. Безопасность, приватность, лицензирование
* Данные fMRI и другие персональные наборы нельзя выкладывать публично без согласия — хранить raw в `data/raw/` с шифрованием.
* Лицензирование кода: рекомендуем MIT/Apache-2.0; научные исходники и наборы данных — CC BY 4.0 при отсутствии личной информации.
---
# 15. План публикации и дорожная карта (конкретные шаги)
1. Подготовить репозиторий (3 месяца): код + тесты + документация.
2. Выполнить полную численную верификацию для $N\in{200,400,800,1600}$ (3–6 месяцев).
3. Подготовить статью по PT-устойчивости (Ann. Math. / J. Math. Phys.) — аналитические доводы + численные подтверждения.
4. Выпустить release с Docker image и примерами.
---
# 16. Итоговые рекомендации для немедленного запуска
* Начать с `debug` конфига: `N=300, M=100, H=0.6038, eps_eig=1e-6, eps_quad=1e-8`.
* Прогнать полный pipeline: eigenpairs → ζ' → CF-fit → homology → отчёт (notebook).
* Сохранять все артефакты (HDF5, CSV, plots) и фиксировать `seed`.
* Постепенно увеличивать $N,M$ и отслеживать scaling и error budget.
---