Найти в Дзене

Нашёл интересную историю на Хабре: человек арендовал квартиру в Калининградской области, поставил туда Starlink и построил канал связи до

своей основной площадки в центральной России. По сути — вынесенная точка доступа + туннель и централизованная маршрутизация. Эксперимент получился недешёвым: около 400 тыс. рублей на старт и порядка 40 тыс. рублей ежемесячно. Мне подобная идея тоже приходила в голову, но из-за стоимости так и не дошёл до реализации. Зато своя схема, поднятая ещё в 2022 году, у меня работает стабильно уже несколько лет. Коротко про архитектуру: 1. Два узла в России — основной и резервный, к ним подключаюсь я и семья со всех устройств. 2. Один узел в Европе — как внешний выход для части сервисов и задач, где нужен другой периметр/маршрут. 3. Резервный узел в СНГ — на случай, если европейская площадка становится недоступной. Как это устроено: 1. В кластере моих баз данных есть общая база/контур управления, который “знает” про все узлы и политики. 2. Я подключаюсь к одному из российских узлов, а дальше трафик распределяется автоматически: основная часть идёт через российские узлы, часть — через внешние

Нашёл интересную историю на Хабре: человек арендовал квартиру в Калининградской области, поставил туда Starlink и построил канал связи до своей основной площадки в центральной России. По сути — вынесенная точка доступа + туннель и централизованная маршрутизация. Эксперимент получился недешёвым: около 400 тыс. рублей на старт и порядка 40 тыс. рублей ежемесячно.

Мне подобная идея тоже приходила в голову, но из-за стоимости так и не дошёл до реализации. Зато своя схема, поднятая ещё в 2022 году, у меня работает стабильно уже несколько лет.

Коротко про архитектуру:

1. Два узла в России — основной и резервный, к ним подключаюсь я и семья со всех устройств.

2. Один узел в Европе — как внешний выход для части сервисов и задач, где нужен другой периметр/маршрут.

3. Резервный узел в СНГ — на случай, если европейская площадка становится недоступной.

Как это устроено:

1. В кластере моих баз данных есть общая база/контур управления, который “знает” про все узлы и политики.

2. Я подключаюсь к одному из российских узлов, а дальше трафик распределяется автоматически: основная часть идёт через российские узлы, часть — через внешние площадки, и небольшая доля может идти напрямую с устройств (по правилам маршрутизации).

В итоге я живу в одном постоянном профиле подключения 24/7, без ручных переподключений: и доступ к своей инфраструктуре/рабочим ресурсам, и всё остальное — всё управляется из одной точки. И заграничные и российские сервисы мне доступны без переподключений.

За прошедшие годы резервные узлы реально понадобились считанные разы (буквально доли процента), потому что основной контур работает стабильно и предсказуемо. Да, это дороже “типовых решений”, но мне важно другое:

1. стабильные IP и предсказуемая сетевая топология (для интеграций и доступа к объектам);

2. отсутствие ограничений по скорости/объёму в рамках собственных каналов;

3. единый периметр и единые правила доступа не только к интернет-ресурсам, но и к контроллерам/сервисам/мониторингу — то есть это именно инфраструктура, а не “разовая кнопка”.

У автора из статьи решение, конечно, дорогое и сделано скорее как эксперимент, но если этим пользуется группа людей, то в пересчёте на человека в месяц уже выглядит не так пугающе.