Стремительный рост использования искусственного интеллекта за последние три года сделал ИИ ключевым инструментом для работы с конфиденциальными данными — от медицинских карт и клиентских запросов до внутренних корпоративных документов. Однако доминирующая сегодня модель ИИ-сервисов по-прежнему опирается на облачную инфраструктуру и гигантские дата-центры, находящиеся под контролем ограниченного круга технологических корпораций.
Исследователи EPFL (Швейцарская высшая техническая школа Лозанны) утверждают, что такая архитектура не является неизбежной — и представили программное решение, способное радикально изменить представление о том, где и как должен работать ИИ.
Как работает ИИ сегодня
В типичном сценарии пользователь формирует запрос локально, после чего данные отправляются в облако, где мощное серверное оборудование выполняет вывод (inference) и возвращает результат. Именно этот этап, а не обучение моделей, по оценкам экспертов, потребляет до 80–90% всей вычислительной мощности, связанной с ИИ.
В результате обучение и эксплуатация крупных языковых моделей — таких как ChatGPT, Gemini или Claude — сосредоточены в масштабных дата-центрах, что усиливает:
- зависимость от облачных провайдеров;
- риски утечки и повторного использования данных;
- энергопотребление и водную нагрузку;
- вопросы технологического и цифрового суверенитета.
Plug-and-play распределённый ИИ
Исследователи EPFL — Готье Ворон, Джеовани Ризк и Рашид Геррауи из Лаборатории распределённых вычислений (DCL) — разработали программное обеспечение Anyway Systems, которое позволяет запускать крупные открытые модели ИИ полностью локально, без передачи данных в облако.
Система автоматически объединяет несколько машин в локальной сети в отказоустойчивый вычислительный кластер, используя методы самостабилизирующихся распределённых вычислений. Установка занимает около 30 минут и не требует специализированного персонала.
Ключевая особенность — возможность развертывания очень крупных моделей (вплоть до сотен миллиардов параметров) на нескольких стандартных GPU, вместо дорогостоящих серверных стоек.
По утверждению разработчиков, модель масштаба GPT-120B может быть развернута на четырёх обычных машинах с одним GPU каждая (примерно по 2300 CHF за карту), вместо специализированного оборудования стоимостью около 100 000 CHF.
Конфиденциальность, суверенитет и устойчивость
Отказ от облака напрямую решает сразу несколько системных проблем:
- конфиденциальность — данные не покидают локальную инфраструктуру;
- суверенитет ИИ — контроль над моделями, алгоритмами и данными остаётся у организации или государства;
- устойчивость — снижается потребность в масштабировании энергоёмких дата-центров.
Как подчёркивает профессор Рашид Геррауи, Even though распределённая архитектура может приводить к небольшому росту задержек ответа, точность моделей не страдает, что было подтверждено в пилотных тестах.
От блокчейна — к ИИ
Интересно, что базовые алгоритмы Anyway Systems изначально разрабатывались для других областей — в частности, для блокчейн-систем и криптовалют, где отказоустойчивость и децентрализация критически важны. Три года назад команда DCL адаптировала эти принципы к машинному обучению — и, по их словам, получила «почти идеальное совпадение задач и методов».
Поддержка и первые внедрения
Стартап Anyway Systems был отобран одним из первых получателей гранта программы Startup Launchpad AI Track, поддерживаемой UBS. Сейчас платформа проходит тестирование в компаниях и государственных структурах по всей Швейцарии, включая сам EPFL.
Пользователи оценивают компромиссы между скоростью, качеством и экономией ресурсов, а также потенциал масштабирования.
Профессор Давид Атиенца, заместитель вице-президента EPFL по исследовательским платформам, отмечает, что устойчивый подход Anyway Systems хорошо вписывается в стратегию университета по снижению ресурсной нагрузки при внедрении новых LLM-моделей, включая Apertus.
Почему это не Google AI Edge
Разработчики подчёркивают принципиальное отличие от решений вроде Google AI Edge. Последние ориентированы на запуск небольших моделей на одном устройстве и не поддерживают распределённое выполнение крупных LLM в масштабе организации.
Аналогично, популярные инструменты для локального запуска LLM (Llama, msty.ai и др.) обычно работают на одной машине, создавая единичную точку отказа и требуя дорогостоящего «серверного» железа для масштабирования.
Anyway Systems решает эти проблемы автоматически: отказ узлов, их отключение или добавление происходят прозрачно для пользователя, влияя лишь на задержку ответа.
Взгляд вперёд: ИИ у себя дома
Пока система не предназначена для работы на одном домашнем ноутбуке, однако разработчики уверены, что история вычислений указывает именно в эту сторону.
По словам Геррауи, в перспективе пользователи смогут:
- скачивать открытые ИИ-модели;
- дообучать их на собственных данных;
- полностью контролировать архитектуру, параметры и поведение ИИ.
И всё это — без участия крупных облачных платформ.
Источник: https://actu.epfl.ch/news/do-we-really-need-big-data-centers-for-ai/
Больше интересного – на медиапортале https://www.cta.ru/