Найти в Дзене

Нужны ли ИИ огромные дата-центры? EPFL предлагает альтернативу облачной модели

Стремительный рост использования искусственного интеллекта за последние три года сделал ИИ ключевым инструментом для работы с конфиденциальными данными — от медицинских карт и клиентских запросов до внутренних корпоративных документов. Однако доминирующая сегодня модель ИИ-сервисов по-прежнему опирается на облачную инфраструктуру и гигантские дата-центры, находящиеся под контролем ограниченного круга технологических корпораций. Исследователи EPFL (Швейцарская высшая техническая школа Лозанны) утверждают, что такая архитектура не является неизбежной — и представили программное решение, способное радикально изменить представление о том, где и как должен работать ИИ. Как работает ИИ сегодня В типичном сценарии пользователь формирует запрос локально, после чего данные отправляются в облако, где мощное серверное оборудование выполняет вывод (inference) и возвращает результат. Именно этот этап, а не обучение моделей, по оценкам экспертов, потребляет до 80–90% всей вычислительной мощности, св

Стремительный рост использования искусственного интеллекта за последние три года сделал ИИ ключевым инструментом для работы с конфиденциальными данными — от медицинских карт и клиентских запросов до внутренних корпоративных документов. Однако доминирующая сегодня модель ИИ-сервисов по-прежнему опирается на облачную инфраструктуру и гигантские дата-центры, находящиеся под контролем ограниченного круга технологических корпораций.

Исследователи EPFL (Швейцарская высшая техническая школа Лозанны) утверждают, что такая архитектура не является неизбежной — и представили программное решение, способное радикально изменить представление о том, где и как должен работать ИИ.

Как работает ИИ сегодня

В типичном сценарии пользователь формирует запрос локально, после чего данные отправляются в облако, где мощное серверное оборудование выполняет вывод (inference) и возвращает результат. Именно этот этап, а не обучение моделей, по оценкам экспертов, потребляет до 80–90% всей вычислительной мощности, связанной с ИИ.

В результате обучение и эксплуатация крупных языковых моделей — таких как ChatGPT, Gemini или Claude — сосредоточены в масштабных дата-центрах, что усиливает:

  • зависимость от облачных провайдеров;
  • риски утечки и повторного использования данных;
  • энергопотребление и водную нагрузку;
  • вопросы технологического и цифрового суверенитета.

Plug-and-play распределённый ИИ

Исследователи EPFL — Готье Ворон, Джеовани Ризк и Рашид Геррауи из Лаборатории распределённых вычислений (DCL) — разработали программное обеспечение Anyway Systems, которое позволяет запускать крупные открытые модели ИИ полностью локально, без передачи данных в облако.

Система автоматически объединяет несколько машин в локальной сети в отказоустойчивый вычислительный кластер, используя методы самостабилизирующихся распределённых вычислений. Установка занимает около 30 минут и не требует специализированного персонала.

Ключевая особенность — возможность развертывания очень крупных моделей (вплоть до сотен миллиардов параметров) на нескольких стандартных GPU, вместо дорогостоящих серверных стоек.

По утверждению разработчиков, модель масштаба GPT-120B может быть развернута на четырёх обычных машинах с одним GPU каждая (примерно по 2300 CHF за карту), вместо специализированного оборудования стоимостью около 100 000 CHF.

Конфиденциальность, суверенитет и устойчивость

Отказ от облака напрямую решает сразу несколько системных проблем:

  • конфиденциальность — данные не покидают локальную инфраструктуру;
  • суверенитет ИИ — контроль над моделями, алгоритмами и данными остаётся у организации или государства;
  • устойчивость — снижается потребность в масштабировании энергоёмких дата-центров.

Как подчёркивает профессор Рашид Геррауи, Even though распределённая архитектура может приводить к небольшому росту задержек ответа, точность моделей не страдает, что было подтверждено в пилотных тестах.

От блокчейна — к ИИ

Интересно, что базовые алгоритмы Anyway Systems изначально разрабатывались для других областей — в частности, для блокчейн-систем и криптовалют, где отказоустойчивость и децентрализация критически важны. Три года назад команда DCL адаптировала эти принципы к машинному обучению — и, по их словам, получила «почти идеальное совпадение задач и методов».

Поддержка и первые внедрения

Стартап Anyway Systems был отобран одним из первых получателей гранта программы Startup Launchpad AI Track, поддерживаемой UBS. Сейчас платформа проходит тестирование в компаниях и государственных структурах по всей Швейцарии, включая сам EPFL.

Пользователи оценивают компромиссы между скоростью, качеством и экономией ресурсов, а также потенциал масштабирования.

Профессор Давид Атиенца, заместитель вице-президента EPFL по исследовательским платформам, отмечает, что устойчивый подход Anyway Systems хорошо вписывается в стратегию университета по снижению ресурсной нагрузки при внедрении новых LLM-моделей, включая Apertus.

Почему это не Google AI Edge

Разработчики подчёркивают принципиальное отличие от решений вроде Google AI Edge. Последние ориентированы на запуск небольших моделей на одном устройстве и не поддерживают распределённое выполнение крупных LLM в масштабе организации.

Аналогично, популярные инструменты для локального запуска LLM (Llama, msty.ai и др.) обычно работают на одной машине, создавая единичную точку отказа и требуя дорогостоящего «серверного» железа для масштабирования.

Anyway Systems решает эти проблемы автоматически: отказ узлов, их отключение или добавление происходят прозрачно для пользователя, влияя лишь на задержку ответа.

Взгляд вперёд: ИИ у себя дома

Пока система не предназначена для работы на одном домашнем ноутбуке, однако разработчики уверены, что история вычислений указывает именно в эту сторону.

По словам Геррауи, в перспективе пользователи смогут:

  • скачивать открытые ИИ-модели;
  • дообучать их на собственных данных;
  • полностью контролировать архитектуру, параметры и поведение ИИ.

И всё это — без участия крупных облачных платформ.

Источник: https://actu.epfl.ch/news/do-we-really-need-big-data-centers-for-ai/

Больше интересного – на медиапортале https://www.cta.ru/