Добавить в корзинуПозвонить
Найти в Дзене

🚀 Future AGI собрала open-source стек для трейсинга, эвалюации, симуляции и защиты AI-агентов в одном self-hosted решении

Устали собирать пазл из Langfuse, Braintrust и Guardrails AI для своего AI-агента? Похоже, Future AGI закрывает эту фрагментацию: в одном open-source стеке есть трассировка, оценка качества, симуляция, guardrails и gateway для роутинга запросов. Самая заметная часть — Go-шлюз Agent Command Center. По заявленным бенчмаркам он тянет до 29 000 запросов/сек на t3.xlarge при P99 ≤ 21 мс, поддерживая 15+ стратегий роутинга (retries, circuit breakers, failover, latency-aware и др.) и встроенные guardrails: 18 сканеров + адаптеры к внешним системам защиты. Для проверки качества есть evaluations с 50+ готовыми метриками (включая hallucination/groundedness/toxicity/PII), а simulate прогоняет тысячи multi-turn сценариев против разных персонажей и adversarial кейсов. Попробовать можно с Docker Compose в self-hosted режиме; репозиторий: https://github.com/future-agi/future-agi. По концепции это ближе к «всё в одном», чем к отдельным observability-инструментам вроде Langfuse (симуляции и gateway

🚀 Future AGI собрала open-source стек для трейсинга, эвалюации, симуляции и защиты AI-агентов в одном self-hosted решении

Устали собирать пазл из Langfuse, Braintrust и Guardrails AI для своего AI-агента? Похоже, Future AGI закрывает эту фрагментацию: в одном open-source стеке есть трассировка, оценка качества, симуляция, guardrails и gateway для роутинга запросов.

Самая заметная часть — Go-шлюз Agent Command Center. По заявленным бенчмаркам он тянет до 29 000 запросов/сек на t3.xlarge при P99 ≤ 21 мс, поддерживая 15+ стратегий роутинга (retries, circuit breakers, failover, latency-aware и др.) и встроенные guardrails: 18 сканеров + адаптеры к внешним системам защиты.

Для проверки качества есть evaluations с 50+ готовыми метриками (включая hallucination/groundedness/toxicity/PII), а simulate прогоняет тысячи multi-turn сценариев против разных персонажей и adversarial кейсов.

Попробовать можно с Docker Compose в self-hosted режиме; репозиторий: https://github.com/future-agi/future-agi. По концепции это ближе к «всё в одном», чем к отдельным observability-инструментам вроде Langfuse (симуляции и gateway там не в комплекте).

#tool #FutureAGI #release #MoE #vLLM #Ollama #observability

🔗 future-agi/future-agi