В какой-то момент стало очевидно: привычные методы тестирования плохо применимы к AI-системам. Раньше можно было сопоставить вход и ожидаемый результат. Теперь с LLM всё иначе. Ответы вариативны, поведение зависит от контекста, а в случае агентных систем ещё и от цепочки решений, которая формируется прямо в процессе выполнения. Не удивительно, что появляется все больше специализированных инструментов. Сегодня разберем еще один из них - ASQAV SDK. ⚙️ Изучаем поведение ASQAV - open-source SDK для оценки и тестирования AI-приложений. Инструмент прежде всего пригодится там, где используются: ➖языковые модели ➖агенты ➖интеграции с внешними сервисами и данными Его ключевая особенность в смещение фокуса. Он проверяет не «правильность ответа», а устойчивость системы. То есть, как она реагирует на некорректные, провокационные или откровенно вредоносные входные данные. 🔍 Подход ASQAV Инструмент позволяет задавать сценарии, которые можно назвать «стрессовыми» для модели: ➖попытки prompt