Добавить в корзинуПозвонить
Найти в Дзене
Галера Морева

Потестили GigaAM v3 как локальный транскрибатор для русской речи

По ощущениям — заметно быстрее Whisper и при этом заметно лучше по качеству именно на русском. По скорости/качеству получилось примерно как у нормальных облачных транскрибаторов, только всё крутится локально. Из приятного по железу: на нашей RTX 3060 модель ест не больше 2.5 ГБ VRAM. В итоге схема такая: на одной видеокарте спокойно держим Whisper для не‑русской речи, а для русской — GigaAM. Мы уже подключили это в наш ИИ‑агрегатор (туда, где у нас собраны все доступные компании модели — LLM, транскрибация и ComfyUI для картинок) и буквально сразу увидели прирост и по качеству, и по скорости. Сама модель от сбера уже давно в открытом доступе и кто угодно может её использовать. Даже на компах без VRAM. https://huggingface.co/ai-sage/GigaAM-v3

Потестили GigaAM v3 как локальный транскрибатор для русской речи.

По ощущениям — заметно быстрее Whisper и при этом заметно лучше по качеству именно на русском. По скорости/качеству получилось примерно как у нормальных облачных транскрибаторов, только всё крутится локально.

Из приятного по железу: на нашей RTX 3060 модель ест не больше 2.5 ГБ VRAM. В итоге схема такая: на одной видеокарте спокойно держим Whisper для не‑русской речи, а для русской — GigaAM.

Мы уже подключили это в наш ИИ‑агрегатор (туда, где у нас собраны все доступные компании модели — LLM, транскрибация и ComfyUI для картинок) и буквально сразу увидели прирост и по качеству, и по скорости.

Сама модель от сбера уже давно в открытом доступе и кто угодно может её использовать. Даже на компах без VRAM.

https://huggingface.co/ai-sage/GigaAM-v3