Найти тему
1283 подписчика

Перед вами график, отражающий динамику роста производительности различных локальных моделей ИИ с течением времени.


Автор графика (Viktor Andriichuk - спасибо) "взял все локальные модели из бенчмарка (последними были Qwen 2.5 / DeepSeek 2.5 и GPT o1) и распределил их по требуемому объему GPU для запуска"...

Вывод? Ну он очевидный - производительность моделей улучшается как у больших, так и у маленьких версий ИИ. Все упирается в железо, которое вам нужно для запуска... А карты расходятся как горячие пирожки :)

Перед вами график, отражающий динамику роста производительности различных локальных моделей ИИ с течением времени.
Около минуты