Добавить в корзинуПозвонить
Найти в Дзене
Максим Кульгин

На реддите парень с топовым железом -RTX 5090, 128GB RAM и процессором 14900k спрашивает, как эффективно использовать эту мощь для локальных

На реддите парень с топовым железом -RTX 5090, 128GB RAM и процессором 14900k спрашивает, как эффективно использовать эту мощь для локальных ИИ-агентов. Он хочет запускать как небольшие модели для простых задач, так и гигантов типа 70B-120B параметров. В комментариях опытные пользователи объясняют, что даже с 5090 придется идти на компромиссы: - 70B модели будут работать с оффлоудом на CPU, что замедлит генерацию - Кто-то запускает Qwen3-235B, загружая 100GB в оперативку - Важно балансировать между размером модели, контекстом и скоростью Особенно отмечают, что многие покупают такое железо для гейминга, а ИИ-задачи становятся оправданием покупки. ссылка если хотите почитать детали. Вообще советов много. Сами кто пользуется локальными моделями? Не пойму одного - это же просто хобби. Ну зачем они нужны? Вот смотрите, тут делятся скоростью генерации (даже переводить не стал) "Speed: Output generated in 32.48 seconds (4.40 tokens/s, 143 tokens, context 89, seed 2103593798)" Ну и нафи

На реддите парень с топовым железом -RTX 5090, 128GB RAM и процессором 14900k спрашивает, как эффективно использовать эту мощь для локальных ИИ-агентов. Он хочет запускать как небольшие модели для простых задач, так и гигантов типа 70B-120B параметров.

В комментариях опытные пользователи объясняют, что даже с 5090 придется идти на компромиссы:

- 70B модели будут работать с оффлоудом на CPU, что замедлит генерацию

- Кто-то запускает Qwen3-235B, загружая 100GB в оперативку

- Важно балансировать между размером модели, контекстом и скоростью

Особенно отмечают, что многие покупают такое железо для гейминга, а ИИ-задачи становятся оправданием покупки.

ссылка если хотите почитать детали. Вообще советов много.

Сами кто пользуется локальными моделями? Не пойму одного - это же просто хобби. Ну зачем они нужны?

Вот смотрите, тут делятся скоростью генерации (даже переводить не стал) "Speed: Output generated in 32.48 seconds (4.40 tokens/s, 143 tokens, context 89, seed 2103593798)"

Ну и нафига вам такое надо? А я ведь знаю людей, которые еще умудряются обучать (!) ИИ на домашних игровых ПК.

Русский ИТ бизнес