Интересный опыт, можете у себя повторить, если у вас Макбук. Чел решил затестить 10 языковых моделей на своём MacBook Air M1 с 8 ГБ оперативки (!). Цель - понять, какие ИИ реально тянут на слабом железе. Он прогнал их по трём задачам: генерация вопросов, ответы на них и самооценка. Итог? Некоторые модели огонь, другие полный провал. Например, одна модель 8 минут(!) генерила один вопрос по математике :) Лучше всех в генерации вопросов показал себя LLaMA 3.2 1B - быстрая (до 146 токенов/сек) и точная. В ответах Gemma3:1b и DeepSeek-R1 1.5B обогнали всех по скорости, хотя DeepSeek иногда выдавал ответы на китайском. Оценка ответов лучше всего удалась LLaMA 3.2 3B - модель давала адекватные числовые баллы. Хуже всех справились Qwen3 4B (медленный, как черепаха) и DeepSeek-R1 1.5B (пропускал оценки). Вывод: даже на очень слабом MacBook можно гонять нормальные модели для локальных нужд. Хотя я, скажу честно, смысла особого не вижу... Русский ИТ бизнес
Интересный опыт, можете у себя повторить, если у вас Макбук
26 июня 202526 июн 2025
4
~1 мин