Сегодня (очень скоро) выложу ролик про запуск локальных моделей — собрал туда всю свою текущую экспертизу и опыт. И мысль, которая у меня последние недели крутится: будущее, кажется, за мелкими моделями под конкретные задачи. Сейчас мы в основном “играем” в большие универсальные LLM, которые должны уметь всё: код, науку, психологию, продажи и т.д. Это как машины с огромным мотором “на все случаи жизни”. А дальше, думаю, будет зоопарк небольших моделей: отдельная под медицину, отдельная под кодинг, отдельная под юр. тексты, отдельная под саппорт — и ничего больше. Причём "ничего больше" тут ключевое: спрашиваешь не по теме — и модель честно говорит "не знаю". Зато в своей нише ориентируется уверенно, даёт полезные ответы и не требует ферму видеокарт. Но это в будущем, а ближайшие пару лет нам предстоить наблюдать видеокарты по 1.5млн, которых надо 10 штук для запуска достаточно умной, умеющей все, модели.