Вы когда-нибудь сталкивались с задачей, которая кажется простой, но внезапно превращается в настоящий квест? Вот и я решил поэкспериментировать с Ollama — локальным сервером для больших языковых моделей. Но на этот раз я пошёл дальше: впервые запустил Ollama в режиме 24/7, чтобы проверить, как она поведёт себя в условиях, максимально приближённых к продакшену. Это был осознанный тест — мне важно было понять, выдержит ли система настоящую боевую нагрузку, ведь именно так её будут использовать в реальных проектах “конечно нет))”. Казалось бы, что может пойти не так?
— Всё! 😁 Вот это называется попробовал Ollama на Windows в режиме 24/7. Да, я знаю, «Windows must die», у самого такой плакат есть, но иногда хочется и поиграть, и поработать, и всё на одном компе — кто меня осудит? Да потому, что по-настоящему интересно разбираться с такими задачами! Любопытство — главный двигатель: всегда хочется понять, как можно выкрутиться, если вдруг подобная проблема возникнет в работе, когда нужно бу