Найти в Дзене
Новые стандарты питания видеокарт 12VHPWR/12V-2×6: технический анализ проблем безопасности
В современных высокопроизводительных видеокартах применяются мощные разъёмы питания, способные передавать до 600 Вт электрической энергии . Для понимания возникших проблем необходимо рассмотреть принципы распределения токовых нагрузок в многопроводных системах питания. При напряжении 12 В и мощности 600 Вт общий ток составляет 50 А. В разъёме 12VHPWR этот ток должен равномерно распределяться между шестью проводниками, что теоретически даёт по 8,33 А на каждый провод . Однако на практике такое равномерное распределение не достигается из-за различий в сопротивлениях проводников. Традиционный подход...
7 месяцев назад
Расчет шагов обучения для SDXL LoRA в OneTrainer
А также расчет эпох/повторов. Количество шагов обучения является критическим параметром при обучении моделей SDXL LoRA в OneTrainer. Правильный расчет этого значения гарантирует, что ваша модель получит достаточное обучение без переобучения или траты вычислительных ресурсов. Это руководство объясняет, как эффективно рассчитывать шаги обучения и предоставляет практические рекомендации для различных сценариев. Фундаментальная формула для расчета общего количества шагов обучения в OneTrainer: ...
10 месяцев назад
Руководство по использованию LoRA Resize в LoRA_Easy_Training_Scripts. Как сжать вашу лору.
Программа LoRA_Easy_Training_Scripts представляет собой набор инструментов для обучения и редактирования моделей LoRA в Stable Diffusion. Один из этих инструментов - LoRA Resize, позволяющий изменять размерность (ранг) моделей LoRA. В LoRA_Easy_Training_Scripts или Kohya_SS (который использует аналогичную функциональность) вы можете найти эту функцию, перейдя в раздел: Меню Utils > LoRA Resize Model - Поле для выбора исходной модели LoRA, которую вы хотите изменить. Кнопка с папкой справа позволяет выбрать файл модели с вашего компьютера...
10 месяцев назад
Сжатие ранга в LoRA: как добиться визуально неотличимых результатов с компактными моделями
Перед погружением в технические детали важно понять: модели LoRA (Low-Rank Adaptation) можно значительно уменьшить в размерах без потери визуального качества. Это руководство объясняет, как достичь оптимального баланса между размером файла и качеством изображений. Модели LoRA, используемые для тонкой настройки генеративных ИИ, часто содержат избыточные данные. Сжатие работает через методы линейной алгебры, создавая компактное представление модели. Во время обучения LoRA использует стандартный ранг для всех слоев, но многие из них не требуют такой высокой размерности. Как отмечают эксперты:...
10 месяцев назад
Как изменить язык в яндекс браузере на linux
Чтобы изменить язык вы должны установить Flatpak версию браузера - https://flathub.org/apps/ru.yandex.Browser Далее установите Flatseal чтобы добавить переменную окружения - https://flathub.org/apps/com...
1 год назад