1 неделю назад
Заметки орка
2
подписчика
Новые стандарты питания видеокарт 12VHPWR/12V-2×6: технический анализ проблем безопасности
В современных высокопроизводительных видеокартах
применяются мощные разъёмы питания, способные передавать до 600 Вт
электрической энергии .
Для понимания возникших проблем необходимо рассмотреть принципы
распределения токовых нагрузок в многопроводных системах питания. При напряжении 12 В и мощности 600 Вт общий ток
составляет 50 А. В разъёме 12VHPWR этот ток должен равномерно
распределяться между шестью проводниками, что теоретически даёт по 8,33 А
на каждый провод . Однако на практике такое равномерное распределение не достигается из-за различий в сопротивлениях проводников. Традиционный подход...
Метод ручной установки intel драйвера без установки ПО (software)
Шаг 1: Загрузка драйвера Шаг 2: Ручная установка через Диспетчер устройств Нажмите Далее и дождитесь установки драйвера (это может занять более 5 минут)
Полный гайд по использованию сервиса DePrevoz (на основе чата)
Важно помнить:
DePrevoz - это удобный, но рискованный способ обойти таможню.
Пользуйтесь им на свой страх и риск, будьте готовы к возможным проблемам
и не ожидайте высокого уровня сервиса.
Расчет шагов обучения для SDXL LoRA в OneTrainer
А также расчет эпох/повторов. Количество шагов обучения является критическим
параметром при обучении моделей SDXL LoRA в OneTrainer. Правильный
расчет этого значения гарантирует, что ваша модель получит достаточное
обучение без переобучения или траты вычислительных ресурсов. Это
руководство объясняет, как эффективно рассчитывать шаги обучения и
предоставляет практические рекомендации для различных сценариев. Фундаментальная формула для расчета общего количества шагов обучения в OneTrainer: ...
Руководство по использованию LoRA Resize в LoRA_Easy_Training_Scripts. Как сжать вашу лору.
Программа LoRA_Easy_Training_Scripts представляет собой набор инструментов для обучения и редактирования моделей LoRA в Stable Diffusion. Один из этих инструментов - LoRA Resize, позволяющий изменять размерность (ранг) моделей LoRA. В LoRA_Easy_Training_Scripts или Kohya_SS (который использует аналогичную функциональность) вы можете найти эту функцию, перейдя в раздел: Меню Utils > LoRA Resize Model - Поле для выбора исходной модели LoRA, которую вы хотите изменить. Кнопка с папкой справа позволяет выбрать файл модели с вашего компьютера...
Сжатие ранга в LoRA: как добиться визуально неотличимых результатов с компактными моделями
Перед погружением в технические детали важно понять: модели LoRA (Low-Rank Adaptation) можно значительно уменьшить в размерах без потери визуального качества. Это руководство объясняет, как достичь оптимального баланса между размером файла и качеством изображений. Модели LoRA, используемые для тонкой настройки генеративных ИИ, часто содержат избыточные данные. Сжатие работает через методы линейной алгебры, создавая компактное представление модели. Во время обучения LoRA использует стандартный ранг для всех слоев, но многие из них не требуют такой высокой размерности. Как отмечают эксперты:...
Как изменить язык в яндекс браузере на linux
Чтобы изменить язык вы должны установить Flatpak версию браузера -
https://flathub.org/apps/ru.yandex.Browser
Далее установите Flatseal чтобы добавить переменную окружения -
https://flathub.org/apps/com...