Здравствуйте дорогие друзья!
Давненько я здесь ничего не писал, во всем виновата эта постоянная нехватка времени, да и Дзен как-то своей политикой не особо располагает к частым текстовым излияниям.
Но...
3 февраля вышло очередное обновление интерфейса Forge Neo, и это не просто очередной патч с парой исправлений. Работа с интерфейсом стала реально быстрее, те самые тяжелые модели вроде Flux теперь запускаются даже на картах с 6-8GB памяти, а вылеты после долгой работы — та самая проблема, из-за которой приходилось каждый час перезапускать интерфейс — наконец ушла в прошлое. Но сначала стоит разобраться, что вообще такое Neo и откуда он взялся.
Как всё начиналось
Когда-то давно, в эпоху появления первых моделей нейросетей в каждом доме, появился Automatic1111 — первый интерфейс для Stable Diffusion, который мог освоить обычный человек, а не только программист с тремя дипломами. Проект стал легендой, им пользовались все подряд, от школьников до дизайнеров в крупных студиях. Но время шло, появлялись новые модели размером с небольшую библиотеку, а код интерфейса разрастался как снежный ком, и любые изменения превращались в квест "не сломай то, что работает".
В начале 2024 года Lvmin Zhang — тот самый человек, который подарил миру Fooocus и ControlNet — решил, что пора что-то менять. Он выпустил Forge, и название было выбрано неслучайно. Как Minecraft Forge позволяет моддерам творить чудеса, не переписывая всю игру, так и новый интерфейс должен был стать платформой, где можно экспериментировать без страха всё поломать. Взяв знакомый всем интерфейс Automatic1111 и немного отщипнув от ComfyUI, Zhang создал что-то среднее — привычное снаружи, быстрое внутри.
Проект активно развивался весь 2024 год и начало 2025-го. Последнее обновление от автора вышло в начале марта 2025 года, после чего разработка остановилась. Сообщество долго обсуждало что случилось, но ответ оказался прост: Zhang переключился на другие задачи. Бывает.
И вот тут на сцену выпрыгивает Haoming02 со своим Forge Neo. Парень взял последнюю рабочую версию Forge и сказал: знаете что, хватит тащить за собой весь этот багаж из прошлого. SD2? Никто не пользуется. SD3? Проблемы с лицензией. Hypernetworks? Их LoRA давно вытеснила. Встроенные тренеры, которыми никто не пользовался? Долой.
Код похудел, запуск ускорился, а взамен всего этого старья появилась поддержка того, что действительно нужно сейчас: все варианты Flux, свежая Qwen-Image, Z-Image Turbo и Z-Image Base от Alibaba, встроенная генерация видео через Wan 2.2. В настоящее время Neo стал не просто очередным форком, а самостоятельным перспективным проектом со своей философией: только то, что работает, и только то, что нужно и не пропахло нафталином.
Что изменилось: три вещи, которые реально заметны
Быстрее, меньше, сильнее
Помните как раньше: хочешь запустить Flux, а карта говорит "извини-прости, памяти не хватает"? Или генерация идет так медленно, что успеваешь попить кофею пока одна картинка приготовится? Вот это всё теперь в прошлом.
Главный технический прорыв в обновлении — int8 matmul через Triton Kernel. Да, звучит как заклинание из Гарри Поттера или брань какая то, нецензурная, но зато работает просто: вычисления теперь идут в 8-битном формате вместо 16-битного. И нет, это совсем не "давайте урежем точность и будет хуже качество". Задействованы специальные алгоритмы компенсации, которые сохраняют качество картинки на том же уровне, но жрут вдвое меньше ресурсов.
Чувствуется это сразу: генерация ускорилась, памяти уходит меньше. Для Flux это означает, что можно генерировать больше картинок за раз или увеличить разрешение. Работает на картах начиная от RTX 30хх серии и новее — нужна аппаратная поддержка быстрых целочисленных операций. Включается одной галочкой в настройках Diffusion in Low Bits (INT8) , всё остальное происходит само.
А тут еще Nunchaku подоспел — технология квантизации по методу SVDQ. Представьте: берете RAW фотографию на 50 мегабайт, конвертируете в качественный JPEG на 5 мегабайт, и визуально они почти не отличаются. Вот то же самое, только с генерацией изображений. Flux-Dev обычно весит около 24GB, а в Nunchaku версии — модель весит всего 8GB. И при генерации, памяти тоже нужно намного меньше.
Спросите - а качество? Разница есть, честно скажу, но она составляет те самые 3-5%, которые заметны только если пристально всматриваться с лупой при большом увеличении. Для обычной работы картинки практически идентичны. И главное — все ваши LoRA продолжают работать с квантизованными моделями, ничего переделывать не нужно.
Вот вам простая математика: была у вас карта на 8GB, которая мучилась со SDоXLей и даже не смотрела в сторону Flux. Теперь — комбо int8 + Nunchaku, и Flux работает. И это не просто цифры, это совсем другой уровень того, что можно делать.
Nunchaku версии есть для flux-dev, flux-krea, flux-kontext, qwen-image, qwen-image-edit и z-image-turbo. Выбор есть.
Больше никаких вылетов
Знаете эту боль? Работаешь-работаешь, переключаешься между моделями, и через пару часов — упс! — "CUDA out of memory". Приходилось перезапускать интерфейс, терять все настройки, начинать заново. Особенно весело когда это случается прямо перед финальной генерацией большого батча.
Проблема была в том, что Python и PyTorch как-то странно управляли памятью. Выгрузил модель — а она не выгрузилась до конца. Часть данных зависла где-то в кэшах, ссылки остались, сборщик мусора не может их почистить. Загрузил другую модель — она съела свой кусок памяти, но предыдущая не освободила свой. И так по кругу, пока всё не забьется.
Разработчик Haoming02 взял и переписал три ключевых модуля: memory_management.py, ModelPatcher и attention.py. Теперь при выгрузке модели всё чистится по-взрослому: связи рвутся явно, кэши выметаются принудительно, память освобождается как надо.
Результат? Можете хоть сто раз переключиться между моделями — память не течет как было раньше. Оставили интерфейс на ночь генерировать батч из тысячи картинок? Работает. Запустили на сервере и забыли на неделю? Тоже работает. Это та самая стабильность, когда можно не думать о технических проблемах, а просто работать.
Upscaler, кстати, тоже получил апгрейд. Раньше процесс был как челночная дипломатия между CPU и GPU: туда-сюда, туда-сюда. Теперь всё происходит прямо на видеокарте, tile composition целиком на GPU. Плюс модели upscaler можно грузить в fp16 вместо fp32 — вдвое меньше памяти и качество то же.
Скорость выросла заметно, но главное — теперь можно апскейлить картинки, которые раньше просто не влезали в память. Настраивается в Settings/Upscaling.
Новые игрушки встроили прямо в интерфейс
Wan 2.2 для генерации видео теперь не требует танцев с бубном вокруг Забудьте. Всё теперь в привычном интерфейсе, куда вы и так заходите каждый день.
Работает просто: берете текст — получаете видео. Берете картинку — она оживает. Портрет моргает глазами и волосы шевелятся, на пейзаже плывут облака и колышутся деревья. Есть два режима: High Noise для динамичных сцен с движухой, и Low Noise для спокойной плавной анимации. Переключается через Refiner. Видео можно сразу посмотреть в интерфейсе, для сохранения правда нужно установить FFmpeg.
Qwen-Image от Alibaba — это для тех, кто любит писать длинные детальные промпты. Обычные модели нормально работают с короткими описаниями типа "девушка в красном платье в саду". А попробуйте написать три предложения с кучей деталей — половину просто проигнорируют. Qwen другая: она реально удерживает в памяти всё, что вы написали, и старается учесть каждую мелочь.
Есть две версии: обычная для генерации и Edit для редактирования конкретных объектов. Обе доступны в Nunchaku для экономии места. Только назовите файл правильно: для Edit должны быть слова "qwen" и "edit" в имени файла модели.
Flux Kontext — это тот-же inpainting, но умный. Обычный inpainting видит только кусок, который надо дорисовать, и часто накосячит с освещением или перспективой. Kontext смотрит на всю картинку целиком, анализирует откуда свет падает, какие тени, какой стиль, какая перспектива. И только потом дорисовывает так, чтобы всё совпало.
Работает в img2img и inpainting. В имени файла должно быть слово "kontext". Поддерживает Multi-Image Inputs вместе с Qwen-Image-Edit.
Z-Image-Turbo — для нетерпеливых. Генерирует примерно как SDXL. Качество? Честно говоря, немного уступает ТОПОВЫМ моделям. Но когда надо быстро набросать 30 вариантов композиции, выбрать пару лучших и доработать уже на нормальной модели — самое то.
Еще автор добавил поддержку Flux.2-Klein в двух вариантах (4B и 9B), Lumina-Image-2.0 (даже две версии — Neta-Lumina и NetaYume-Lumina) и Chroma1-HD. Есть с чем поэкспериментировать.
Для тех, кому интересны технические детали
Инструменты тонкой настройки
Расширение Seed Variance Enhancer решает проблему дистиллированных моделей. У турбо-моделей (особенно у Z-Image) есть своя странная особенность: меняешь seed, а картинки получаются очень похожие или практически один в один в первой генерацией. Включаете этот энхансер — каждый seed дает реально уникальный результат.
RescaleCFG — спасение для v-prediction моделей типа NoobAI или Illustrious. У них при высоком CFG всё пересвечивается: блики превращаются в белые пятна, кожа становится как у вампира, облака теряют текстуру. RescaleCFG это чинит. Блики остаются бликами, кожа выглядит естественно, облака пушистые. Включается в Settings/UI Alternatives.
MaHiRo — альтернативный способ расчета CFG. Работает точнее, особенно когда промпт сложный и длинный. Обычный CFG может пропустить какие-то второстепенные детали, MaHiRo старается учесть всё. Тоже в Settings/UI Alternatives.
Epsilon Scaling — еще один инструмент для улучшения качества в Settings/Stable Diffusion. Поиграйтесь, возможно вам понравится.
Что под капотом в обновлении
PyTorch обновился до 2.9.1 с CUDA 13.0, xformers до 0.0.33. Добавили SageAttention, который работает параллельно с FlashAttention. Система сама выбирает что лучше для вашей карты: сначала пробует SageAttention, потом FlashAttention, потом xformers, если всё плохо — нативный PyTorch attention.
Запуск интерфейса теперь быстрее — модули загружаются не все сразу, а по мере надобности. На SSD с хорошей скоростью чтения особенно заметно.
Git больше не нужен для установки. Раньше приходилось ставить Git, разбираться с клонированием репозиториев, половина новичков застревала на ошибках типа "git is not recognized". Теперь просто: скачал ZIP, распаковал, запустил webui-user.bat. Всё. Ну или можете воспользоваться моим скриптом автоустановки, который сделает все за вас, вам нужно только запустить его и подождать пока скрипт отработает и запустить интерфейс, только не забудьте скачать предварительно хотя бы одну модель.
Автор добавил поддержку uv — менеджера пакетов на Rust, который работает заметно шустрее pip. Флаг --uv-symlink позволяет сэкономить около 7GB через символические ссылки вместо копирования библиотек.
Поддержка современных форматов картинок: AVIF, HEIF и JPEG XL. Если у вас фотки с iPhone в формате HEIF или вы хотите сохранять в новом JPEG XL для экономии места — теперь можно.
Обновились spandrel для новых архитектур upscaler. Pillow — обработка изображений быстрее. Protobuf — insightface грузится быстрее.
Переделана система пресетов — теперь они действительно запоминают чекпоинт, модули и параметры для каждого пресета. Раньше работало как попало.
ControlNet переписан: юниты теперь в отдельных вкладках, убраны multi-inputs потому что они только путали.
Как работают разные методы ускорения
Forge Neo умный: он сам выбирает лучший метод ускорения из того, что у вас установлено. Флаги --xformers, --flash и --sage отвечают только за установку пакетов, а не за их использование. То есть один раз запустили с флагом, оно установилось — флаг можно убирать.
Кстати, нативный PyTorch scaled_dot_product_attention обычно работает не хуже и даже стабильнее специализированных библиотек. Так что не надо фанатично ставить всё подряд. А если хотите пропустить конкретный метод — добавьте флаг типа --disable-sage --disable-flash --disable-xformers.
Forge UI Neo вам точно понравится если
У вас не топовая карта. Комбинация Nunchaku и int8 превращает карты на 6-8GB из тыквы в карету. То, что раньше работало только с SD 1.5, теперь тянет Flux. Это реально совсем другой мир возможностей.
У вас маленький SSD. Nunchaku модели занимают примерно треть от оригинала, флаг --uv-symlink экономит еще 7GB. Вместо одной-двух моделей влезет штук шесть.
Надоели вылеты. Исправлена утечка памяти полностью. Можно работать часами, можно на сервере держать неделями — не упадет.
Работаете профессионально. Ускорение заметное, что означает больше работы за то же время. Плюс новые модели: Qwen и Z-Image для детальных промптов, Flux Kontext и Flux2.Klein для качественного редактирования, Wan 2.2 для видео.
Любите экспериментировать. Z-Image-Turbo для быстрых набросков, Lumina-Image-2.0 и Chroma1-HD для новых стилей, Flux.2-Klein в компактных версиях. Есть чем заняться.
Как обновиться
Если Git установлен: зайдите в папку с Neo и сделайте git pull origin neo.
Если Git нет: скачайте ZIP с https://github.com/Haoming02/sd-webui-forge-classic (ветка neo), распакуйте, перенесите модели и настройки из старой установки или опять же, скачайте с моего бусти скрипт который сделает все сам.
После обновления
- Запустите с флагом --uv для быстрого менеджера пакетов
- Включите int8 в настройках Diffusion in Low Bits — быстрее и меньше памяти
- Попробуйте Nunchaku версии моделей если место на диске ограничено
- Включите RescaleCFG в Settings/UI Alternatives если работаете с NoobAI или Illustrious
- Попробуйте MaHiRo в Settings/UI Alternatives для более точного следования промптам
Forge Neo живет и развивается. Проект регулярно обновляется, новые модели добавляются быстро, а фокус остается на том, что реально нужно людям, а не на красивых фичах для галочки.
Февральское обновление показывает: проект не просто держится на плаву, он активно эволюционирует. Ускорение генерации, решение проблем со стабильностью, экономия ресурсов, новые возможности — всё это делает Neo отличным выбором для тех, кто хочет эффективный инструмент без лишнего мусора и многочасового ковыряния с workflow в Comfy UI.
Если вы до сих пор на старой версии и думаете "а стоит ли обновляться" — просто попробуйте. Разницу почувствуете сразу. Честно.
Ну и конечно же, если вам понравилась эта статья, буду рад любой вашей поддержке и подпискам, комментариям и лайкам. Недавно я запустил Discord-канал и постараюсь поддерживать его насколько возможно, там вы сможете не только следить за новостями, но и общаться, делиться опытом и приобретать новые знания о нейросетях. Чтобы всегда быть в курсе моих новых материалов, подписывайтесь на мой Boosty, Telegram-канал и страницу "ВКонтакте". Пока что нас немного, но я надеюсь, что с течением времени сообщество станет больше. Это станет отличной мотивацией для меня активно работать и над другими социальными сетями.