Здравствуйте, друзья!
Еще недавно вокруг Stable Diffusion и SDXL велись бесконечные споры: какую версию выбрать, какие настройки использовать. На каждый недостаток появлялось множество новых Loras от сообщества, готовых помочь его исправить. В начале 2025 года казалось, что рынок AI-генерации уже все решил: что еще можно придумать? Но здесь нас снова удивили. Сначала DeepMind представила Nano Banana и Nano Banana Pro, а затем Black Forest Labs выпустила Flux.2 — модель, которая уже сутки вызывает бурные обсуждения среди всех, кто занимается генерацией изображений. Хотя восторженные заголовки о "самой человечной нейросети" вызывают скорее осторожное любопытство, интерес только нарастает.
Когда я впервые загрузил Flux.2 в ComfyUI, ожидал всего: от неработающих нод до классических багов в руках, лицах, низкой контрастности изображений и так далее. Однако должен признать: качество работ заметно улучшилось, особенно при использовании референсов. Персонажи серии перестали «плыть» от кадра к кадру. Наконец-то можно не беспокоиться о странных пальцах и размытых надписях. Особенно радует, что Flux2 корректно распознает кириллицу и не превращает текст в набор нечитаемых символов. За это Black Forest Labs заслуживает похвалы.
Впрочем, обольщаться не стоит: Flux.2 не творит чудеса на ровном месте. Технически это довольно тяжёлая модель — 32 миллиарда параметров в основной версии, и быстро она не “полетает” на старых картах. Конечно же без энтузиастов не обошло и здесь и уже сейчас доступны народные квантованные GGUF-модели для слабых ПК (https://huggingface.co/city96/FLUX.2-dev-gguf), но тут и качество жертвует частью быстродействия, и “магии” визуальных деталей может слегка не хватать настоящему перфекционисту. FP8-модели под современные видеокарты — возможно, лучший выбор, если у вас хорошее железо. Ну а если нет, иногда удобнее воспользоваться облачными сервисами.
Система мульти-референсов вызывает особый интерес. Те, кто обычно загружает множество изображений, надеясь, что нейросеть уловит стиль, цвет и композицию персонажей, будут приятно удивлены. Оказывается, до десяти референсов действительно влияют на результат, и это не просто формальность, как иногда бывает. Теперь можно задать роль каждой картинке, смешивать и балансировать их влияние. Результат стал намного более предсказуемым.
Появились настоящие возможности для редактирования: можно “чинить” отдельные куски изображения, подтягивать референсы по стилю и цвету, и даже управлять глубиной сцены. Крупные выходные форматы — Flux.2 теперь честно выдаёт до 4 мегапикселей без доп. апскейла, что уже хватает для постеров или крупных иллюстраций. Настройки гибкие: принято начинать с Steps с 28-50 и CFG 4.0, а дальше подгонять под мощность вашей карты и детализацию сцены.
С промптами модель справляется хорошо, русский “понимает” не хуже английского и практически не ломает текст, даже если попросить подписать сложные баннеры или интерфейсы. Однако чудес тоже не ждите: если вашу задачу сложно донести до любого живого иллюстратора, Flux.2 иногда “валится” на слишком абстрактных запросах. Стабильность плюс-минус стала стандартом, но пара артефактов на слишком сложных миксах или рендере нестандартных сценариев всё ещё проскакивает.
Порог вхождения стал ниже — для новичков теперь есть понятные инструкции по типу этой, где в довольно понятной форме рассказывают как правильно пользоваться всем функционалом модели. Комьюнити со своей стороны активно делится готовыми workflow и подсказывает, как чинить баги. Всё, как обычно: фантазий меньше, рутины чуть больше — зато появилась предсказуемость.
Теперь к установке и запуску.
Пока что, модель возможно запустить только в интерфейсе ComfyUI. Будем надеяться, что в скором времени и остальные смогут похвастаться тем же.
- Скачиваете саму модель (https://civitai.com/models/2165923/flux2-dev — тут FP8 и GGUF варианты а так же текстовый энкодер и vae) если хотите стоковые, ищите на HuggingFace: https://huggingface.co/black-forest-labs/FLUX.1-dev — сам файл diffusion model, https://huggingface.co/black-forest-labs — энкодеры и vae).
- Кладёте diffusion модель в папку ComfyUI/models/diffusion_models.
- Vaе — в ComfyUI/models/vae (например, flux2-vae.safetensors).
- Текстовый энкодер — в ComfyUI/models/text_encoders (Mistral-based).
- Готовый workflow можете собрать сами или взять его у меня на бусти (ссылка внизу).
- В ComfyUI в каждом ноде (diffusion, vae, text encoder) в появившейся схеме указываете путь к скачанным файлам. Не забывайте выбирать FP8/GGUF, если на старом железе (FP8 под карты помощнее, GGUF под всё, но медленнее).
- Загружаете workflow (drag’n’drop JSON-файл в рабочую область).
- Добавляете промпт на русском языке, а если нужно — референсы.
- Для теста используйте Steps 28–60, CFG 3–5, Sampler: res_2s/res_2m/euler/euler_a/uni_pc_bh.
Работаете? Пробуйте “подружить” Flux.2 с автоматизированными сценариями: модель неплохо слушается structured prompts и JSON. Если хочется покрутить стиль, поиграйте с порядком референсов — влияние меняется даже от их позиции в workflow.
Субъективно про модель. Стоит ли сие чудо “святого Грааля”? Не думаю. Скорее, Flux.2 — добротный шаг вперёд. Генерация изображений стала чуть менее непредсказуемой, а процесс — ближе к контролируемому инструменту, чем к арт-казино. Для рутинных задач и бизнеса Flux.2 уж точно упростит жизнь. А вот для поиска чистого творческого вдохновения магии тут, пожалуй, столько же, сколько и в других хороших инструментах — многое всё так же зависит от вашей сообразительности и умения работать с промптами.
Не забывайте, что AI всё же остаётся инструментом — Flux.2 не освобождает от процесса мышления, но при грамотной подаче контента, от промпта до референсов, обещает меньше сюрпризов и больше результатов “как задумано”.
Попробуйте — и составьте своё мнение. Тут, как всегда, лучший критик — личный опыт.
Ну и конечно же, если вам понравилась эта статья, буду рад любой вашей поддержке и подпискам, комментариям и лайкам. Недавно я запустил Discord-канал и постараюсь поддерживать его насколько возможно, там вы сможете не только следить за новостями, но и общаться, делиться опытом и приобретать новые знания о нейросетях. Чтобы всегда быть в курсе моих новых материалов, подписывайтесь на мой Boosty, Telegram-канал и страницу "ВКонтакте". Пока что нас немного, но я надеюсь, что с течением времени сообщество станет больше. Это станет отличной мотивацией для меня активно работать и над другими социальными сетями.