Stable Diffusion — один из самых популярных генераторов изображений с открытым исходным кодом.
Он работает по принципу диффузии: модель “распыляет” шум по изображению и постепенно “очищает” его, создавая картинку по текстовому описанию — промту.
Stable Diffusion — это модель для генерации изображений по тексту (text-to-image), созданная компанией Stability AI.
В платной версии онлайн-сервисов с Stable Diffusion бывают доступны расширенные настройки (Samplers, CFG, Steps, img2img, inpainting, ControlNet и др.), тогда как бесплатный интерфейс может быть упрощён.
Sampler, CFG, Steps, Seed… куча параметров, и каждый вроде что-то меняет — но что именно?
Разбираемся просто и по делу.
Главное, что стоит знать
- Sampler — способ, которым модель “разворачивает” изображение из шума.
Одни делают плавно и мягко (Euler a), другие чётко и детализировано (DPM++ 2M Karras). - Steps — количество шагов.
Больше шагов = больше деталей, но дольше рендер.
Оптимально — около 25–35. - CFG Scale — насколько строго модель слушается промт.
Чем меньше значение (4–6), тем креативнее и свободнее картинка.
Чем больше (8–12) — тем точнее и реалистичнее. - Seed — “исходная точка шума”.
Если оставить -1, каждый раз будет новый результат.
Если поставить конкретное число — можно точно повторить картинку.
Возможности модели - image-to-image — создание нового изображения на основе уже имеющегося;
- inpainting / outpainting — замена или дорисовка частей изображения;
- ControlNet, LoRA, Hypernetworks — точная настройка под конкретные стили, позы, композиции.
🎨 Что такое LoRA
LoRA (Low-Rank Adaptation) — это “мини-модель”, которую можно подключить к Stable Diffusion, чтобы изменить стиль генерации.Проще говоря:
👉 LoRA — как плагин к базовой модели. Он “вливает” в неё знания о стиле, персонаже, эпохе или настроении.
Пример: Ты используешь SDXL и хочешь портрет в стиле Pixar.
Базовая модель знает, что это мультфильм, но не умеет рисовать именно как Pixar.
Если добавить LoRA Pixar style, результат получится с характерными лицами, цветами и светом.
Можно держать десятки LoRA и комбинировать их между собой.
⚙️ Как работает Stable Diffusion
- Промт (например: “cinematic portrait of a woman in neon light, ultra realistic”) превращается в текстовое представление.
- Модель начинает с шума — случайной мешанины пикселей.
- Sampler шаг за шагом “очищает” шум, пока не появляется готовая картинка.
🎨 Что такое Sampler
Sampler (сэмплер) — это алгоритм, который управляет тем, как изображение создаётся из шума.
От него зависит:
- плавность переходов,
- уровень деталей,
- освещение,
- скорость генерации
- и общее “настроение” картинки.
🔢 Популярные типы Sampler’ов
В Stable Diffusion их десятки, но на практике активно используются всего несколько. Ниже — кратко и по сути, чем они отличаются и когда их стоит пробовать.
🌀 Euler a
Классика. Даёт мягкие, немного “художественные” картинки, часто с лёгким размытием и интересной текстурой.
Быстрый, универсальный и отлично подходит для SD 1.5. Если не знаешь, с чего начать — начни с него.
✨ Euler
Более чёткий и резкий вариант предыдущего. Даёт чище очерченные линии и аккуратные края.
Хорош для портретов и детализированных сцен, где важно, чтобы всё выглядело “сфокусировано”.
🎥 DPM++ 2M Karras
Один из самых популярных Sampler’ов. Балансирует между реализмом и мягкостью, даёт плавный свет и натуральную текстуру кожи.
Оптимален для SDXL и реалистичных портретов.
🌫️ DPM++ SDE Karras
Создаёт мягкие градиенты, как будто кадр снят на кинообъектив с естественным боке.
Подходит для фото, кинематографичных сцен, фэнтези с мягким светом и атмосферой.
🎨 DPM2 a Karras
Компромисс между чёткостью и плавностью. Немного медленнее, но выдаёт стабильный, предсказуемый результат.
Хороший вариант “на все случаи”.
⚡ Heun
Работает быстро, но иногда “замыливает” детали.
Используют, если нужно сгенерировать черновик или подобрать композицию без ожидания.
🧩 DDIM
Один из старейших, зато проверенных временем. Отлично подходит для режимов img2img и inpainting, где нужно частично дорисовать или заменить часть изображения.
Главное преимущество — воспроизводимость результата.
UniPC
Новый и перспективный вариант. Работает быстро, чисто, без артефактов.
Часто используется для стилизованных LoRA — особенно когда важен аккуратный свет и нейтральный цветовой баланс.
⏱️ Steps — количество шагов
Сэмплер работает в несколько шагов (обычно 20–50).
- Меньше шагов — быстрее, но грубее.
- Больше — плавнее и чище, но дольше.
Например, DPM++ 2M Karras часто даёт отличный результат уже при 25 шагах,
а другим нужно 40+.
🧩 Что влияет на креативность
Креативность в Stable Diffusion — это не одна кнопка, а сочетание параметров.
1. CFG Scale (Guidance Scale)
Показывает, насколько строго модель слушается промт.
- 📉 4–6 — больше свободы, модель “фантазирует”;
- 📈 8–12 — чётко следует описанию, реалистичнее, но менее живо.
Золотое правило:
- Реализм — 7–8
- Художественный стиль — 6–7
- Эксперименты — 4–5
2. Seed (зерно)
Это “исходная точка шума”.
- Seed = -1 — каждый раз новое изображение (максимум креативности);
- Конкретное число — повторяемый результат (удобно для тестов).
3. Sampler + Steps
Некоторые сэмплеры дают больше простора для фантазии:
- Euler a — мягкий, хаотичный, креативный;
- DPM++ 2M Karras — точный и реалистичный.
Если хочешь “сюрприза” — попробуй Euler a, 25 шагов, CFG 5.5.
🧱 Основные версии Stable Diffusion
- SD 1.5 — классика, масса кастомных моделей.
- SD 2.1 — улучшена детализация, но другой стиль.
- SDXL 1.0 / 1.5 — современная версия, лучше понимает текст, свет, композицию.
- SD3 (на подходе) — обещает качество уровня Midjourney.
✨ Почему это особенная нейросеть
- Работает локально — без облаков;
- Можно обучить на своём лице или стиле;
- Управление позами, светом, композицией (через ControlNet);
- Поддержка плагинов и скриптов — от комиксов до видео.
Как не утонуть в настройках
- Начни с одной модели (лучше SDXL).
- Меняй по одному параметру за раз.
- Сохраняй удачные комбинации.
- Используй LoRA для финальной стилистики.
- Не гонись за “правильным” — найди свой визуальный язык.
Итог
Когда понимаешь, что делает каждый ползунок,
Stable Diffusion перестаёт быть хаосом — и превращается в твою цифровую кисть.
Хочешь, я покажу это на практике — запишу видео, где один и тот же промт превращается в разные сцены при разных настройках Sampler, CFG и Steps?
💭 Стоит ли сделать такой разбор с примерами?