Найти в Дзене
Neuro-сеть

Новый открытый генератор HiDream‑I1

В общем, появился ещё один игрок в мире опенсорс‑нейронок.
17 млрд параметров, MIT‑лицензия и громкое обещание “лучшего качества среди всех опенсорсных моделей”. git clone https://github.com/HiDream-ai/HiDream-I1
cd HiDream-I1
pip install -r requirements.txt Генерируй: # Full‑модель
python inference.py --model_type full # Dev‑версия
python inference.py --model_type dev # Fast‑версия
python inference.py --model_type fast Модель сама подтянет веса Meta‑Llama‑3.1‑8B‑Instruct. Если интернет лагает — скачай их заранее и положи в кэш. Важно: генерируй что угодно, но не нарушай закон — без дичи, личных данных и дискриминации. Буду рад вашим комментариям🎤, лайкам🧡 и подпискам на мой канал: Так же заходите в мою группу в VK и на канал Телеграм.
Оглавление

В общем, появился ещё один игрок в мире опенсорс‑нейронок.
17 млрд параметров, MIT‑лицензия и громкое обещание “лучшего качества среди всех опенсорсных моделей”.

Что это за зверь?

  • Open‑source под MIT. Контент, который ты создаёшь, — твой.
  • Основа — Diffusion Transformers: модель учится генерить картинки из шума.
  • Результаты в HPS v2.1 (человеко‑ориентированный тест) оказались лучше всех опенсорсов.

Ключевые фичи

  • Супер‑качество: от фотореализма до мультяшного стиля — всё на уровне.
  • Понимает промпты: топовые баллы в GenEval и DPG‑Bench.
  • Открытый код: скачал, влепил в проект — и вперёд.
  • Коммерческое использование: без ограничений.

Быстрый старт

  • Установи Flash Attention и CUDA 12.4 (рекомендовано).
  • Клонируй репо:
git clone https://github.com/HiDream-ai/HiDream-I1
cd HiDream-I1
pip install -r requirements.txt

Генерируй:

# Full‑модель
python inference.py --model_type full

# Dev‑версия
python inference.py --model_type dev

# Fast‑версия
python inference.py --model_type fast

Модель сама подтянет веса Meta‑Llama‑3.1‑8B‑Instruct. Если интернет лагает — скачай их заранее и положи в кэш.

Требования к памяти

-2

Квантование и оптимизации

  • FP16 ≈ 34 ГБ, FP32 ≈ 68 ГБ (17e9×4 байта).
  • Q8/FP8: можно уложиться в 12–16 ГБ VRAM, но это неофициальные хаки и оффлоадинг.
  • Без оптимизаций — модель тащит не только 17 млрд параметров генерации, но и 8 млрд Llama‑трансформера.

Лицензии

  • VAE из FLUX.1 [schnell] — Apache 2.0.
  • Энкодеры от Google T5 и Meta‑LLaMA 3.1 — по своим лицензиям.
  • MIT‑лицензия на основную модель.

Важно: генерируй что угодно, но не нарушай закон — без дичи, личных данных и дискриминации.

Где пощупать

Спасибо, что дочитали до конца! 🙏

Буду рад вашим комментариям🎤, лайкам🧡 и подпискам на мой канал:

Neuro-сеть | Дзен

Так же заходите в мою группу в VK и на канал Телеграм.

Вам может понравится: