Retour à la Liste

Modèles GGUF Z-Image de GGUF-Org

Versions quantifiées GGUF officielles des modèles Z-Image Turbo pour déploiement faible VRAM (6Go+), optimisées pour ComfyUI avec plusieurs niveaux de quantification

GGUF
Quantification
Faible VRAM
ComfyUI
Compatible 6Go
GPU Grand Public

Aperçu

GGUF-Org fournit des versions quantifiées GGUF officiellement converties de Z-Image Turbo, permettant le déploiement sur des GPU grand public avec aussi peu que 6Go de VRAM. Prend en charge plusieurs niveaux de quantification incluant Q3_K_S, IQ4_NL et IQ4_XS pour différents compromis VRAM/qualité.

Caractéristiques

  • Plusieurs niveaux de quantification : Q3_K_S (6Go), IQ4_NL/IQ4_XS (8Go)
  • Compatible avec ComfyUI via GGUF-Connector ou l'extension ComfyUI-GGUF
  • Prend en charge diverses variantes d'encodeur de texte Qwen3
  • Format de fichier mappé en mémoire pour un chargement efficace
  • Maintient la qualité d'image tout en réduisant les besoins en VRAM jusqu'à 70%
  • Inclut les modèles VAE et encodeur de texte

Installation

Téléchargez les fichiers GGUF et placez-les dans les répertoires ComfyUI :
- Modèle Z-Image → ./ComfyUI/models/diffusion_models
- Encodeur Qwen3-4B → ./ComfyUI/models/text_encoders
- VAE → ./ComfyUI/models/vae

Utilisation

Utilisez avec l'extension GGUF de ComfyUI ou l'outil CLI gguf-connector. Exécutez 'ggc z1' pour sélectionner et interagir avec les modèles GGUF.

Exigences

  • 6Go+ VRAM (RTX 2060 ou équivalent)
  • 16Go+ RAM système
  • ComfyUI avec extension GGUF
  • Stockage SSD (pas HDD)

Liens Connexes