Retour à la Liste
Modèles GGUF Z-Image de GGUF-Org
Versions quantifiées GGUF officielles des modèles Z-Image Turbo pour déploiement faible VRAM (6Go+), optimisées pour ComfyUI avec plusieurs niveaux de quantification
GGUF
Quantification
Faible VRAM
ComfyUI
Compatible 6Go
GPU Grand Public
Aperçu
GGUF-Org fournit des versions quantifiées GGUF officiellement converties de Z-Image Turbo, permettant le déploiement sur des GPU grand public avec aussi peu que 6Go de VRAM. Prend en charge plusieurs niveaux de quantification incluant Q3_K_S, IQ4_NL et IQ4_XS pour différents compromis VRAM/qualité.
Caractéristiques
- Plusieurs niveaux de quantification : Q3_K_S (6Go), IQ4_NL/IQ4_XS (8Go)
- Compatible avec ComfyUI via GGUF-Connector ou l'extension ComfyUI-GGUF
- Prend en charge diverses variantes d'encodeur de texte Qwen3
- Format de fichier mappé en mémoire pour un chargement efficace
- Maintient la qualité d'image tout en réduisant les besoins en VRAM jusqu'à 70%
- Inclut les modèles VAE et encodeur de texte
Installation
Téléchargez les fichiers GGUF et placez-les dans les répertoires ComfyUI : - Modèle Z-Image → ./ComfyUI/models/diffusion_models - Encodeur Qwen3-4B → ./ComfyUI/models/text_encoders - VAE → ./ComfyUI/models/vae
Utilisation
Utilisez avec l'extension GGUF de ComfyUI ou l'outil CLI gguf-connector. Exécutez 'ggc z1' pour sélectionner et interagir avec les modèles GGUF.
Exigences
- 6Go+ VRAM (RTX 2060 ou équivalent)
- 16Go+ RAM système
- ComfyUI avec extension GGUF
- Stockage SSD (pas HDD)