
Comment utiliser le modèle Z-Image sur Mac : guide complet d'installation et d'optimisation
Comment utiliser le modèle Z-Image sur un Mac
Compatibilité matérielle
Les Mac Apple Silicon (comme la série M3) utilisent l'accélération via le backend MPS de PyTorch ; les Mac Intel peuvent fonctionner via le CPU mais sont plus lents. Assurez-vous d'avoir suffisamment de RAM pour éviter les ralentissements.
Compatibilité et exigences matérielles Mac
- Version de puce : Apple Silicon M3, M4 ou supérieur. Les benchmarks montrent des performances solides sur M3 Max (par exemple, 60-80 secondes pour une image 1024x1024) et M2 Max (aussi bas que 14 secondes après optimisation). Les Mac Intel peuvent fonctionner via le CPU, mais sont 2 à 5 fois plus lents.
- RAM : Minimum 16 Go de mémoire unifiée ; 32-64 Go recommandés pour gérer les charges de pointe (environ 24 Go pendant la génération). Les configurations avec peu de RAM peuvent nécessiter un déchargement CPU, augmentant le temps de traitement.
- OS et logiciels : macOS 10.15+ ; Python 3.9-3.12 ; PyTorch 2.0+ avec support MPS. Aucun pilote supplémentaire nécessaire - Metal est intégré.
- Limites : MPS ne prend pas en charge les tableaux de >2^32 éléments, ce qui peut limiter les résolutions ultra-élevées. Les meilleurs résultats sont obtenus avec une précision bfloat16 pour réduire l'utilisation de la mémoire.
Les rapports de la communauté confirment un fonctionnement fiable sur MacBook, Mac Mini et Mac Studio, sans problèmes de surchauffe lors de sessions courtes.
Processus d'installation complet
Méthode 1 : Installation simple en un clic (dépôt Ultra-Fast-Image-Generation)
Cette méthode basée sur un script automatise l'installation pour Apple Silicon en utilisant Z-Image-Turbo.
- Téléchargez ou clonez le dépôt depuis GitHub :
git clone https://github.com/newideas99/Ultra-Fast-Image-Generation-Mac-Silicon-Z-Image. - Double-cliquez sur
Launch.commanddans le dossier du dépôt. - Attendez l'installation automatique des dépendances (environ 5 minutes pour la première exécution, y compris PyTorch et MPS).
- Ouvrez l'interface locale dans votre navigateur ; entrez un prompt et générez des images.
- Remarque : environ 14 secondes par image sur M2 Max ; fonctionne entièrement hors ligne.
Méthode 2 : Génération en ligne sur z-image.me
- Aucune modération, aucune restriction, protection de la vie privée
- Génération gratuite et illimitée, mais peut nécessiter d'attendre en période de forte affluence
- Aucune configuration complexe requise, nombreux modèles de prompts, bibliothèque de styles accessible en un clic
- Compatibilité multiplateforme sans aucune exigence de configuration
Méthode 3 : ComfyUI (basé sur GUI, recommandé pour les workflows)
ComfyUI offre une interface en nœuds prenant en charge Z-Image-Turbo, avec une excellente compatibilité sous macOS.
- Installez PyTorch :
pip3 install torch torchvision(MPS est activé automatiquement). - Clonez ComfyUI :
git clone https://github.com/comfyanonymous/ComfyUI. - Accédez au dossier :
cd ComfyUI. - Installez les dépendances :
pip install -r requirements.txt. - Téléchargez les modèles :
- VAE : ae.safetensors dans
models/vae. - Encodeur de texte : qwen_3_4b.safetensors dans
models/text_encoders. - Modèle de diffusion : z_image_turbo_bf16.safetensors dans
models/diffusion_models.
(depuis Hugging Face : https://huggingface.co/Comfy-Org/z_image_turbo/tree/main/split_files)
- VAE : ae.safetensors dans
- Téléchargez le workflow : image_z_image_turbo_v2.json.
- Lancez ComfyUI :
python main.py. - Ouvrez localhost:8188 dans votre navigateur ; glissez-déposez le fichier JSON du workflow dans l'interface.
- Modifiez le prompt (par exemple, en ajoutant des détails d'éclairage), puis cliquez sur "Run".
- Remarque : Mettez à jour via ComfyUI Manager. La génération utilise environ 24 Go de RAM ; activez l'attention par tranches dans le code si nécessaire.
Méthode 4 : Application native (ZImageApp)
Client gratuit et sans configuration, conçu pour Apple Silicon, exécutant Z-Image-Turbo localement.
- Téléchargez l'application depuis zimageapp.com.
- Installez-la dans le dossier Applications par glisser-déposer.
- Lancez l'application ; les modèles seront téléchargés automatiquement lors de la première exécution.
- Remarque : Idéal pour les débutants
Méthode 5 : Hugging Face Diffusers (basé sur script)
Pour un contrôle par programmation, utilisant Diffusers optimisé pour MPS.
- Installez PyTorch :
pip3 install torch torchvision. - Installez Diffusers :
pip install git+https://github.com/huggingface/diffusers. - Installez les dépendances supplémentaires :
pip install transformers accelerate safetensors huggingface_hub. - Téléchargez le modèle :
huggingface-cli download Tongyi-MAI/Z-Image-Turbo --local-dir ./Z-Image-Turbo. - Créez un script (par exemple, generate.py) :
import torch from diffusers import ZImagePipeline pipe = ZImagePipeline.from_pretrained("./Z-Image-Turbo", torch_dtype=torch.bfloat16, low_cpu_mem_usage=False) pipe.to("mps") # Utilise MPS au lieu de CUDA pipe.enable_attention_slicing() # Pour <64 Go de RAM prompt = "Young woman in red Hanfu, intricate details, neon lights, night background." image = pipe(prompt, height=1024, width=1024, num_inference_steps=9, guidance_scale=0.0).images[0] image.save("output.webp") - Exécutez :
python generate.py.
- Remarque : La détection de MPS est automatique ; ajoutez
--compilepour les exécutions répétées. Le support LoRA est disponible via des outils CLI comme z-image-mps.
Utilisation et optimisation
- Ingénierie de prompts : Utilisez des prompts descriptifs et mixtes chinois/anglais (par exemple, mélange anglais/chinois pour les éléments textuels). Ajoutez des mots-clés comme "volumetric lighting" pour améliorer.
- Optimisation : Activez Flash Attention (si pris en charge), accélérez avec torch.compile, ou déchargez sur CPU avec peu de RAM. Le port MLX peut encore améliorer les performances sur Mac.
- Dépannage : Mettez à jour Diffusers en cas d'erreurs d'importation. Vérifiez l'utilisation de la RAM dans Activity Monitor si le ralentissement. Artéfacts ? Optimisez le prompt ou utilisez LoRA.