
Wie man das Z-Image-Modell auf einem Mac verwendet: Vollständige Installations- und Optimierungsanleitung
Wie man das Z-Image-Modell auf einem Mac verwendet
Hardware-Kompatibilität
Apple Silicon Macs (wie die M3-Serie) nutzen die MPS-Backend-Beschleunigung von PyTorch; Intel Macs können über CPU laufen, aber langsamer. Stellen Sie sicher, dass genügend RAM vorhanden ist, um Ruckeln zu vermeiden.
Mac-Hardware-Kompatibilität und Anforderungen
- Chip-Version: Apple Silicon M3, M4 oder höher. Benchmarks zeigen starke Leistung auf M3 Max (z. B. 60-80 Sekunden für 1024x1024-Bilder) und M2 Max (nach Optimierung bis zu 14 Sekunden). Intel Macs können über CPU laufen, aber sind 2-5 Mal langsamer.
- RAM: Mindestens 16GB Unified Memory; empfohlen 32-64GB für Spitzenlasten (ca. 24GB während der Generierung). Bei geringem RAM kann CPU-Offloading erforderlich sein, was die Zeit erhöht.
- OS und Software: macOS 10.15+; Python 3.9-3.12; PyTorch 2.0+ mit MPS-Unterstützung. Keine zusätzlichen Treiber erforderlich – Metal ist integriert.
- Einschränkungen: MPS unterstützt keine Arrays mit >2^32 Elementen, was ultra-hohe Auflösungen einschränken kann. Beste Ergebnisse mit bfloat16-Precision zur Reduzierung des Speicherverbrauchs.
Community-Berichte bestätigen zuverlässiges Betrieb auf MacBook, Mac Mini und Mac Studio ohne Überhitzungsprobleme bei kurzen Sitzungen.
Vollständiger Installationsprozess
Methode 1: Einfache Ein-Klick-Installation (Ultra-Fast-Image-Generation Repo)
Diese skriptbasierte Methode automatisiert die Installation für Apple Silicon mit Z-Image-Turbo.
- Repository von GitHub herunterladen oder klonen:
git clone https://github.com/newideas99/Ultra-Fast-Image-Generation-Mac-Silicon-Z-Image. - Doppelklicken Sie auf
Launch.commandim Repository-Ordner. - Warten Sie auf die automatische Installation der Abhängigkeiten (ca. 5 Minuten beim ersten Lauf, einschließlich PyTorch und MPS).
- Öffnen Sie die lokale UI im Browser; geben Sie Prompts ein und generieren Sie Bilder.
- Hinweis: Ca. 14 Sekunden pro Bild auf M2 Max; vollständig offline.
Methode 2: z-image.me Online-Generierung
- Keine Zensur, keine Einschränkungen, Datenschutz garantiert
- Kostenlose unbegrenzte Generierung, bei hoher Benutzerlast kann es zu Wartezeiten kommen
- Keine komplexe Konfiguration erforderlich, umfangreiche Prompt-Vorlagen, Unterstützung für den Aufruf von Stilbibliotheken mit einem Klick
- Plattformübergreifend ohne Konfigurationsanforderungen
Methode 3: ComfyUI (basiert auf GUI, empfohlen für Workflows)
ComfyUI bietet eine knotenbasierte Oberfläche, unterstützt Z-Image-Turbo und hat hervorragende Kompatibilität mit macOS.
- PyTorch installieren:
pip3 install torch torchvision(MPS wird automatisch aktiviert). - ComfyUI klonen:
git clone https://github.com/comfyanonymous/ComfyUI. - In den Ordner wechseln:
cd ComfyUI. - Abhängigkeiten installieren:
pip install -r requirements.txt. - Modelle herunterladen:
- VAE: ae.safetensors nach
models/vae. - Text-Encoder: qwen_3_4b.safetensors nach
models/text_encoders. - Diffusionsmodell: z_image_turbo_bf16.safetensors nach
models/diffusion_models.
(Von Hugging Face: https://huggingface.co/Comfy-Org/z_image_turbo/tree/main/split_files)
- VAE: ae.safetensors nach
- Workflow herunterladen: image_z_image_turbo_v2.json.
- ComfyUI ausführen:
python main.py. - localhost:8188 im Browser öffnen; Workflow-JSON in die UI ziehen.
- Prompt bearbeiten (z. B. Lichtdetails hinzufügen), auf Ausführen klicken.
- Hinweis: Updates über ComfyUI Manager. Die Generierung verwendet ca. 24GB RAM; bei Bedarf Attention Slicing im Code aktivieren.
Methode 4: Native App (ZImageApp)
Kostenloser, einrichtungsloser Client, der für Apple Silicon entwickelt wurde und Z-Image-Turbo lokal ausführt.
- App von zimageapp.com herunterladen.
- Durch Ziehen in den Applications-Ordner installieren.
- App starten; Modelle werden beim ersten Lauf automatisch heruntergeladen.
- Hinweis: Geeignet für Anfänger
Methode 5: Hugging Face Diffusers (skriptbasiert)
Für programmatische Steuerung mit für MPS angepassten Diffusers.
- PyTorch installieren:
pip3 install torch torchvision. - Diffusers installieren:
pip install git+https://github.com/huggingface/diffusers. - Zusätzliche Pakete installieren:
pip install transformers accelerate safetensors huggingface_hub. - Modell herunterladen:
huggingface-cli download Tongyi-MAI/Z-Image-Turbo --local-dir ./Z-Image-Turbo. - Skript erstellen (z. B. generate.py):
import torch from diffusers import ZImagePipeline pipe = ZImagePipeline.from_pretrained("./Z-Image-Turbo", torch_dtype=torch.bfloat16, low_cpu_mem_usage=False) pipe.to("mps") # 使用MPS而非CUDA pipe.enable_attention_slicing() # 用于<64GB RAM prompt = "Young woman in red Hanfu, intricate details, neon lights, night background." image = pipe(prompt, height=1024, width=1024, num_inference_steps=9, guidance_scale=0.0).images[0] image.save("output.webp") - Ausführen:
python generate.py.
- Hinweis: MPS wird automatisch erkannt; für wiederholte Ausführung
--compilehinzufügen. LoRA wird über CLI-Tools wie z-image-mps unterstützt.
Verwendung und Optimierung
- Prompt Engineering: Verwenden Sie beschreibende, chinesisch-englisch gemischte Prompts (z. B. Englisch/Chinesisch für Textelemente). Fügen Sie Schlüsselwörter wie "Volumetric Lighting" zur Verbesserung hinzu.
- Optimierung: Flash Attention aktivieren (falls unterstützt), torch.compile zur Beschleunigung, oder CPU-Offloading bei geringem RAM. MLX-Port kann die Leistung auf Macs weiter verbessern.
- Fehlerbehebung: Diffusers bei Importfehlern aktualisieren. Bei langsamer Leistung RAM-Verwendung im Activity Monitor prüfen. Artefakte? Prompt optimieren oder LoRA verwenden.