Wie man das Z-Image-Modell auf einem Mac verwendet: Vollständige Installations- und Optimierungsanleitung
(Updated 2/6/2026)

Wie man das Z-Image-Modell auf einem Mac verwendet: Vollständige Installations- und Optimierungsanleitung

Author: z-image.me Team5 min read

Wie man das Z-Image-Modell auf einem Mac verwendet

Hardware-Kompatibilität

Apple Silicon Macs (wie die M3-Serie) nutzen die MPS-Backend-Beschleunigung von PyTorch; Intel Macs können über CPU laufen, aber langsamer. Stellen Sie sicher, dass genügend RAM vorhanden ist, um Ruckeln zu vermeiden.

Mac-Hardware-Kompatibilität und Anforderungen
  • Chip-Version: Apple Silicon M3, M4 oder höher. Benchmarks zeigen starke Leistung auf M3 Max (z. B. 60-80 Sekunden für 1024x1024-Bilder) und M2 Max (nach Optimierung bis zu 14 Sekunden). Intel Macs können über CPU laufen, aber sind 2-5 Mal langsamer.
  • RAM: Mindestens 16GB Unified Memory; empfohlen 32-64GB für Spitzenlasten (ca. 24GB während der Generierung). Bei geringem RAM kann CPU-Offloading erforderlich sein, was die Zeit erhöht.
  • OS und Software: macOS 10.15+; Python 3.9-3.12; PyTorch 2.0+ mit MPS-Unterstützung. Keine zusätzlichen Treiber erforderlich – Metal ist integriert.
  • Einschränkungen: MPS unterstützt keine Arrays mit >2^32 Elementen, was ultra-hohe Auflösungen einschränken kann. Beste Ergebnisse mit bfloat16-Precision zur Reduzierung des Speicherverbrauchs.

Community-Berichte bestätigen zuverlässiges Betrieb auf MacBook, Mac Mini und Mac Studio ohne Überhitzungsprobleme bei kurzen Sitzungen.

Vollständiger Installationsprozess

Methode 1: Einfache Ein-Klick-Installation (Ultra-Fast-Image-Generation Repo)
Diese skriptbasierte Methode automatisiert die Installation für Apple Silicon mit Z-Image-Turbo.

  1. Repository von GitHub herunterladen oder klonen: git clone https://github.com/newideas99/Ultra-Fast-Image-Generation-Mac-Silicon-Z-Image.
  2. Doppelklicken Sie auf Launch.command im Repository-Ordner.
  3. Warten Sie auf die automatische Installation der Abhängigkeiten (ca. 5 Minuten beim ersten Lauf, einschließlich PyTorch und MPS).
  4. Öffnen Sie die lokale UI im Browser; geben Sie Prompts ein und generieren Sie Bilder.
  • Hinweis: Ca. 14 Sekunden pro Bild auf M2 Max; vollständig offline.

Methode 2: z-image.me Online-Generierung

  1. Keine Zensur, keine Einschränkungen, Datenschutz garantiert
  2. Kostenlose unbegrenzte Generierung, bei hoher Benutzerlast kann es zu Wartezeiten kommen
  3. Keine komplexe Konfiguration erforderlich, umfangreiche Prompt-Vorlagen, Unterstützung für den Aufruf von Stilbibliotheken mit einem Klick
  4. Plattformübergreifend ohne Konfigurationsanforderungen

Methode 3: ComfyUI (basiert auf GUI, empfohlen für Workflows)
ComfyUI bietet eine knotenbasierte Oberfläche, unterstützt Z-Image-Turbo und hat hervorragende Kompatibilität mit macOS.

  1. PyTorch installieren: pip3 install torch torchvision (MPS wird automatisch aktiviert).
  2. ComfyUI klonen: git clone https://github.com/comfyanonymous/ComfyUI.
  3. In den Ordner wechseln: cd ComfyUI.
  4. Abhängigkeiten installieren: pip install -r requirements.txt.
  5. Modelle herunterladen:
  6. Workflow herunterladen: image_z_image_turbo_v2.json.
  7. ComfyUI ausführen: python main.py.
  8. localhost:8188 im Browser öffnen; Workflow-JSON in die UI ziehen.
  9. Prompt bearbeiten (z. B. Lichtdetails hinzufügen), auf Ausführen klicken.
  • Hinweis: Updates über ComfyUI Manager. Die Generierung verwendet ca. 24GB RAM; bei Bedarf Attention Slicing im Code aktivieren.

Methode 4: Native App (ZImageApp)
Kostenloser, einrichtungsloser Client, der für Apple Silicon entwickelt wurde und Z-Image-Turbo lokal ausführt.

  1. App von zimageapp.com herunterladen.
  2. Durch Ziehen in den Applications-Ordner installieren.
  3. App starten; Modelle werden beim ersten Lauf automatisch heruntergeladen.
  • Hinweis: Geeignet für Anfänger

Methode 5: Hugging Face Diffusers (skriptbasiert)
Für programmatische Steuerung mit für MPS angepassten Diffusers.

  1. PyTorch installieren: pip3 install torch torchvision.
  2. Diffusers installieren: pip install git+https://github.com/huggingface/diffusers.
  3. Zusätzliche Pakete installieren: pip install transformers accelerate safetensors huggingface_hub.
  4. Modell herunterladen: huggingface-cli download Tongyi-MAI/Z-Image-Turbo --local-dir ./Z-Image-Turbo.
  5. Skript erstellen (z. B. generate.py):
    import torch
    from diffusers import ZImagePipeline
    
    pipe = ZImagePipeline.from_pretrained("./Z-Image-Turbo", torch_dtype=torch.bfloat16, low_cpu_mem_usage=False)
    pipe.to("mps")  # 使用MPS而非CUDA
    pipe.enable_attention_slicing()  # 用于<64GB RAM
    
    prompt = "Young woman in red Hanfu, intricate details, neon lights, night background."
    image = pipe(prompt, height=1024, width=1024, num_inference_steps=9, guidance_scale=0.0).images[0]
    image.save("output.webp")
    
  6. Ausführen: python generate.py.
  • Hinweis: MPS wird automatisch erkannt; für wiederholte Ausführung --compile hinzufügen. LoRA wird über CLI-Tools wie z-image-mps unterstützt.
Verwendung und Optimierung
  • Prompt Engineering: Verwenden Sie beschreibende, chinesisch-englisch gemischte Prompts (z. B. Englisch/Chinesisch für Textelemente). Fügen Sie Schlüsselwörter wie "Volumetric Lighting" zur Verbesserung hinzu.
  • Optimierung: Flash Attention aktivieren (falls unterstützt), torch.compile zur Beschleunigung, oder CPU-Offloading bei geringem RAM. MLX-Port kann die Leistung auf Macs weiter verbessern.
  • Fehlerbehebung: Diffusers bei Importfehlern aktualisieren. Bei langsamer Leistung RAM-Verwendung im Activity Monitor prüfen. Artefakte? Prompt optimieren oder LoRA verwenden.