Zit WorkflowZ-Image Turbo FP8 Hires Workflow (Low VRAM Optimized)
Back to Library
Z-Image Turbo FP8 Hires Workflow (Low VRAM Optimized)
Z-Image Turbo FP8 Hires Workflow (Low VRAM Optimized) preview 1
Z-Image Turbo FP8 Hires Workflow (Low VRAM Optimized) preview 2
Z-Image Turbo FP8 Hires Workflow (Low VRAM Optimized) preview 3
Core

Z-Image Turbo FP8 Hires Workflow (Low VRAM Optimized)

Dies ist ein hoch-effizienter ComfyUI Workflow, der speziell für Benutzer mit geringem VRAM-Bedarf entwickelt wurde. Durch die Nutzung von FP8 Quantisierten Modellen und Latent Upscale-Technologie generiert er hochauflösende Bilder (1024x1792) schnell, während gleichzeitig der Ressourcenverbrauch minimiert wird. 📂 Erforderliche Modelle & Downloads Um sicherzustellen, dass der Workflow korrekt funktioniert, laden Sie bitte die folgenden Modelle herunter und platzieren Sie sie in Ihren jeweiligen ComfyUI-Ordner: 1. UNet-Modell (Platzieren in models/unet/) Dateiname: z-image-turbo-fp8-e4m3fn.safetensors Download: HuggingFace - Z-Image-Turbo-FP8 2. CLIP / Text-Encoder (Platzieren in models/clip/) Dateiname: qwen3-4b-fp8-scaled.safetensors Download: HuggingFace - Qwen3-4B-FP8 ⚙️ Schlüssel-Einstellungen & Konfiguration Dieser Workflow arbeitet nach einem 2-Pass-System. Bitte beachten Sie die folgenden Einstellungen für die besten Ergebnisse: 🔹 Phase 1: Basis-Generierung Latent Size: Generiert zu einer niedrigeren Anfangsauflösung (z. B., 512x896), um Rechenressourcen zu sparen. 🔹 Phase 2: Latent Upscale Upscale-Methode: Verwendet LatentUpscaleBy. Skalierungsfaktor: Standard ist 2 (was zu einer finalen Ausgabe von 1024x1792 führt). 🔹 Phase 3: Hires Fix (Refiner) Dieser Schritt ist entscheidend für die Bildklarheit und -details: Sampler: res_multistep (Hoch empfohlen). Denoise: Empfohlener Bereich 0.5 - 0.6. < 0.5: Änderungen sind minimal; das Bild kann leicht unscharf bleiben. > 0.6: Fügt mehr Details hinzu, aber eine zu hohe Einstellung kann die Bildstruktur verändern oder Halluzinationen verursachen. 📊 Leistungsbenchmark Daten basierend auf tatsächlichen Tests: GPUAusgabeauflösungZeitNVIDIA RTX 5070 Ti1024 x 17928 ~ 9 sec 📝 Tipps zur Nutzung Speicher-Management: Wenn Sie extrem limitiert bei VRAM sind, stellen Sie sicher, dass keine anderen großen Modelle im Hintergrund geladen werden. Prompting: Da hier der Qwen-Text-Encoder verwendet wird, hat er eine starke natürliche Sprachverständnis. Detaillierte, satz-basierte Prompts funktionieren sehr gut. Problembehebung: Wenn Sie feststellen, dass die Bilddetails zerstört oder "verbrennt" aussehen, versuchen Sie, den Denoise-Wert im zweiten KSampler leicht zu senken.

Features & Nodes

✨ Schlüssel-Funktionen Extreme niedrige VRAM-Nutzung: Vollständiger FP8-Pipeline (Modell & Text-Encoder), um den Speicherfußabdruck drastisch zu reduzieren. Blitzschnell: Optimiert für Turbo-Modelle und effiziente Sampling-Schritte. Hires Fix-Pipeline: Nutzt Latent Upscale + 2. Pass KSampler, um scharfe Details ohne hohen VRAM-Kosten zu gewährleisten. AuraFlow-Architektur: Optimiert mit dem ModelSamplingAuraFlow-Knoten.