
Z-Image Turbo FP8 Hires 工作流(低 VRAM 优化)
这是一个为低 VRAM 用户设计的高效 ComfyUI 工作流。通过利用 FP8 量化模型和潜像放大技术,它能够快速生成高分辨率图像(1024x1792),同时保持最低的资源使用。 📂 所需模型与下载 为确保工作流正常运行,请下载以下模型并将其放置在相应的 ComfyUI 文件夹中: 1. UNet 模型(放置在 models/unet/) 文件名:z-image-turbo-fp8-e4m3fn.safetensors 下载:HuggingFace - Z-Image-Turbo-FP8 2. CLIP / 文本编码器(放置在 models/clip/) 文件名:qwen3-4b-fp8-scaled.safetensors 下载:HuggingFace - Qwen3-4B-FP8 ⚙️ 关键设置与配置 此工作流采用 2 阶段系统。请遵循以下设置以获得最佳效果: 🔹 阶段 1:基础生成 潜像大小:以较低初始分辨率生成(例如 512x896)以节省计算资源。 🔹 阶段 2:潜像放大 放大方法:使用 LatentUpscaleBy。 缩放因子:默认为 2(最终输出为 1024x1792)。 🔹 阶段 3:高分辨率修复(精炼器) 此步骤对图像清晰度和细节至关重要: 采样器:res_multistep(强烈推荐)。 去噪:推荐范围 0.5 - 0.6。 < 0.5:变化很小;图像可能仍然略微模糊。 > 0.6:增加更多细节,但设置过高可能会改变图像结构或导致幻觉。 📊 性能基准 基于实际测试数据: GPU输出分辨率时间NVIDIA RTX 5070 Ti1024 x 17928 ~ 9 秒 📝 使用技巧 内存管理:如果您 VRAM 严重不足,请确保后台没有加载其他大型模型。 提示词:由于此工作流使用 Qwen 文本编码器,它具有很强的自然语言理解能力。详细、基于句子的提示词效果非常好。 故障排除:如果注意到图像细节断裂或看起来“烧毁”,请尝试在第二个 KSampler 中稍微降低去噪值。
Features & Nodes
✨ 关键特性 极低 VRAM 使用:完整的 FP8 管道(模型 & 文本编码器)以大幅减少内存占用。 闪电般快速:针对 Turbo 模型和高效采样步骤进行了优化。 高分辨率修复管道:利用潜像放大 + 第二阶段 KSampler 确保清晰细节,无需高昂的 VRAM 成本。 AuraFlow 架构:使用 ModelSamplingAuraFlow 节点进行了优化。