
Z-Image Turbo FP8 Hires 工作流(低 VRAM 优化)
这是一个为低 VRAM 用户设计的高效 ComfyUI 工作流。通过利用 FP8 量化模型和潜像放大技术,它能够快速生成高分辨率图像(1024x1792),同时保持最低的资源使用。 📂 所需模型与下载 为确保工作流正常运行,请下载以下模型并将其放置在相应的 ComfyUI 文件夹中: 1. UNet 模型(放置在 models/unet/) 文件名:z-image-turbo-fp8-e4m3fn.safetensors 下载:HuggingFace - Z-Image-Turbo-FP8 2. CLIP / 文本编码器(放置在 models/clip/) 文件名:qwen3-4b-fp8-scaled.safetensors 下载:HuggingFace - Qwen3-4B-FP8 ⚙️ 关键设置与配置 此工作流采用 2 阶段系统。请遵循以下设置以获得最佳效果: 🔹 阶段 1:基础生成 潜像大小:以较低初始分辨率生成(例如 512x896)以节省计算资源。 🔹 阶段 2:潜像放大 放大方法:使用 LatentUpscaleBy。 缩放因子:默认为 2(最终输出为 1024x1792)。 🔹 阶段 3:高分辨率修复(精炼器) 此步骤对图像清晰度和细节至关重要: 采样器:res_multistep(强烈推荐)。 去噪:推荐范围 0.5 - 0.6。 < 0.5:变化很小;图像可能仍然略微模糊。 > 0.6:增加更多细节,但设置过高可能会改变图像结构或导致幻觉。 📊 性能基准 基于实际测试数据: GPU输出分辨率时间NVIDIA RTX 5070 Ti1024 x 17928 ~ 9 秒 📝 使用技巧 内存管理:如果您 VRAM 严重不足,请确保后台没有加载其他大型模型。 提示词:由于此工作流使用 Qwen 文本编码器,它具有很强的自然语言理解能力。详细、基于句子的提示词效果非常好。 故障排除:如果注意到图像细节断裂或看起来“烧毁”,请尝试在第二个 KSampler 中稍微降低去噪值。
Features & Nodes
✨ 关键特性 极低 VRAM 使用:完整的 FP8 管道(模型 & 文本编码器)以大幅减少内存占用。 闪电般快速:针对 Turbo 模型和高效采样步骤进行了优化。 高分辨率修复管道:利用潜像放大 + 第二阶段 KSampler 确保清晰细节,无需高昂的 VRAM 成本。 AuraFlow 架构:使用 ModelSamplingAuraFlow 节点进行了优化。
热门工具
探索最受欢迎的创意工具
Z-Image Edit
上传图片,一句话即可改变一切。
创意引擎
一句话让AI 为你提供无限提示词创意
图像解析
上传图片,立即读取提示词
提示词库
发现成千上万的高质量 AI 提示词。
Z-Image LoRA
多 LoRA 组合生成,创造独一无二的 AI 艺术作品。
AI 视频生成
输入文字或上传图片,AI 自动生成创意视频。
AI 绘图生成器
输入文字,瞬间转化为精美的 AI 绘图作品。
样式库
探索为您创作精心挑选的艺术风格。
智能抠图
一键移除图片背景,实现专业级高精度抠图。
画质增强
将图片无损放大至 4K/8K,恢复清晰细节。
图片重构
使用 AI 外绘技术将图片扩展至任意比例背景。