返回列表
GGUF-Org Z-Image GGUF 模型
Z-Image Turbo 官方 GGUF 量化版本,支持低显存(6GB+)部署,针对 ComfyUI 优化,提供多种量化级别
GGUF
量化
低显存
ComfyUI
6GB兼容
消费级显卡
概述
GGUF-Org 提供官方转换的 Z-Image Turbo GGUF 量化版本,可在显存低至 6GB 的消费级 GPU 上部署。支持多种量化级别,包括 Q3_K_S、IQ4_NL 和 IQ4_XS,提供不同的显存/质量权衡选择。
特性
- 多种量化级别:Q3_K_S (6GB), IQ4_NL/IQ4_XS (8GB)
- 通过 GGUF-Connector 或 ComfyUI-GGUF 扩展兼容 ComfyUI
- 支持各种 Qwen3 文本编码器变体
- 内存映射文件格式,高效加载
- 保持图像质量同时将显存需求降低多达 70%
- 包含 VAE 和文本编码器模型
安装说明
下载 GGUF 文件并放置到 ComfyUI 目录: - Z-Image 模型 → ./ComfyUI/models/diffusion_models - Qwen3-4B 编码器 → ./ComfyUI/models/text_encoders - VAE → ./ComfyUI/models/vae
使用方法
配合 ComfyUI GGUF 扩展或 gguf-connector CLI 工具使用。运行 'ggc z1' 选择并交互使用 GGUF 模型。
系统要求
- 6GB+ 显存(RTX 2060 或同等显卡)
- 16GB+ 系统内存
- 带 GGUF 扩展的 ComfyUI
- SSD 存储(不建议机械硬盘)