返回列表

GGUF-Org Z-Image GGUF 模型

Z-Image Turbo 官方 GGUF 量化版本,支持低显存(6GB+)部署,针对 ComfyUI 优化,提供多种量化级别

GGUF
量化
低显存
ComfyUI
6GB兼容
消费级显卡

概述

GGUF-Org 提供官方转换的 Z-Image Turbo GGUF 量化版本,可在显存低至 6GB 的消费级 GPU 上部署。支持多种量化级别,包括 Q3_K_S、IQ4_NL 和 IQ4_XS,提供不同的显存/质量权衡选择。

特性

  • 多种量化级别:Q3_K_S (6GB), IQ4_NL/IQ4_XS (8GB)
  • 通过 GGUF-Connector 或 ComfyUI-GGUF 扩展兼容 ComfyUI
  • 支持各种 Qwen3 文本编码器变体
  • 内存映射文件格式,高效加载
  • 保持图像质量同时将显存需求降低多达 70%
  • 包含 VAE 和文本编码器模型

安装说明

下载 GGUF 文件并放置到 ComfyUI 目录:
- Z-Image 模型 → ./ComfyUI/models/diffusion_models
- Qwen3-4B 编码器 → ./ComfyUI/models/text_encoders
- VAE → ./ComfyUI/models/vae

使用方法

配合 ComfyUI GGUF 扩展或 gguf-connector CLI 工具使用。运行 'ggc z1' 选择并交互使用 GGUF 模型。

系统要求

  • 6GB+ 显存(RTX 2060 或同等显卡)
  • 16GB+ 系统内存
  • 带 GGUF 扩展的 ComfyUI
  • SSD 存储(不建议机械硬盘)

相关链接