一覧に戻る
GGUF-Org Z-Image GGUFモデル
低VRAM(6GB以上)デプロイメント用の公式GGUF量子化版Z-Image Turboモデル。ComfyUI最適化で複数の量子化レベルを提供
GGUF
量子化
低VRAM
ComfyUI
6GB対応
コンシューマーGPU
概要
GGUF-OrgはZ-Image Turboの公式変換GGUF量子化版を提供し、わずか6GBのVRAMを持つコンシューマグレードGPUでのデプロイメントを可能にします。Q3_K_S、IQ4_NL、IQ4_XSなど、異なるVRAM/品質トレードオフのための複数の量子化レベルをサポート。
機能
- 複数の量子化レベル: Q3_K_S (6GB)、IQ4_NL/IQ4_XS (8GB)
- GGUF-ConnectorまたはComfyUI-GGUF拡張機能経由でComfyUIと互換
- 様々なQwen3テキストエンコーダバリアントをサポート
- 効率的なロードのためのメモリマップファイル形式
- VRAMニーズを最大70%削減しながら画質を維持
- VAEおよびテキストエンコーダモデルを含む
インストール
GGUFファイルをダウンロードしてComfyUIディレクトリに配置: - Z-Imageモデル → ./ComfyUI/models/diffusion_models - Qwen3-4Bエンコーダ → ./ComfyUI/models/text_encoders - VAE → ./ComfyUI/models/vae
使用方法
ComfyUI GGUF拡張機能またはgguf-connector CLIツールと共に使用。'ggc z1'を実行してGGUFモデルを選択・操作。
要件
- 6GB以上のVRAM(RTX 2060または同等)
- 16GB以上のシステムRAM
- GGUF拡張機能付きComfyUI
- SSDストレージ(HDDは不可)