一覧に戻る

GGUF-Org Z-Image GGUFモデル

低VRAM(6GB以上)デプロイメント用の公式GGUF量子化版Z-Image Turboモデル。ComfyUI最適化で複数の量子化レベルを提供

GGUF
量子化
低VRAM
ComfyUI
6GB対応
コンシューマーGPU

概要

GGUF-OrgはZ-Image Turboの公式変換GGUF量子化版を提供し、わずか6GBのVRAMを持つコンシューマグレードGPUでのデプロイメントを可能にします。Q3_K_S、IQ4_NL、IQ4_XSなど、異なるVRAM/品質トレードオフのための複数の量子化レベルをサポート。

機能

  • 複数の量子化レベル: Q3_K_S (6GB)、IQ4_NL/IQ4_XS (8GB)
  • GGUF-ConnectorまたはComfyUI-GGUF拡張機能経由でComfyUIと互換
  • 様々なQwen3テキストエンコーダバリアントをサポート
  • 効率的なロードのためのメモリマップファイル形式
  • VRAMニーズを最大70%削減しながら画質を維持
  • VAEおよびテキストエンコーダモデルを含む

インストール

GGUFファイルをダウンロードしてComfyUIディレクトリに配置:
- Z-Imageモデル → ./ComfyUI/models/diffusion_models
- Qwen3-4Bエンコーダ → ./ComfyUI/models/text_encoders
- VAE → ./ComfyUI/models/vae

使用方法

ComfyUI GGUF拡張機能またはgguf-connector CLIツールと共に使用。'ggc z1'を実行してGGUFモデルを選択・操作。

要件

  • 6GB以上のVRAM(RTX 2060または同等)
  • 16GB以上のシステムRAM
  • GGUF拡張機能付きComfyUI
  • SSDストレージ(HDDは不可)

関連リンク