목록으로 돌아가기

GGUF-Org Z-Image GGUF 모델

낮은 VRAM(6GB+) 배포를 위한 공식 GGUF 양자화 버전 Z-Image Turbo 모델, 여러 양자화 레벨로 ComfyUI에 최적화

GGUF
양자화
낮은 VRAM
ComfyUI
6GB 호환
소비자 GPU

개요

GGUF-Org는 Z-Image Turbo의 공식 변환 GGUF 양자화 버전을 제공하여 6GB의 VRAM만으로 소비자급 GPU에 배포할 수 있게 합니다. Q3_K_S, IQ4_NL, IQ4_XS 등 다양한 VRAM/품질 절충을 위한 여러 양자화 레벨을 지원합니다.

기능

  • 여러 양자화 레벨: Q3_K_S (6GB), IQ4_NL/IQ4_XS (8GB)
  • GGUF-Connector 또는 ComfyUI-GGUF 확장을 통해 ComfyUI와 호환
  • 다양한 Qwen3 텍스트 인코더 변형 지원
  • 효율적인 로딩을 위한 메모리 매핑 파일 형식
  • VRAM 요구 사항을 최대 70% 줄이면서 이미지 품질 유지
  • VAE 및 텍스트 인코더 모델 포함

설치

GGUF 파일을 다운로드하여 ComfyUI 디렉토리에 배치:
- Z-Image 모델 → ./ComfyUI/models/diffusion_models
- Qwen3-4B 인코더 → ./ComfyUI/models/text_encoders
- VAE → ./ComfyUI/models/vae

사용법

ComfyUI GGUF 확장 또는 gguf-connector CLI 도구와 함께 사용. 'ggc z1'을 실행하여 GGUF 모델을 선택하고 상호 작용.

요구사항

  • 6GB+ VRAM (RTX 2060 또는 동등)
  • 16GB+ 시스템 RAM
  • GGUF 확장이 있는 ComfyUI
  • SSD 스토리지 (HDD 불가)

관련 링크