목록으로 돌아가기
GGUF-Org Z-Image GGUF 모델
낮은 VRAM(6GB+) 배포를 위한 공식 GGUF 양자화 버전 Z-Image Turbo 모델, 여러 양자화 레벨로 ComfyUI에 최적화
GGUF
양자화
낮은 VRAM
ComfyUI
6GB 호환
소비자 GPU
개요
GGUF-Org는 Z-Image Turbo의 공식 변환 GGUF 양자화 버전을 제공하여 6GB의 VRAM만으로 소비자급 GPU에 배포할 수 있게 합니다. Q3_K_S, IQ4_NL, IQ4_XS 등 다양한 VRAM/품질 절충을 위한 여러 양자화 레벨을 지원합니다.
기능
- 여러 양자화 레벨: Q3_K_S (6GB), IQ4_NL/IQ4_XS (8GB)
- GGUF-Connector 또는 ComfyUI-GGUF 확장을 통해 ComfyUI와 호환
- 다양한 Qwen3 텍스트 인코더 변형 지원
- 효율적인 로딩을 위한 메모리 매핑 파일 형식
- VRAM 요구 사항을 최대 70% 줄이면서 이미지 품질 유지
- VAE 및 텍스트 인코더 모델 포함
설치
GGUF 파일을 다운로드하여 ComfyUI 디렉토리에 배치: - Z-Image 모델 → ./ComfyUI/models/diffusion_models - Qwen3-4B 인코더 → ./ComfyUI/models/text_encoders - VAE → ./ComfyUI/models/vae
사용법
ComfyUI GGUF 확장 또는 gguf-connector CLI 도구와 함께 사용. 'ggc z1'을 실행하여 GGUF 모델을 선택하고 상호 작용.
요구사항
- 6GB+ VRAM (RTX 2060 또는 동등)
- 16GB+ 시스템 RAM
- GGUF 확장이 있는 ComfyUI
- SSD 스토리지 (HDD 불가)