
(Updated 2/6/2026)
如何在Mac電腦上使用Z-Image模型:完整安裝與優化指南
Author: z-image.me Team•5 min read
如何在Mac電腦上使用Z-Image模型
硬體相容性
Apple Silicon Mac(如M3系列)利用PyTorch的MPS後端加速;Intel Mac可透過CPU運行但較慢。確保足夠的RAM以避免卡頓。
Mac 硬體相容性與要求
- 晶片版本:Apple Silicon M3、M4或更高。基準測試顯示在M3 Max(例如,1024x1024圖像需60-80秒)和M2 Max(優化後低至14秒)上性能強勁。Intel Mac可透過CPU運行,但時間慢2-5倍。
- RAM:最低16GB統一記憶體;推薦32-64GB以處理峰值負載(生成期間約24GB)。低RAM設定可能需CPU卸載,增加時間。
- OS與軟體:macOS 10.15+;Python 3.9-3.12;PyTorch 2.0+ 支援MPS。無需額外驅動——Metal內建。
- 限制:MPS不支援>2^32元素的陣列,可能限制超高解析度。最佳結果使用bfloat16精度減少記憶體使用。
社群報告確認在MacBook、Mac Mini和Mac Studio上可靠運行,短會話無過熱問題。
完整安裝過程
方法1:簡單一鍵設定(Ultra-Fast-Image-Generation Repo)
此基於腳本的方法針對Apple Silicon自動化安裝,使用Z-Image-Turbo。
- 從GitHub下載或倉庫:
git clone https://github.com/newideas99/Ultra-Fast-Image-Generation-Mac-Silicon-Z-Image。 - 雙擊倉資料夾中的
Launch.command。 - 等待自動安裝依賴(首次運行約5分鐘,包括PyTorch與MPS)。
- 瀏覽器開啟本地UI;輸入提示並生成圖像。
- 注意:在M2 Max上每張圖像約14秒;完全離線。
方法2:z-image.me 線上生成
- 無審核,無限制,隱私保障
- 免費無限生成,用戶量大時可能需要排隊
- 無需複雜配置,海量提示詞模板,支援一鍵呼叫樣式庫
- 跨平台無任何配置要求
方法3:ComfyUI(基於GUI,推薦用於工作流)
ComfyUI提供節點式介面,支援Z-Image-Turbo,在macOS上相容性優秀。
- 安裝PyTorch:
pip3 install torch torchvision(自動啟用MPS)。 - 克隆ComfyUI:
git clone https://github.com/comfyanonymous/ComfyUI。 - 進入資料夾:
cd ComfyUI。 - 安裝依賴:
pip install -r requirements.txt。 - 下載模型:
- VAE:ae.safetensors 到
models/vae。 - 文本編碼器:qwen_3_4b.safetensors 到
models/text_encoders。 - 擴散模型:z_image_turbo_bf16.safetensors 到
models/diffusion_models。
(從Hugging Face:https://huggingface.co/Comfy-Org/z_image_turbo/tree/main/split_files)
- VAE:ae.safetensors 到
- 下載工作流:image_z_image_turbo_v2.json。
- 運行ComfyUI:
python main.py。 - 在瀏覽器開啟localhost:8188;拖曳工作流JSON到UI。
- 編輯提示(例如,添加光照細節),點擊運行。
- 注意:透過ComfyUI Manager更新。生成使用約24GB RAM;如需,啟用程式碼中的注意力切片。
方法4:原生App(ZImageApp)
免費、無需設定的客戶端,針對Apple Silicon設計,運行Z-Image-Turbo本地。
- 從zimageapp.com下載App。
- 透過拖曳安裝到Applications資料夾。
- 啟動App;首次運行自動下載模型。
- 注意:適合初學者
方法5:Hugging Face Diffusers(基於腳本)
用於程式設計控制,使用MPS調整的Diffusers。
- 安裝PyTorch:
pip3 install torch torchvision。 - 安裝Diffusers:
pip install git+https://github.com/huggingface/diffusers。 - 安裝額外:
pip install transformers accelerate safetensors huggingface_hub。 - 下載模型:
huggingface-cli download Tongyi-MAI/Z-Image-Turbo --local-dir ./Z-Image-Turbo。 - 建立腳本(例如,generate.py):
import torch from diffusers import ZImagePipeline pipe = ZImagePipeline.from_pretrained("./Z-Image-Turbo", torch_dtype=torch.bfloat16, low_cpu_mem_usage=False) pipe.to("mps") # 使用MPS而非CUDA pipe.enable_attention_slicing() # 用於<64GB RAM prompt = "Young woman in red Hanfu, intricate details, neon lights, night background." image = pipe(prompt, height=1024, width=1024, num_inference_steps=9, guidance_scale=0.0).images[0] image.save("output.webp") - 運行:
python generate.py。
- 注意:自動偵測MPS;重複運行添加
--compile。透過CLI工具如z-image-mps支援LoRA。
使用與優化
- 提示工程:使用描述性、中英混合提示(例如,混合英文/中文用於文本元素)。添加如"體積光照"等關鍵字增強。
- 優化:啟用Flash Attention(如果支援)、torch.compile加速,或低RAM時CPU卸載。MLX端口可在Mac上進一步提升。
- 故障排除:匯入錯誤時更新Diffusers。運行慢時檢查Activity Monitor中的RAM使用。偽影?優化提示或使用LoRA。