如何在Mac電腦上使用Z-Image模型:完整安裝與優化指南
(Updated 2/6/2026)

如何在Mac電腦上使用Z-Image模型:完整安裝與優化指南

Author: z-image.me Team5 min read

如何在Mac電腦上使用Z-Image模型

硬體相容性

Apple Silicon Mac(如M3系列)利用PyTorch的MPS後端加速;Intel Mac可透過CPU運行但較慢。確保足夠的RAM以避免卡頓。

Mac 硬體相容性與要求
  • 晶片版本:Apple Silicon M3、M4或更高。基準測試顯示在M3 Max(例如,1024x1024圖像需60-80秒)和M2 Max(優化後低至14秒)上性能強勁。Intel Mac可透過CPU運行,但時間慢2-5倍。
  • RAM:最低16GB統一記憶體;推薦32-64GB以處理峰值負載(生成期間約24GB)。低RAM設定可能需CPU卸載,增加時間。
  • OS與軟體:macOS 10.15+;Python 3.9-3.12;PyTorch 2.0+ 支援MPS。無需額外驅動——Metal內建。
  • 限制:MPS不支援>2^32元素的陣列,可能限制超高解析度。最佳結果使用bfloat16精度減少記憶體使用。

社群報告確認在MacBook、Mac Mini和Mac Studio上可靠運行,短會話無過熱問題。

完整安裝過程

方法1:簡單一鍵設定(Ultra-Fast-Image-Generation Repo)
此基於腳本的方法針對Apple Silicon自動化安裝,使用Z-Image-Turbo。

  1. 從GitHub下載或倉庫:git clone https://github.com/newideas99/Ultra-Fast-Image-Generation-Mac-Silicon-Z-Image
  2. 雙擊倉資料夾中的Launch.command
  3. 等待自動安裝依賴(首次運行約5分鐘,包括PyTorch與MPS)。
  4. 瀏覽器開啟本地UI;輸入提示並生成圖像。
  • 注意:在M2 Max上每張圖像約14秒;完全離線。

方法2:z-image.me 線上生成

  1. 無審核,無限制,隱私保障
  2. 免費無限生成,用戶量大時可能需要排隊
  3. 無需複雜配置,海量提示詞模板,支援一鍵呼叫樣式庫
  4. 跨平台無任何配置要求

方法3:ComfyUI(基於GUI,推薦用於工作流)
ComfyUI提供節點式介面,支援Z-Image-Turbo,在macOS上相容性優秀。

  1. 安裝PyTorch:pip3 install torch torchvision(自動啟用MPS)。
  2. 克隆ComfyUI:git clone https://github.com/comfyanonymous/ComfyUI
  3. 進入資料夾:cd ComfyUI
  4. 安裝依賴:pip install -r requirements.txt
  5. 下載模型:
  6. 下載工作流:image_z_image_turbo_v2.json。
  7. 運行ComfyUI:python main.py
  8. 在瀏覽器開啟localhost:8188;拖曳工作流JSON到UI。
  9. 編輯提示(例如,添加光照細節),點擊運行。
  • 注意:透過ComfyUI Manager更新。生成使用約24GB RAM;如需,啟用程式碼中的注意力切片。

方法4:原生App(ZImageApp)
免費、無需設定的客戶端,針對Apple Silicon設計,運行Z-Image-Turbo本地。

  1. 從zimageapp.com下載App。
  2. 透過拖曳安裝到Applications資料夾。
  3. 啟動App;首次運行自動下載模型。
  • 注意:適合初學者

方法5:Hugging Face Diffusers(基於腳本)
用於程式設計控制,使用MPS調整的Diffusers。

  1. 安裝PyTorch:pip3 install torch torchvision
  2. 安裝Diffusers:pip install git+https://github.com/huggingface/diffusers
  3. 安裝額外:pip install transformers accelerate safetensors huggingface_hub
  4. 下載模型:huggingface-cli download Tongyi-MAI/Z-Image-Turbo --local-dir ./Z-Image-Turbo
  5. 建立腳本(例如,generate.py):
    import torch
    from diffusers import ZImagePipeline
    
    pipe = ZImagePipeline.from_pretrained("./Z-Image-Turbo", torch_dtype=torch.bfloat16, low_cpu_mem_usage=False)
    pipe.to("mps")  # 使用MPS而非CUDA
    pipe.enable_attention_slicing()  # 用於<64GB RAM
    
    prompt = "Young woman in red Hanfu, intricate details, neon lights, night background."
    image = pipe(prompt, height=1024, width=1024, num_inference_steps=9, guidance_scale=0.0).images[0]
    image.save("output.webp")
    
  6. 運行:python generate.py
  • 注意:自動偵測MPS;重複運行添加--compile。透過CLI工具如z-image-mps支援LoRA。
使用與優化
  • 提示工程:使用描述性、中英混合提示(例如,混合英文/中文用於文本元素)。添加如"體積光照"等關鍵字增強。
  • 優化:啟用Flash Attention(如果支援)、torch.compile加速,或低RAM時CPU卸載。MLX端口可在Mac上進一步提升。
  • 故障排除:匯入錯誤時更新Diffusers。運行慢時檢查Activity Monitor中的RAM使用。偽影?優化提示或使用LoRA。