
如何在Mac电脑上使用Z-Image模型:完整安装与优化指南
Author: Z-Image.me•3 min read
Z-ImageMacApple SiliconM3M4ComfyUI安装教程MPS加速本地部署AI图像生成
如何在Mac电脑上使用Z-Image模型
硬件兼容性
Apple Silicon Mac(如M3系列)利用PyTorch的MPS后端加速;Intel Mac可通过CPU运行但较慢。确保足够的RAM以避免卡顿。
Mac 硬件兼容性与要求
- 芯片版本:Apple Silicon M3、M4或更高。基准测试显示在M3 Max(例如,1024x1024图像需60-80秒)和M2 Max(优化后低至14秒)上性能强劲。Intel Mac可通过CPU运行,但时间慢2-5倍。
- RAM:最低16GB统一内存;推荐32-64GB以处理峰值负载(生成期间约24GB)。低RAM设置可能需CPU卸载,增加时间。
- OS与软件:macOS 10.15+;Python 3.9-3.12;PyTorch 2.0+ 支持MPS。无需额外驱动——Metal内置。
- 限制:MPS不支持>2^32元素的数组,可能限制超高分辨率。最佳结果使用bfloat16精度减少内存使用。
社区报告确认在MacBook、Mac Mini和Mac Studio上可靠运行,短会话无过热问题。
完整安装过程
方法1:简单一键设置(Ultra-Fast-Image-Generation Repo)
此基于脚本的方法针对Apple Silicon自动化安装,使用Z-Image-Turbo。
- 从GitHub下载或克隆仓库:
git clone https://github.com/newideas99/Ultra-Fast-Image-Generation-Mac-Silicon-Z-Image。 - 双击仓库文件夹中的
Launch.command。 - 等待自动安装依赖(首次运行约5分钟,包括PyTorch与MPS)。
- 浏览器打开本地UI;输入提示并生成图像。
- 注意:在M2 Max上每张图像约14秒;完全离线。
方法2:z-image.me 在线生成
- 无审核,无限制,隐私保障
- 免费无限生成,用户量大的时候可能需要排队
- 无需复杂配置,海量提示词模板,支持一键调用样式库
- 跨平台无任何配置要求
方法3:ComfyUI(基于GUI,推荐用于工作流)
ComfyUI提供节点式界面,支持Z-Image-Turbo,在macOS上兼容性优秀。
- 安装PyTorch:
pip3 install torch torchvision(自动启用MPS)。 - 克隆ComfyUI:
git clone https://github.com/comfyanonymous/ComfyUI。 - 进入文件夹:
cd ComfyUI。 - 安装依赖:
pip install -r requirements.txt。 - 下载模型:
- VAE:ae.safetensors 到
models/vae。 - 文本编码器:qwen_3_4b.safetensors 到
models/text_encoders。 - 扩散模型:z_image_turbo_bf16.safetensors 到
models/diffusion_models。
(从Hugging Face:https://huggingface.co/Comfy-Org/z_image_turbo/tree/main/split_files)
- VAE:ae.safetensors 到
- 下载工作流:image_z_image_turbo_v2.json。
- 运行ComfyUI:
python main.py。 - 在浏览器打开localhost:8188;拖拽工作流JSON到UI。
- 编辑提示(例如,添加光照细节),点击运行。
- 注意:通过ComfyUI Manager更新。生成使用约24GB RAM;如需,启用代码中的注意力切片。
方法4:原生App(ZImageApp)
免费、无需设置的客户端,针对Apple Silicon设计,运行Z-Image-Turbo本地。
- 从zimageapp.com下载App。
- 通过拖拽安装到Applications文件夹。
- 启动App;首次运行自动下载模型。
- 注意:适合初学者
方法5:Hugging Face Diffusers(基于脚本)
用于编程控制,使用MPS调整的Diffusers。
- 安装PyTorch:
pip3 install torch torchvision。 - 安装Diffusers:
pip install git+https://github.com/huggingface/diffusers。 - 安装额外:
pip install transformers accelerate safetensors huggingface_hub。 - 下载模型:
huggingface-cli download Tongyi-MAI/Z-Image-Turbo --local-dir ./Z-Image-Turbo。 - 创建脚本(例如,generate.py):
import torch from diffusers import ZImagePipeline pipe = ZImagePipeline.from_pretrained("./Z-Image-Turbo", torch_dtype=torch.bfloat16, low_cpu_mem_usage=False) pipe.to("mps") # 使用MPS而非CUDA pipe.enable_attention_slicing() # 用于<64GB RAM prompt = "Young woman in red Hanfu, intricate details, neon lights, night background." image = pipe(prompt, height=1024, width=1024, num_inference_steps=9, guidance_scale=0.0).images[0] image.save("output.png") - 运行:
python generate.py。
- 注意:自动检测MPS;重复运行添加
--compile。通过CLI工具如z-image-mps支持LoRA。
使用与优化
- 提示工程:使用描述性、中英混合提示(例如,混合英文/中文用于文本元素)。添加如“体积光照”等关键词增强。
- 优化:启用Flash Attention(如果支持)、torch.compile加速,或低RAM时CPU卸载。MLX端口可在Mac上进一步提升。
- 故障排除:导入错误时更新Diffusers。运行慢时检查Activity Monitor中的RAM使用。伪影?优化提示或使用LoRA。