Como usar o modelo Z-Image no Mac: guia completo de instalação e otimização
(Updated 2/6/2026)

Como usar o modelo Z-Image no Mac: guia completo de instalação e otimização

Author: z-image.me Team5 min read

Como usar o modelo Z-Image no Mac

Compatibilidade de Hardware

Mac com Apple Silicon (como série M3) utilizam o backend MPS do PyTorch para aceleração; Mac Intel podem rodar via CPU mas são mais lentos. Garanta RAM suficiente para evitar travamentos.

Compatibilidade e Requisitos de Hardware do Mac
  • Versão do chip: Apple Silicon M3, M4 ou superior. Testes de benchmark mostram desempenho robusto no M3 Max (por exemplo, 60-80 segundos para imagens 1024x1024) e M2 Max (otimizado para tão baixo quanto 14 segundos). Mac Intel podem rodar via CPU, mas são 2-5 vezes mais lentos.
  • RAM: Mínimo de 16GB de memória unificada; recomendado 32-64GB para lidar com cargas de pico (cerca de 24GB durante a geração). Configurações com baixa RAM podem exigir offload para CPU, aumentando o tempo.
  • SO e software: macOS 10.15+; Python 3.9-3.12; PyTorch 2.0+ com suporte a MPS. Nenhum driver adicional necessário - Metal embutido.
  • Limitações: MPS não suporta arrays com >2^32 elementos, o que pode limitar resoluções ultra-altas. Melhores resultados usando precisão bfloat16 para reduzir o uso de memória.

Relatórios da comunidade confirmam operação confiável em MacBook, Mac Mini e Mac Studio, sem problemas de superaquecimento em sessões curtas.

Processo de Instalação Completo

Método 1: Configuração simples de um clique (Repositório Ultra-Fast-Image-Generation)
Este método baseado em script automatiza a instalação para Apple Silicon, usando Z-Image-Turbo.

  1. Baixe ou clone o repositório do GitHub: git clone https://github.com/newideas99/Ultra-Fast-Image-Generation-Mac-Silicon-Z-Image.
  2. Clique duas vezes em Launch.command na pasta do repositório.
  3. Aguarde a instalação automática das dependências (primeira execução leva cerca de 5 minutos, incluindo PyTorch e MPS).
  4. Abra a UI local no navegador; insira o prompt e gere a imagem.
  • Nota: Cerca de 14 segundos por imagem no M2 Max; totalmente offline.

Método 2: z-image.me Geração online

  1. Sem censura, sem limites, privacidade garantida
  2. Geração gratuita ilimitada, pode precisar esperar em fila quando há muitos usuários
  3. Sem configuração complexa, muitos modelos de prompt, suporte a biblioteca de estilos com um clique
  4. Sem requisitos de configuração em qualquer plataforma

Método 3: ComfyUI (baseado em GUI, recomendado para workflows)
O ComfyUI oferece interface baseada em nós, suporte a Z-Image-Turbo e excelente compatibilidade com macOS.

  1. Instale PyTorch: pip3 install torch torchvision (MPS habilitado automaticamente).
  2. Clone o ComfyUI: git clone https://github.com/comfyanonymous/ComfyUI.
  3. Entre na pasta: cd ComfyUI.
  4. Instale as dependências: pip install -r requirements.txt.
  5. Baixe os modelos:
  6. Baixe o workflow: image_z_image_turbo_v2.json.
  7. Execute o ComfyUI: python main.py.
  8. Abra localhost:8188 no navegador; arraste o JSON do workflow para a UI.
  9. Edite o prompt (por exemplo, adicione detalhes de iluminação), clique em executar.
  • Nota: Atualize via ComfyUI Manager. A geração usa cerca de 24GB de RAM; se necessário, habilite o attention slicing no código.

Método 4: App Nativo (ZImageApp)
Cliente gratuito e sem configuração, projetado para Apple Silicon, executa Z-Image-Turbo localmente.

  1. Baixe o App de zimageapp.com.
  2. Instale arrastando para a pasta Applications.
  3. Inicie o App; modelos serão baixados automaticamente na primeira execução.
  • Nota: Adequado para iniciantes

Método 5: Hugging Face Diffusers (baseado em script)
Para controle programático, usando Diffusers ajustado para MPS.

  1. Instale PyTorch: pip3 install torch torchvision.
  2. Instale Diffusers: pip install git+https://github.com/huggingface/diffusers.
  3. Instale extras: pip install transformers accelerate safetensors huggingface_hub.
  4. Baixe o modelo: huggingface-cli download Tongyi-MAI/Z-Image-Turbo --local-dir ./Z-Image-Turbo.
  5. Crie um script (por exemplo, generate.py):
    import torch
    from diffusers import ZImagePipeline
    
    pipe = ZImagePipeline.from_pretrained("./Z-Image-Turbo", torch_dtype=torch.bfloat16, low_cpu_mem_usage=False)
    pipe.to("mps")  # 使用MPS而非CUDA
    pipe.enable_attention_slicing()  # 用于<64GB RAM
    
    prompt = "Young woman in red Hanfu, intricate details, neon lights, night background."
    image = pipe(prompt, height=1024, width=1024, num_inference_steps=9, guidance_scale=0.0).images[0]
    image.save("output.webp")
    
  6. Execute: python generate.py.
  • Nota: MPS detectado automaticamente; adicione --compile para execuções repetidas. Suporte a LoRA via ferramentas CLI como z-image-mps.
Uso e Otimização
  • Engenharia de prompts: Use prompts descritivos e mistos em inglês/chinês (por exemplo, mistura inglês/chinês para elementos de texto). Adicione palavras-chave como "volume lighting" para melhorar.
  • Otimização: Habilite Flash Attention (se suportado), torch.compile para aceleração, ou offload para CPU com baixa RAM. A porta MLX pode进一步提升 no Mac.
  • Solução de problemas: Atualize Diffusers em erros de importação. Verifique o uso de RAM no Activity Monitor quando estiver lento. Artefatos? Otimize o prompt ou use LoRA.