Como usar o modelo Z-Image no Mac: guia completo de instalação e otimização
(Updated 2/6/2026)

Como usar o modelo Z-Image no Mac: guia completo de instalação e otimização

Author: z-image.me Team5 min read

Como usar o modelo Z-Image no Mac

Compatibilidade de Hardware

Mac com Apple Silicon (como a série M3) utilizam o backend MPS do PyTorch para aceleração; Macs Intel podem rodar via CPU, mas são mais lentos. Garanta RAM suficiente para evitar travamentos.

Compatibilidade e Requisitos de Hardware do Mac
  • Versão do chip: Apple Silicon M3, M4 ou superior. Testes de referência mostram desempenho robusto no M3 Max (por exemplo, 60-80 segundos para imagens 1024x1024) e M2 Max (após otimização, tão baixo quanto 14 segundos). Macs Intel podem rodar via CPU, mas são 2-5 vezes mais lentos.
  • RAM: Mínimo de 16GB de memória unificada; recomendado 32-64GB para lidar com cargas de pico (cerca de 24GB durante a geração). Configurações com baixa RAM podem exigir descarregamento da CPU, aumentando o tempo.
  • SO e software: macOS 10.15+; Python 3.9-3.12; PyTorch 2.0+ com suporte a MPS. Sem necessidade de drivers adicionais - o Metal é integrado.
  • Limitações: O MPS não suporta arrays com >2^32 elementos, o que pode limitar resoluções ultra-altas. Melhores resultados usando precisão bfloat16 para reduzir o uso de memória.
    Relatórios da comunidade confirmam operação confiável em MacBook, Mac Mini e Mac Studio, sem problemas de superaquecimento em sessões curtas.
Processo de Instalação Completo

Método 1: Configuração simples de um clique (Ultra-Fast-Image-Generation Repo)
Este método baseado em scripts automatiza a instalação para Apple Silicon, usando Z-Image-Turbo.

  1. Baixe ou clone o repositório do GitHub: git clone https://github.com/newideas99/Ultra-Fast-Image-Generation-Mac-Silicon-Z-Image.
  2. Clique duas vezes em Launch.command na pasta do repositório.
  3. Aguarde a instalação automática das dependências (primeira execução leva cerca de 5 minutos, incluindo PyTorch e MPS).
  4. Abra a UI local no navegador; insira o prompt e gere a imagem.
  • Nota: Cerca de 14 segundos por imagem no M2 Max; totalmente offline.

Método 2: z-image.me Geração online

  1. Sem censura, sem limites, com privacidade garantida
  2. Geração gratuita e ilimitada, pode haver fila durante horários de grande uso
  3. Sem configuração complexa, inúmeros modelos de prompts, suporte a biblioteca de estilos com um clique
  4. Sem requisitos de configuração em qualquer plataforma

Método 3: ComfyUI (baseado em GUI, recomendado para workflows)
ComfyUI oferece interface baseada em nós, suporte a Z-Image-Turbo e excelente compatibilidade com macOS.

  1. Instale PyTorch: pip3 install torch torchvision (MPS é ativado automaticamente).
  2. Clone o ComfyUI: git clone https://github.com/comfyanonymous/ComfyUI.
  3. Entre na pasta: cd ComfyUI.
  4. Instale as dependências: pip install -r requirements.txt.
  5. Baixe os modelos:
  6. Baixe o workflow: image_z_image_turbo_v2.json.
  7. Execute o ComfyUI: python main.py.
  8. Abra localhost:8188 no navegador; arraste o JSON do workflow para a UI.
  9. Edite o prompt (por exemplo, adicione detalhes de iluminação), clique em executar.
  • Nota: Atualize via ComfyUI Manager. A geração usa cerca de 24GB de RAM; se necessário, ative o attention slicing no código.

Método 4: App Nativo (ZImageApp)
Cliente gratuito e sem configuração, projetado para Apple Silicon, executa Z-Image-Turbo localmente.

  1. Baixe o App de zimageapp.com.
  2. Instale arrastando para a pasta Applications.
  3. Inicie o App; modelos serão baixados automaticamente na primeira execução.
  • Nota: Adequado para iniciantes

Método 5: Hugging Face Diffusers (baseado em scripts)
Para controle programático, usando Diffusers ajustado para MPS.

  1. Instale PyTorch: pip3 install torch torchvision.
  2. Instale Diffusers: pip install git+https://github.com/huggingface/diffusers.
  3. Instale extras: pip install transformers accelerate safetensors huggingface_hub.
  4. Baixe o modelo: huggingface-cli download Tongyi-MAI/Z-Image-Turbo --local-dir ./Z-Image-Turbo.
  5. Crie um script (por exemplo, generate.py):
    import torch
    from diffusers import ZImagePipeline
    
    pipe = ZImagePipeline.from_pretrained("./Z-Image-Turbo", torch_dtype=torch.bfloat16, low_cpu_mem_usage=False)
    pipe.to("mps")  # 使用MPS而非CUDA
    pipe.enable_attention_slicing()  # 用于<64GB RAM
    
    prompt = "Young woman in red Hanfu, intricate details, neon lights, night background."
    image = pipe(prompt, height=1024, width=1024, num_inference_steps=9, guidance_scale=0.0).images[0]
    image.save("output.webp")
    
  6. Execute: python generate.py.
  • Nota: MPS é detectado automaticamente; adicione --compile para execuções repetidas. Suporte a LoRA via ferramentas CLI como z-image-mps.
Uso e Otimização
  • Engenharia de prompts: Use prompts descritivos e mistos em inglês/chinês (por exemplo, mistura inglês/chinês para elementos de texto). Adicione palavras-chave como "volumetric lighting" para aprimorar.
  • Otimização: Ative Flash Attention (se suportado), torch.compile para aceleração, ou descarregamento da CPU com baixa RAM. MLX pode oferecer ainda mais desempenho no Mac.
  • Solução de problemas: Atualize Diffusers em caso de erros de importação. Execução lenta? Verifique o uso de RAM no Activity Monitor. Artefatos? Otimize o prompt ou use LoRA.