
Como usar o modelo Z-Image no Mac: guia completo de instalação e otimização
Como usar o modelo Z-Image no Mac
Compatibilidade de Hardware
Mac com Apple Silicon (como a série M3) utilizam o backend MPS do PyTorch para aceleração; Macs Intel podem rodar via CPU, mas são mais lentos. Garanta RAM suficiente para evitar travamentos.
Compatibilidade e Requisitos de Hardware do Mac
- Versão do chip: Apple Silicon M3, M4 ou superior. Testes de referência mostram desempenho robusto no M3 Max (por exemplo, 60-80 segundos para imagens 1024x1024) e M2 Max (após otimização, tão baixo quanto 14 segundos). Macs Intel podem rodar via CPU, mas são 2-5 vezes mais lentos.
- RAM: Mínimo de 16GB de memória unificada; recomendado 32-64GB para lidar com cargas de pico (cerca de 24GB durante a geração). Configurações com baixa RAM podem exigir descarregamento da CPU, aumentando o tempo.
- SO e software: macOS 10.15+; Python 3.9-3.12; PyTorch 2.0+ com suporte a MPS. Sem necessidade de drivers adicionais - o Metal é integrado.
- Limitações: O MPS não suporta arrays com >2^32 elementos, o que pode limitar resoluções ultra-altas. Melhores resultados usando precisão bfloat16 para reduzir o uso de memória.
Relatórios da comunidade confirmam operação confiável em MacBook, Mac Mini e Mac Studio, sem problemas de superaquecimento em sessões curtas.
Processo de Instalação Completo
Método 1: Configuração simples de um clique (Ultra-Fast-Image-Generation Repo)
Este método baseado em scripts automatiza a instalação para Apple Silicon, usando Z-Image-Turbo.
- Baixe ou clone o repositório do GitHub:
git clone https://github.com/newideas99/Ultra-Fast-Image-Generation-Mac-Silicon-Z-Image. - Clique duas vezes em
Launch.commandna pasta do repositório. - Aguarde a instalação automática das dependências (primeira execução leva cerca de 5 minutos, incluindo PyTorch e MPS).
- Abra a UI local no navegador; insira o prompt e gere a imagem.
- Nota: Cerca de 14 segundos por imagem no M2 Max; totalmente offline.
Método 2: z-image.me Geração online
- Sem censura, sem limites, com privacidade garantida
- Geração gratuita e ilimitada, pode haver fila durante horários de grande uso
- Sem configuração complexa, inúmeros modelos de prompts, suporte a biblioteca de estilos com um clique
- Sem requisitos de configuração em qualquer plataforma
Método 3: ComfyUI (baseado em GUI, recomendado para workflows)
ComfyUI oferece interface baseada em nós, suporte a Z-Image-Turbo e excelente compatibilidade com macOS.
- Instale PyTorch:
pip3 install torch torchvision(MPS é ativado automaticamente). - Clone o ComfyUI:
git clone https://github.com/comfyanonymous/ComfyUI. - Entre na pasta:
cd ComfyUI. - Instale as dependências:
pip install -r requirements.txt. - Baixe os modelos:
- VAE: ae.safetensors para
models/vae. - Codificador de texto: qwen_3_4b.safetensors para
models/text_encoders. - Modelo de difusão: z_image_turbo_bf16.safetensors para
models/diffusion_models.
(Do Hugging Face: https://huggingface.co/Comfy-Org/z_image_turbo/tree/main/split_files)
- VAE: ae.safetensors para
- Baixe o workflow: image_z_image_turbo_v2.json.
- Execute o ComfyUI:
python main.py. - Abra localhost:8188 no navegador; arraste o JSON do workflow para a UI.
- Edite o prompt (por exemplo, adicione detalhes de iluminação), clique em executar.
- Nota: Atualize via ComfyUI Manager. A geração usa cerca de 24GB de RAM; se necessário, ative o attention slicing no código.
Método 4: App Nativo (ZImageApp)
Cliente gratuito e sem configuração, projetado para Apple Silicon, executa Z-Image-Turbo localmente.
- Baixe o App de zimageapp.com.
- Instale arrastando para a pasta Applications.
- Inicie o App; modelos serão baixados automaticamente na primeira execução.
- Nota: Adequado para iniciantes
Método 5: Hugging Face Diffusers (baseado em scripts)
Para controle programático, usando Diffusers ajustado para MPS.
- Instale PyTorch:
pip3 install torch torchvision. - Instale Diffusers:
pip install git+https://github.com/huggingface/diffusers. - Instale extras:
pip install transformers accelerate safetensors huggingface_hub. - Baixe o modelo:
huggingface-cli download Tongyi-MAI/Z-Image-Turbo --local-dir ./Z-Image-Turbo. - Crie um script (por exemplo, generate.py):
import torch from diffusers import ZImagePipeline pipe = ZImagePipeline.from_pretrained("./Z-Image-Turbo", torch_dtype=torch.bfloat16, low_cpu_mem_usage=False) pipe.to("mps") # 使用MPS而非CUDA pipe.enable_attention_slicing() # 用于<64GB RAM prompt = "Young woman in red Hanfu, intricate details, neon lights, night background." image = pipe(prompt, height=1024, width=1024, num_inference_steps=9, guidance_scale=0.0).images[0] image.save("output.webp") - Execute:
python generate.py.
- Nota: MPS é detectado automaticamente; adicione
--compilepara execuções repetidas. Suporte a LoRA via ferramentas CLI como z-image-mps.
Uso e Otimização
- Engenharia de prompts: Use prompts descritivos e mistos em inglês/chinês (por exemplo, mistura inglês/chinês para elementos de texto). Adicione palavras-chave como "volumetric lighting" para aprimorar.
- Otimização: Ative Flash Attention (se suportado), torch.compile para aceleração, ou descarregamento da CPU com baixa RAM. MLX pode oferecer ainda mais desempenho no Mac.
- Solução de problemas: Atualize Diffusers em caso de erros de importação. Execução lenta? Verifique o uso de RAM no Activity Monitor. Artefatos? Otimize o prompt ou use LoRA.