
Cómo usar el modelo Z-Image en Mac: Guía completa de instalación y optimización
Cómo usar el modelo Z-Image en Mac
Compatibilidad de hardware
Mac con Apple Silicon (como la serie M3) utilizan el backend MPS de PyTorch para aceleración; Mac con Intel pueden ejecutarse en CPU pero son más lentos. Asegúrate de tener suficiente RAM para evitar cortes.
Compatibilidad y requisitos de hardware Mac
- Versión del chip: Apple Silicon M3, M4 o superior. Las pruebas de rendimiento muestran un rendimiento sólido en M3 Max (por ejemplo, 60-80 segundos para imágenes de 1024x1024) y M2 Max (optimizado hasta 14 segundos). Mac con Intel pueden ejecutarse en CPU, pero son 2-5 veces más lentos.
- RAM: Mínimo 16GB de memoria unificada; se recomiendan 32-64GB para manejar cargas pico (aproximadamente 24GB durante la generación). Configuraciones de RAM baja pueden requerir descarga en CPU, aumentando el tiempo.
- OS y software: macOS 10.15+; Python 3.9-3.12; PyTorch 2.0+ con soporte MPS. No se requieren controladores adicionales—Metal está integrado.
- Limitaciones: MPS no admite matrices con >2^32 elementos, lo que puede limitar resoluciones ultra altas. Los mejores resultados se obtienen usando precisión bfloat16 para reducir el uso de memoria.
Los informes de la comunidad confirman un funcionamiento confiable en MacBook, Mac Mini y Mac Studio, sin problemas de sobrecalentamiento en sesiones cortas.
Proceso de instalación completo
Método 1: Configuración simple de un solo clic (Repositorio Ultra-Fast-Image-Generation)
Este método basado en scripts automatiza la instalación para Apple Silicon usando Z-Image-Turbo.
- Descarga o clona el repositorio desde GitHub:
git clone https://github.com/newideas99/Ultra-Fast-Image-Generation-Mac-Silicon-Z-Image. - Haz doble clic en
Launch.commanden la carpeta del repositorio. - Espera a que se instalen automáticamente las dependencias (primera ejecución aprox. 5 minutos, incluyendo PyTorch con MPS).
- Abre la interfaz de usuario local en el navegador; introduce el prompt y genera imágenes.
- Nota: En M2 Max, aproximadamente 14 segundos por imagen; completamente offline.
Método 2: Generación en línea en z-image.me
- Sin censura, sin límites, con privacidad garantizada
- Generación gratuita e ilimitada, puede requerir cola cuando hay muchos usuarios
- Sin configuración compleja, numerosas plantillas de prompts, biblioteca de estilos de un solo clic
- Multiplataforma sin requisitos de configuración
Método 3: ComfyUI (basado en GUI, recomendado para flujos de trabajo)
ComfyUI ofrece una interfaz basada en nodos, compatible con Z-Image-Turbo, con excelente compatibilidad en macOS.
- Instala PyTorch:
pip3 install torch torchvision(MPS se habilita automáticamente). - Clona ComfyUI:
git clone https://github.com/comfyanonymous/ComfyUI. - Entra en la carpeta:
cd ComfyUI. - Instala dependencias:
pip install -r requirements.txt. - Descarga los modelos:
- VAE: ae.safetensors a
models/vae. - Codificador de texto: qwen_3_4b.safetensors a
models/text_encoders. - Modelo de difusión: z_image_turbo_bf16.safetensors a
models/diffusion_models.
(Desde Hugging Face: https://huggingface.co/Comfy-Org/z_image_turbo/tree/main/split_files)
- VAE: ae.safetensors a
- Descarga el flujo de trabajo: image_z_image_turbo_v2.json.
- Ejecuta ComfyUI:
python main.py. - Abre localhost:8188 en el navegador; arrastra el JSON del flujo de trabajo a la UI.
- Edita el prompt (por ejemplo, añade detalles de iluminación), haz clic en ejecutar.
- Nota: Actualiza a través de ComfyUI Manager. La generación usa aproximadamente 24GB de RAM; si es necesario, habilita el slicing de atención en el código.
Método 4: App nativa (ZImageApp)
Cliente gratuito y sin configuración, diseñado para Apple Silicon, ejecuta Z-Image-Turbo localmente.
- Descarga la App desde zimageapp.com.
- Instala arrastrando a la carpeta de Aplicaciones.
- Inicia la App; en la primera ejecución descarga automáticamente los modelos.
- Nota: Ideal para principiantes
Método 5: Hugging Face Diffusers (basado en scripts)
Para control programático, usando Diffusers ajustado para MPS.
- Instala PyTorch:
pip3 install torch torchvision. - Instala Diffusers:
pip install git+https://github.com/huggingface/diffusers. - Instala adicionales:
pip install transformers accelerate safetensors huggingface_hub. - Descarga el modelo:
huggingface-cli download Tongyi-MAI/Z-Image-Turbo --local-dir ./Z-Image-Turbo. - Crea un script (por ejemplo, generate.py):
import torch from diffusers import ZImagePipeline pipe = ZImagePipeline.from_pretrained("./Z-Image-Turbo", torch_dtype=torch.bfloat16, low_cpu_mem_usage=False) pipe.to("mps") # Usa MPS en lugar de CUDA pipe.enable_attention_slicing() # Para RAM <64GB prompt = "Joven mujer en Hanfu rojo, detalles intrincados, luces de neón, fondo nocturno." image = pipe(prompt, height=1024, width=1024, num_inference_steps=9, guidance_scale=0.0).images[0] image.save("output.webp") - Ejecuta:
python generate.py.
- Nota: Detección automática de MPS; en ejecuciones repetidas añade
--compile. Soporte para LoRA a través de herramientas CLI como z-image-mps.
Uso y optimización
- Ingeniería de prompts: Usa prompts descriptivos, mezclando inglés y chino (por ejemplo, inglés/chino para elementos de texto). Añade palabras clave como "volumetric lighting" para mejorar.
- Optimización: Habilita Flash Attention (si es compatible), torch.compile para acelerar, o descarga en CPU para RAM baja. El puerto MLX puede mejorar aún más el rendimiento en Mac.
- Solución de problemas: Al errores de importación, actualiza Diffusers. Si es lento, verifica el uso de RAM en Activity Monitor. ¿Artefactos? Optimiza el prompt o usa LoRA.