
كيفية استخدام نموذج Z-Image على جهاز Mac: دليل شامل للتثبيت والتحسين
كيفية استخدام نموذج Z-Image على جهاز Mac
توافق الأجهزة
Apple Silicon Mac (مثل سلسلة M3) تستخدم MPS backend من PyTorch للتسريع؛ يمكن لـ Mac Intel التشغيل عبر المعالج المركزي (CPU) ولكنه أبطأ. تأكد من وجود ذاكرة RAM كافية لتجنب التوقف.
توافق متطلبات أجهزة Mac
- إصدار الشريحة: Apple Silicon M3, M4 أو أحدث. الاختبارات المعيارية تُظهر أداءً قوياً على M3 Max (مثلاً، 60-80 ثانية لصورة 1024x1024) و M2 Max (منخفضة إلى 14 ثانية بعد التحسين). يمكن لـ Mac التشغيل عبر المعالج المركزي (CPU) ولكن أبطأ بـ 2-5 مرات.
- RAM: ذاكرة موحدة (RAM) بمقدار 16GB كحد أدنى؛ يُوصى بـ 32-64GB للتعامل مع الأحمال الذروة (حوالي 24GB أثناء التوليد). إعدادات RAM المنخفضة قد تتطلب تفريغ المعالج المركزي (CPU)، مما يزيد من الوقت.
- نظام التشغيل والبرامج: macOS 10.15+؛ Python 3.9-3.12؛ PyTorch 2.0+ يدعم MPS. لا حاجة لمحركات إضافية - Metal مدمج.
- القيود: لا يدعم MPS المصفوفات التي تحتوي على أكثر من 2^32 عنصرًا، وقد يحد من الدقة العالية جدًا. أفضل النتائج باستخدام دقة bfloat16 لتقليل استخدام الذاكرة.
أبلغت التقارير المجتمعية عن تشغيل موثوق على MacBook و Mac Mini و Mac Studio، بدون مشاكل في ارتفاع الحرارة في الجلسات القصيرة.
عملية التثبيت الكاملة
الطريقة 1: إعداد بسيط بنقرة واحدة (مستودع Ultra-Fast-Image-Generation)
هذه الطريقة القائمة على النص الآلي موجهة لتثبيت تلقائي على Apple Silicon، باستخدام Z-Image-Turbo.
- قم بتنزيل أو استنساخ المستودع من GitHub:
git clone https://github.com/newideas99/Ultra-Fast-Image-Generation-Mac-Silicon-Z-Image. - انقر نقرًا مزدوجًا على
Launch.commandفي مجلد المستودع. - انتظر حتى يتم تثبيت التبعيات تلقائيًا (حوالي 5 دقائق في التشغيل الأول، بما في ذلك PyTorch و MPS).
- افتح واجهة المستخدم المحلية في المتصفح؛ أدخل المطالعات (prompts) وأنشئ الصور.
- ملاحظة: حوالي 14 ثانية لكل صورة على M2 Max؛ يعمل بالكامل دون اتصال بالإنترنت.
الطريقة 2: z-image.me إنشاء عبر الإنترنت
- لا يوجد مراجعة، لا حدود، ضمان الخصوصية
- إنشاء غير محدود مجانًا، قد تحتاج إلى الانتظار في أوقات ازدحام المستخدمين
- لا يتطلب إعدادات معقدة، قوالب مطالعات (prompts) ضخمة، يدعم استدعاء مكتبة الأنماط بنقرة واحدة
- متعدد المنصات دون أي متطلبات إعدادية
الطريقة 3: ComfyUI (قائم على واجهة المستخدم الرسومية، موصى به لتدفقات العمل)
يوفر ComfyUI واجهة قائمة على العقد، يدعم Z-Image-Turbo، وتتوافق بشكل ممتاز مع macOS.
- قم بتثبيت PyTorch:
pip3 install torch torchvision(يتم تفعيل MPS تلقائيًا). - استنسخ ComfyUI:
git clone https://github.com/comfyanonymous/ComfyUI. - أدخل المجلد:
cd ComfyUI. - قم بتثبيت التبعيات:
pip install -r requirements.txt. - قم بتنزيل النماذج:
- VAE: ae.safetensors إلى
models/vae. - مشفر النص: qwen_3_4b.safetensors إلى
models/text_encoders. - نموذ الانتشار: z_image_turbo_bf16.safetensors إلى
models/diffusion_models.
(من Hugging Face: https://huggingface.co/Comfy-Org/z_image_turbo/tree/main/split_files)
- VAE: ae.safetensors إلى
- قم بتنزيل تدفق العمل: image_z_image_turbo_v2.json.
- قم بتشغيل ComfyUI:
python main.py. - افتح localhost:8188 في المتصفح؛ اسحب ملف JSON لتدفق العمل إلى الواجهة.
- قم بتحرير المطالعات (مثلاً، إضافة تفاصيل الإضاءة)، ثم انقر على تشغيل.
- ملاحظة: قم بالتحديث عبر ComfyUI Manager. يستخدم التوليد حوالي 24GB من RAM؛ إذا لزم الأمر، قم بتفعيل شرائح الانتباه في الكود.
الطريقة 4: تطبيق أصلي (ZImageApp)
عميل مجاني، لا يتطلب إعدادات، مصمم لـ Apple Silicon، يعمل Z-Image-Turbo محليًا.
- قم بتنزيل التطبيق من zimageapp.com.
- قم بتثبيته عن طريق السحب إلى مجلد التطبيقات.
- ابدأ التطبيق؛ سيتم تنزيل النماذج تلقائيًا في التشغيل الأول.
- ملاحظة: مناسب للمبتدئين
الطريقة 5: Hugging Face Diffusers (قائم على النصوص البرمجية)
للتحكم البرمجي، باستخدام Diffusers معدل لـ MPS.
- قم بتثبيت PyTorch:
pip3 install torch torchvision. - قم بتثبيت Diffusers:
pip install git+https://github.com/huggingface/diffusers. - قم بتثبيت الإضافات:
pip install transformers accelerate safetensors huggingface_hub. - قم بتنزيل النموذج:
huggingface-cli download Tongyi-MAI/Z-Image-Turbo --local-dir ./Z-Image-Turbo. - قم بإنشاء نص برمجي (مثلاً، generate.py):
import torch from diffusers import ZImagePipeline pipe = ZImagePipeline.from_pretrained("./Z-Image-Turbo", torch_dtype=torch.bfloat16, low_cpu_mem_usage=False) pipe.to("mps") # استخدام MPS بدلاً من CUDA pipe.enable_attention_slicing() # لـ <64GB RAM prompt = "شابة في ثياب هانفو حمراء، تفاصيل معقدة، إضاءة نيون، خلفية ليلية." image = pipe(prompt, height=1024, width=1024, num_inference_steps=9, guidance_scale=0.0).images[0] image.save("output.webp") - قم بتشغيله:
python generate.py.
- ملاحظة: يكتشف MPS تلقائيًا؛ أضف
--compileللتشغيل المتكرر. يدعم LoRA عبر أدوات سطر الأوامم مثل z-image-mps.
الاستخدام والتحسين
- هندسة المطالعات (Prompt Engineering): استخدم مطالعات وصفيية ومختلطة بين الصينية والإنجليزية (مثلاً، خلط الإنجليزية/الصينية للعناصر النصية). أضف كلمات مفتاحية مثل "إضاءة حجمية" لتعزيزها.
- التحسين: تفعيل Flash Attention (إذا كان مدعومًا)، وتسريع torch.compile، أو تفريغ المعالج المركزي (CPU) عند RAM منخفض. يمكن لمنفذ MLX تحسين الأداء بشكل إضافي على Mac.
- استكشاف الأخطاء وإصلاحها: قم بتحديث Diffusers عند حدوث أخطاء الاستيراد. عند التشغيل البطيء، تحقق من استخدام RAM في Activity Monitor. وجود تشوهات؟ قم بتحسين المطالعات أو استخدم LoRA.