
MacでZ-Imageモデルを使用する方法:完全なインストールと最適化ガイド
MacでZ-Imageモデルを使用する方法
ハードウェア互換性
Apple Silicon Mac(M3シリーズなど)はPyTorchのMPSバックエンドを利用して加速されます。Intel MacはCPUで実行できますが、速度は遅くなります。カクつきを避けるために十分なRAMを確保してください。
Macのハードウェア互換性と要件
- チップバージョン:Apple Silicon M3、M4またはそれ以上。ベンチマークでは、M3 Max(例:1024x1024の画像に60-80秒)とM2 Max(最適化後で最短14秒)で高い性能を示しています。Intel MacはCPUで実行できますが、時間は2-5倍遅くなります。
- RAM:最低16GBの統合メモリ;ピーク負荷(生成中に約24GB)を処理するために32-64GBを推奨。低RAM設定ではCPUオフロードが必要になり、時間が増加します。
- OSとソフトウェア:macOS 10.15+;Python 3.9-3.12;PyTorch 2.0+がMPSをサポート。追加のドライバーは不要——Metalが組み込まれています。
- 制限:MPSは>2^32要素の配列をサポートしないため、超高解像度に制限がある可能性があります。最適な結果を得るには、メモリ使用量を減らすためにbfloat16精度を使用してください。
コミュニティの報告によると、MacBook、Mac Mini、Mac Studioで信頼性よく実行され、短時間のセッションでは過熱問題がないことが確認されています。
完全なインストール手順
方法1:簡単なワンクリック設定(Ultra-Fast-Image-Generationリポジトリ)
このスクリプトベースの方法は、Apple Silicon向けに自動インストールを行い、Z-Image-Turboを使用します。
- GitHubからリポジトリをダウンロードまたはクローンします:
git clone https://github.com/newideas99/Ultra-Fast-Image-Generation-Mac-Silicon-Z-Image。 - リポジトリフォルダ内の
Launch.commandをダブルクリックします。 - 依存関係の自動インストールを待ちます(初回実行は約5分、PyTorchとMPSを含む)。
- ブラウザでローカルUIを開き、プロンプトを入力して画像を生成します。
- 注意:M2 Maxでは画像1枚につき約14秒;完全オフラインです。
方法2:z-image.me オンライン生成
- 審査なし、制限なし、プライバシー保護
- 無制限の無料生成、ユーザー数が多い場合は待ち行列になる可能性があります
- 複雑な設定不要、豊富なプロンプトテンプレート、ワンクリックでスタイルライブラリを呼び出し可能
- どのプラットフォームでも設定不要
方法3:ComfyUI(GUIベース、ワークフローに推奨)
ComfyUIはノードベースのインターフェースを提供し、Z-Image-Turboをサポートし、macOSでの互換性が優れています。
- PyTorchをインストールします:
pip3 install torch torchvision(MPSが自動的に有効になります)。 - ComfyUIをクローンします:
git clone https://github.com/comfyanonymous/ComfyUI。 - フォルダに移動します:
cd ComfyUI。 - 依存関係をインストールします:
pip install -r requirements.txt。 - モデルをダウンロードします:
- VAE:ae.safetensors を
models/vaeに。 - テンコーダー:qwen_3_4b.safetensors を
models/text_encodersに。 - 拡散モデル:z_image_turbo_bf16.safetensors を
models/diffusion_modelsに。
(Hugging Faceから:https://huggingface.co/Comfy-Org/z_image_turbo/tree/main/split_files)
- VAE:ae.safetensors を
- ワークフローをダウンロードします:image_z_image_turbo_v2.json。
- ComfyUIを実行します:
python main.py。 - ブラウザでlocalhost:8188を開き、ワークフローのJSONをUIにドラッグします。
- プロンプトを編集(例:照明の詳細を追加し)、実行をクリックします。
- 注意:ComfyUI Managerで更新します。生成には約24GBのRAMを使用;必要に応じてコード内でアテンションスライシングを有効にします。
方法4:ネイティブアプリ(ZImageApp)
無料で設定不要のクライアントで、Apple Silicon向けに設計され、Z-Image-Turボをローカルで実行します。
- zimageapp.comからAppをダウンロードします。
- ドラッグしてApplicationsフォルダにインストールします。
- Appを起動します;初回実行時にモデルが自動的にダウンロードされます。
- 注意:初心者向けです
方法5:Hugging Face Diffusers(スクリプトベース)
プログラミング制御に使用し、MPS調整済みのDiffusersを使用します。
- PyTorchをインストールします:
pip3 install torch torchvision。 - Diffusersをインストールします:
pip install git+https://github.com/huggingface/diffusers。 - 追加パッケージをインストールします:
pip install transformers accelerate safetensors huggingface_hub。 - モデルをダウンロードします:
huggingface-cli download Tongyi-MAI/Z-Image-Turbo --local-dir ./Z-Image-Turbo。 - スクリプトを作成します(例:generate.py):
import torch from diffusers import ZImagePipeline pipe = ZImagePipeline.from_pretrained("./Z-Image-Turbo", torch_dtype=torch.bfloat16, low_cpu_mem_usage=False) pipe.to("mps") # 使用MPS而非CUDA pipe.enable_attention_slicing() # 用于<64GB RAM prompt = "Young woman in red Hanfu, intricate details, neon lights, night background." image = pipe(prompt, height=1024, width=1024, num_inference_steps=9, guidance_scale=0.0).images[0] image.save("output.webp") - 実行します:
python generate.py。
- 注意:MPSを自動検出;繰り返し実行には
--compileを追加。CLIツールz-image-mpsなどでLoRAをサポートします。
使用と最適化
- プロンプトエンジニアリング:記述的、中日混合のプロンプトを使用(例:テキスト要素に英語/中国語を混合)。「ボリューム照明」などのキーワードを追加して強化します。
- 最適化:Flash Attentionを有効に(サポートされている場合)、torch.compileで加速、または低RAM時のCPUオフロード。MLXポートでMac上でのさらなる向上が可能です。
- トラブルシューティング:インポートエラー時はDiffusersを更新。実行が遅い場合はActivity MonitorでRAM使用量を確認。アーティファクト?プロンプトを最適化するかLoRAを使用してください。