MacでZ-Imageモデルを使用する方法:完全なインストールと最適化ガイド
(Updated 2/6/2026)

MacでZ-Imageモデルを使用する方法:完全なインストールと最適化ガイド

Author: z-image.me Team5 min read

MacでZ-Imageモデルを使用する方法

ハードウェア互換性

Apple Silicon Mac(M3シリーズなど)はPyTorchのMPSバックエンドを利用して加速されます。Intel MacはCPUで実行できますが、速度は遅くなります。カクつきを避けるために十分なRAMを確保してください。

Macのハードウェア互換性と要件
  • チップバージョン:Apple Silicon M3、M4またはそれ以上。ベンチマークでは、M3 Max(例:1024x1024の画像に60-80秒)とM2 Max(最適化後で最短14秒)で高い性能を示しています。Intel MacはCPUで実行できますが、時間は2-5倍遅くなります。
  • RAM:最低16GBの統合メモリ;ピーク負荷(生成中に約24GB)を処理するために32-64GBを推奨。低RAM設定ではCPUオフロードが必要になり、時間が増加します。
  • OSとソフトウェア:macOS 10.15+;Python 3.9-3.12;PyTorch 2.0+がMPSをサポート。追加のドライバーは不要——Metalが組み込まれています。
  • 制限:MPSは>2^32要素の配列をサポートしないため、超高解像度に制限がある可能性があります。最適な結果を得るには、メモリ使用量を減らすためにbfloat16精度を使用してください。

コミュニティの報告によると、MacBook、Mac Mini、Mac Studioで信頼性よく実行され、短時間のセッションでは過熱問題がないことが確認されています。

完全なインストール手順

方法1:簡単なワンクリック設定(Ultra-Fast-Image-Generationリポジトリ)
このスクリプトベースの方法は、Apple Silicon向けに自動インストールを行い、Z-Image-Turboを使用します。

  1. GitHubからリポジトリをダウンロードまたはクローンします:git clone https://github.com/newideas99/Ultra-Fast-Image-Generation-Mac-Silicon-Z-Image
  2. リポジトリフォルダ内のLaunch.commandをダブルクリックします。
  3. 依存関係の自動インストールを待ちます(初回実行は約5分、PyTorchとMPSを含む)。
  4. ブラウザでローカルUIを開き、プロンプトを入力して画像を生成します。
  • 注意:M2 Maxでは画像1枚につき約14秒;完全オフラインです。

方法2:z-image.me オンライン生成

  1. 審査なし、制限なし、プライバシー保護
  2. 無制限の無料生成、ユーザー数が多い場合は待ち行列になる可能性があります
  3. 複雑な設定不要、豊富なプロンプトテンプレート、ワンクリックでスタイルライブラリを呼び出し可能
  4. どのプラットフォームでも設定不要

方法3:ComfyUI(GUIベース、ワークフローに推奨)
ComfyUIはノードベースのインターフェースを提供し、Z-Image-Turboをサポートし、macOSでの互換性が優れています。

  1. PyTorchをインストールします:pip3 install torch torchvision(MPSが自動的に有効になります)。
  2. ComfyUIをクローンします:git clone https://github.com/comfyanonymous/ComfyUI
  3. フォルダに移動します:cd ComfyUI
  4. 依存関係をインストールします:pip install -r requirements.txt
  5. モデルをダウンロードします:
  6. ワークフローをダウンロードします:image_z_image_turbo_v2.json。
  7. ComfyUIを実行します:python main.py
  8. ブラウザでlocalhost:8188を開き、ワークフローのJSONをUIにドラッグします。
  9. プロンプトを編集(例:照明の詳細を追加し)、実行をクリックします。
  • 注意:ComfyUI Managerで更新します。生成には約24GBのRAMを使用;必要に応じてコード内でアテンションスライシングを有効にします。

方法4:ネイティブアプリ(ZImageApp)
無料で設定不要のクライアントで、Apple Silicon向けに設計され、Z-Image-Turボをローカルで実行します。

  1. zimageapp.comからAppをダウンロードします。
  2. ドラッグしてApplicationsフォルダにインストールします。
  3. Appを起動します;初回実行時にモデルが自動的にダウンロードされます。
  • 注意:初心者向けです

方法5:Hugging Face Diffusers(スクリプトベース)
プログラミング制御に使用し、MPS調整済みのDiffusersを使用します。

  1. PyTorchをインストールします:pip3 install torch torchvision
  2. Diffusersをインストールします:pip install git+https://github.com/huggingface/diffusers
  3. 追加パッケージをインストールします:pip install transformers accelerate safetensors huggingface_hub
  4. モデルをダウンロードします:huggingface-cli download Tongyi-MAI/Z-Image-Turbo --local-dir ./Z-Image-Turbo
  5. スクリプトを作成します(例:generate.py):
    import torch
    from diffusers import ZImagePipeline
    
    pipe = ZImagePipeline.from_pretrained("./Z-Image-Turbo", torch_dtype=torch.bfloat16, low_cpu_mem_usage=False)
    pipe.to("mps")  # 使用MPS而非CUDA
    pipe.enable_attention_slicing()  # 用于<64GB RAM
    
    prompt = "Young woman in red Hanfu, intricate details, neon lights, night background."
    image = pipe(prompt, height=1024, width=1024, num_inference_steps=9, guidance_scale=0.0).images[0]
    image.save("output.webp")
    
  6. 実行します:python generate.py
  • 注意:MPSを自動検出;繰り返し実行には--compileを追加。CLIツールz-image-mpsなどでLoRAをサポートします。
使用と最適化
  • プロンプトエンジニアリング:記述的、中日混合のプロンプトを使用(例:テキスト要素に英語/中国語を混合)。「ボリューム照明」などのキーワードを追加して強化します。
  • 最適化:Flash Attentionを有効に(サポートされている場合)、torch.compileで加速、または低RAM時のCPUオフロード。MLXポートでMac上でのさらなる向上が可能です。
  • トラブルシューティング:インポートエラー時はDiffusersを更新。実行が遅い場合はActivity MonitorでRAM使用量を確認。アーティファクト?プロンプトを最適化するかLoRAを使用してください。