Z-Image Omni Base、ついに登場!生成と編集を統合したオールインワンAIモデルが間もなく公開
(Updated 2/5/2026)

Z-Image Omni Base、ついに登場!生成と編集を統合したオールインワンAIモデルが間もなく公開

Author: z-image.me Team5 min read

Z-Image Omni Base、ついに登場!生成と編集を統合した全能AIモデルが間もなく登場

z-imageの最新動向がコミュニティを沸かせる

最近、AI画像生成分野のコミュニティで一つの名前が絶えず話題を呼んでいます——Z-Image Omni Base。Redditコミュニティの「Z-Image Baseモデルがついに約束を果たす」「ZImage Omniが間もなく登場」「Omni Baseがリリースされそう」といったホットなトピックから、公式情報の段階的な公開まで、この期待の全能ベースモデルはついに明確な登場のサインを出しました。その到来はAI画像生成と編集分野に重要な変革をもたらします。

TongyiLabの動き

Z-Image Omni Base 概要

Z-Image Omni Baseは、AlibabaのTongyi-MAIチームによるZ-Imageシリーズの進化版で、初期のZ-Image-Baseから「omni」を強調する事前学習へと移行しました。このアプローチにより、テキストから画像(T2I)の生成と画像から画像(I2I)の編集をシームレスに処理でき、タスクの切り替えによる性能低下を防ぎます。これは6Bパラメータのスケーラブルな単一流拡散Transformer(S3-DiT)をベースに、テキスト、視覚セマンティックトークン、画像VAEトークンを単一流で処理し、中国語と英語のバイリンガル能力をサポートします。

命名背後の戦略的アップグレード:「Base」から「Omni Base」への本質的な飛躍

このモデルの登場は単なるバージョンアップデートではなく、コア戦略のアップグレードです。以前の分析(原文リンク:https://z-image.me/en/blog/Not_Z-Image-Base_but_Z-Image-Omni-Base)で述べたように、当初計画されていたZ-Image-Baseは正式にZ-Image-Omni-Baseに改名されました。この命名変更は単なるラベル調整ではなく、モデルアーキテクチャが「全能(omni)」事前学習へと戦略的に転換した象徴です——それは従来のモデルにおける生成と編集タスクの分離という壁を打ち破り、生成と編集データを統合した全シナリオの事前学習パイプラインを通じて、2つの核心機能の統一を実現しました。

この統一は重要な利点をもたらします:従来のモデルが生成と編集タスクを切り替える際の複雑さと性能損失を回避し、同時にLoRAアダプターなどのツールのタスク横断的な使用を可能にします。これにより、開発者により柔軟なオープンソースツールを提供し、複数の専用バリエーションモデルへの依存を減らします。コミュニティユーザーは既にこの変化を敏感に捉え、「Omni Base」と呼び合う中で、単なる生成ベースモデルではなくその「全能」性を強調しています。


Z-Imageシリーズのアップデート

最も注目を集めるOmni Baseに加え、Z-Imageシリーズには新しいバリエーションブランチZ-Imageが追加されました:

現在のシリーズには4つの主要バリエーションがあります:

Z-Imageシリーズ比較

この表はOmni Baseのバランス特性を強調し、カスタムモデルベースを求める開発者に適しています。stable-diffusion.cppのようなコミュニティ統合により、アクセシビリティがさらに向上し、RTX 3090のようなハードウェアでの量子化バージョンの実行を可能にします。

arXivレポートでの性能ベンチマークは、Z-Imageが商業システムと写真のリアリズムとテキストレンダリングで互角であることを示しています。例えば、Turboのランキングはシリーズの競争力を強調しており、Omni Baseはそのomniパラダイムを基盤に構築され、ビデオ生成などの拡張(未確認)を有効にする可能性があります。

発表を示す証拠

コミュニティの議論は最近数週間で激化し、特にRedditのr/StableDiffusionとr/LocalLLaMAサブセクションで顕著です。2026年1月8日の投稿によると、ユーザーはZ-Image-Omni-Baseの準備が整っていることを強調しています。例えば、「Z-Image OmniBase looking like it's gonna release soon」というタイトルのスレッドは、ModelScope DiffSynth-Studioリポジトリの重要なコミットを引用しており、時期的にほぼ同時期です。このコミットはOmni Baseへの全面的なサポートを追加しました:

  • Z-Image-Omni-Base、Siglip2ImageEncoder428M(428Mパラメータの視覚モデル)、ZImageControlNet、ZImageImage2LoRAModelの新しいモデル設定。
  • 効率的なラッピング層を実現する低VRAM推論のためのVRAM管理の更新。
  • LoRAのみと誘導モデル関数を処理するための基本パイプラインの変更。
  • モデル検証とControlNet条件付け用のZ-Image-Omni-Base.pyや.shファイルなどの専用推論およびトレーニングスクリプト。

Z-ImageOmniBaseコミット
これらの変更は、フレームワークが重みリリース後の即時使用に向けて調整されていることを示しています。別のReddit投稿「Z-image Omni 👀」はコミットの影響について議論し、ネイティブなImage-to-LoRAサポートとゼロデイControlNet互換性に注目しています。ユーザーはOmni BaseがLoRAトレーニングのベースとなり、多機能性においてTurboを上回る可能性があると推測し、その速度指向のワークフローを補完するでしょう。

公式のTongyi-MAI/Z-Image GitHubリポジトリはさらに楽観的な気持ちを煽ります。2026年1月7日に最近更新され、Hugging FaceとModelScopeでの「リリース予定」としてZ-Image-Omni-Baseを明確にリストアップしています。最近のコミットには、2025年11月26日の初期コミットを基盤とする自動チェックポイントダウンロードと設定可能なアテンションバックエンドの強化が含まれます。Hugging Face Diffusersとの統合(PR #12703と#12715を通じて)はシームレスな採用を保証します。