Z-Image-Baseではなく、Z-Image-Omni-Base
(Updated 2/6/2026)

Z-Image-Baseではなく、Z-Image-Omni-Base

Author: z-image.me Team5 min read

Z-Image-Baseではなく、Z-Image-Omni-Base

AI画像生成技術の急速な進化の中で、アルババのTongyi-MAIチームが発表したZ-Imageシリーズモデルは、効率的な6Bパラメータ規模と写真のようなリアリズムで際立っています。しかし、筆者は最近、Z-Imageの公式サイトZ-Image-blogで、元のZ-Image-Baseが静かにZ-Image-Omni-Baseに改名されていることに気づきました(ModelScopeとHugging Faceは執筆時点ではまだ修正されていません)。この名称変更は単なるラベル調整ではなく、モデルアーキテクチャが「オムニ」(万能)事前学習へと向かう戦略的転換を象徴しています:それは画像生成と編集タスクを統一して処理する能力を強調し、従来のモデルがタスクを切り替える際の複雑さと性能の低下を回避します。生成と編集データを統合するオムニ事前学習パイプラインを通じて、この転換はZ-Image-Omni-Baseがパラメータ効率においてさらに一歩進み、LoRAアダプターのようなクロスタスク使用を含むシームレスなマルチモーダルアプリケーションをサポートし、開発者により柔軟なオープンソースツールを提供し、複数の専門的なバリアントの必要性を減らします。

zimage_omni_base

Z-Imageシリーズの台頭:ベースからオムニへの進化

Z-ImageシリーズのコアアーキテクチャはScalable Single-Stream Diffusion Transformer(S3-DiT)で、すべてのバリアントはテキスト、視覚的セマンティックトークン、画像VAEトークンを連続して処理する統一された入力ストリームデザインを採用しています。これにより、モデルは多言語(中国語・英語)のテキストレンダリングと指示の追随において優れた性能を発揮します。最新の技術報告(arXiv:2511.22699、2025年12月1日発表)によれば、オムニ事前学習は生成と編集プロセスを統一し、デュアルストリームアーキテクチャの冗長性を回避するという鍵となる革新です。コミュニティの議論では、このオムニ機能により、ユーザーはベースバージョンを「Z-Image-Omni-Base」と呼び、単なる生成ベースモデルであることを超えてその万能性を強調しています。

最新のアップデートでは、Z-Image-Turboが2025年11月26日にリリースされ、重みがHugging FaceとModelScopeでオープンソース化され、オンラインデモスペースも利用可能です。対照的に、Z-Image-Omni-BaseとZ-Image-Editの重みはまだ「近日公開」の状態です(GitHubリポジトリでは11月以降の更新なし)、コミュニティではこの遅延がオムニ機能のさらなる最適化に関連していると予想しています。ユーザーのフィードバック(Redditの議論など)は、Turboの1秒未満の推論速度(H800 GPU上で8ステップ推論とCFG=1をサポート)を称賛していますが、Omni-Baseの統合能力が複雑なタスクにおいて優位性を持つことも指摘しています。例えば、成分駆動料理や数学チャートのような多様な画像を生成し、モデルの切り替えなしに自然言語編集をサポートする能力です。

バージョン比較:Omni-Baseの独自の位置づけ

名称変更の意味を明確にするために、シリーズのバリアントを比較します。すべてのモデルは6Bパラメータと単一ストリームアーキテクチャを共有していますが、Omni-Baseのオムニ事前学習は生成/編集間のシームレスな移行を可能にし、これはコミュニティから「Base」から「Omni-Base」への本質的な変化と見なされています:それは汎用性を向上させるだけでなく、LoRAのような微調整を統一されたフレームワーク内で適用し、Qwen-Imageで見られる生成と編集の分離されたトレーニングを回避します。

特性/方面 Z-Image-Turbo(蒸留版) Z-Image-Omni-Base(基本オムニ版) Z-Image-Edit(編集版)
主要能力 高速生成、多言語レンダリング;1秒未満の速度。 統一された生成/編集;高多様性とリアリズム、omni LoRAをサポート。 精密編集、強力な指示の追随。
速度と要件 最速、コンシューマーGPU(<16GB VRAM)をサポート。 ゆっだが柔軟性が高い;>20ステップの推論が必要。 中程度、編集効率に特化。
ベンチマーク性能 オープンソースSOTA、Alibaba AI Arenaでリード。 Turboより質が高いがベンチマーク未公開;omni学習で汎用性向上。 編集精度が際立つ、ドリフトを回避。
利点 高速イテレーションに適;コミュニティツールとの統合が広い。 オムニ事前学習によるシームレスなタスク切り替え;Qwen-Imageの統一ソリューションとしての代替。 創造的な再描画、制約を尊重。
欠点 編集にはカスタムワークフローが必要;細部に時不足。 画像が「AI的」なスタイルになる可能性;ヌードなどの特殊機能は未確定。 生成はOmniほど多様ではない。
適用シーン コンセプトアート、ニュースビジュアライゼーション。 カスタム開発、クロスタスク微調整。 画像修正、精密調整。

表からわかるように、Omni-Baseの位置づけはその万能性にあります:コミュニティのユーザーは、RTX 3090のようなハードウェアで動作し、Q8_0量子化をサポートし、ヌード生成などのエッジ機能の可能性を提供すると指摘しています(ただしTurboはすでにこれをサポートしていますが、Omni版はLoRAでアンロックする必要があります)。Qwen-Image(20B)のようなより大きなモデルと比較して、Z-Imageシリーズはより効率的ですが、Omni-BaseはDecoupled-DMDとDMDRアルゴリズムを通じて詳細と高周波レンダリングにおいて競争力があります。

開発と未来:オムニ事前学習の可能性

Z-ImageシリーズはアルババのTongyi-MAIチームによって開発され、パラメータ効率と蒸留技術に焦点を当てています。オムニ事前学習の導入は、タスク固有のモデルから統一されたフレームワークへの転換を示しており、この名称変更(コミュニティではすでに人気)は将来のオープンソースエコシステムの傾向を予測しています:より少ないバリアントの分裂、より強いタスク互換性。現在、Turboは完全に利用可能であり、Omni-BaseとEditは開発が完了しており、重みのリリース遅延は最適化に関連している可能性があります。コミュニティの貢献は活発で、stable-diffusion.cppの統合(4GB VRAMをサポート)とビデオ拡張に関する推測が含まれていますが、公式には確認されていません。