返回列表

Qwen-Image-i2L (圖像轉 LoRA)

革命性的圖像轉 LoRA 模型,以圖像為輸入即可輸出訓練好的 LoRA 模型,實現即時風格遷移與內容保留

圖像轉 LoRA
風格遷移
LoRA 生成
DiffSynth Studio
多模型系統

概述

Qwen-Image-i2L 是一款創新模型,可直接將輸入圖像轉化為針對該圖像訓練的 LoRA 權重。該系統包含四個專業模型:用於風格遷移的 i2L-Style,用於內容保留的 i2L-Coarse 和 i2L-Fine,以及用於使輸出符合 Qwen-Image 審美的 i2L-Bias。

特性

  • 無需傳統訓練,即可從輸入圖像即時生成 LoRA
  • Qwen-Image-i2L-Style: 2.4B 參數,實現高效的風格提取與遷移
  • Qwen-Image-i2L-Coarse: 7.9B 參數,結合 SigLIP2、DINOv3、Qwen-VL 編碼器保留內容
  • Qwen-Image-i2L-Fine: 7.6B 參數,支持 1024x1024 分辨率捕捉細節
  • Qwen-Image-i2L-Bias: 30M 靜態 LoRA,用於 Qwen-Image 風格對齊
  • 組合使用 Coarse+Fine+Bias 模式,實現高保真內容與細節保留
  • 支持僅使用少量輸入圖像進行風格遷移
  • 可作為初始化權重,加速 LoRA 訓練過程

图片展示

抽象矢量風格輸入圖像
用於抽象矢量風格遷移的輸入圖像
抽象矢量風格生成圖像
使用 i2L-Style 模型生成的抽象矢量風格圖像
黑白素描風格輸入圖像
用於黑白素描風格遷移的輸入圖像
黑白素描風格生成圖像
使用 i2L-Style 模型生成的素描風格圖像

安装说明

從 HuggingFace 下載模型,並配合 DiffSynth-Studio 框架或兼容的擴散管線使用

使用方法

風格遷移請使用 i2L-Style 和少量統一風格圖像。內容保留請組合使用 i2L-Coarse、i2L-Fine 和 i2L-Bias。所有示例均使用隨機種子 0。

系统要求

  • Python 3.8+
  • 支持 CUDA 的 PyTorch
  • DiffSynth-Studio 或兼容框架
  • Style 模型需 8GB+ 顯存,Coarse+Fine+Bias 組合需 16GB+ 顯存

相关链接