所以下载后直接覆盖到的ComfyUI模型目录就可以了
自从去年下半年到现在所有我下载的模型都在这里了
## 目录
1. [基础模型 (Checkpoints)](#1-基础模型-checkpoints)
2. [扩散模型 (Diffusion Models)](#2-扩散模型-diffusion-models)
3. [LoRA 模型](#3-lora-模型)
4. [ControlNet 模型](#4-controlnet-模型)
5. [VAE 模型](#5-vae-模型)
6. [CLIP 和文本编码器](#6-clip-和文本编码器)
7. [CLIP Vision 模型](#7-clip-vision-模型)
8. [超分模型 (Upscale Models)](#8-超分模型-upscale-models)
9. [VAE Approx 模型](#9-vae-approx-模型)
10. [音频编码器](#10-音频编码器)
11. [风格模型](#11-风格模型)
12. [GLIGEN 模型](#12-gligen-模型)
13. [XLabs 模型](#13-xlabs-模型)
14. [FlashVSR 模型](#14-flashvsr-模型)
15. [模型配合关系汇总](#15-模型配合关系汇总)
## 1. 基础模型 (Checkpoints)
基础模型是图像生成的核心模型,包含完整的U-Net、VAE和文本编码器。
| 模型名称 | 类型 | 主要用途 | 需配合的模型 |
|---------|------|---------|-------------|
| `v1-5-pruned-emaonly.safetensors` / `.ckpt` | SD 1.5 | Stable Diffusion 1.5 官方基础模型,通用图像生成 | 可选:VAE、LoRA、ControlNet |
| `v1-5-pruned-emaonly-fp16.safetensors` | SD 1.5 FP16 | SD 1.5 半精度版本,显存占用更低 | 同上 |
| `v2-1_768-ema-pruned.safetensors` | SD 2.1 | Stable Diffusion 2.1 官方模型,支持768x768分辨率 | 可选:VAE、ControlNet |
| `512-inpainting-ema.safetensors` | SD 1.5 Inpainting | SD 1.5 图像修复专用模型 | 可选:VAE、ControlNet |
| `dreamshaper_8.safetensors` / `DreamShaper_8_pruned.safetensors` | SD 1.5 微调 | DreamShaper v8,写实风格优化模型 | 可选:VAE、LoRA、ControlNet |
| `sd_xl_base_1.0.safetensors` | SDXL | Stable Diffusion XL 基础模型,质量更高 | 可选:SDXL VAE、SDXL LoRA、SDXL ControlNet、Refiner |
| `sd_xl_base_1.0_0.9vae.safetensors` | SDXL + VAE | 集成VAE的SDXL基础模型 | 可选:SDXL LoRA、ControlNet |
| `sd_xl_refiner_1.0.safetensors` | SDXL Refiner | SDXL 精修模型,用于细节增强 | 必须与 SDXL Base 配合使用 |
| `majicmixRealistic_v7.safetensors` | SD 1.5 微调 | MajicMix Realistic v7,写实人像模型 | 可选:VAE、LoRA、ControlNet |
| `japaneseStyleRealistic_v20.safetensors` | SD 1.5 微调 | 日式写实风格模型 | 可选:VAE、LoRA、ControlNet |
| `awpainting_v14.safetensors` | SD 1.5 微调 | 动漫/绘画风格模型 | 可选:VAE、LoRA、ControlNet |
| `experience_V10.safetensors` | SD 1.5 微调 | Experience v10 艺术风格模型 | 可选:VAE、LoRA、ControlNet |
| `architecturerealmix_v11.safetensors` | SD 1.5 微调 | 建筑/室内设计专用模型 | 可选:VAE、ControlNet |
| `interiordesignsuperm_v2.safetensors` | SD 1.5 微调 | 室内设计超级模型v2 | 可选:VAE、ControlNet |
| `flux1-dev-fp8.safetensors` | FLUX.1 Dev | FLUX.1 开发版,高质量图像生成(FP8量化) | 必须配合:CLIP_L + T5XXL 文本编码器、FLUX VAE |
| `flux1-schnell.safetensors` / `flux1-schnell-fp8.safetensors` | FLUX.1 Schnell | FLUX.1 快速版,4步生成高质量图像 | 必须配合:CLIP_L + T5XXL 文本编码器、FLUX VAE |
| `flux1-schnell-F16.gguf` / `flux1-schnell-Q8_0.gguf` | FLUX.1 Schnell GGUF | FLUX.1 Schnell GGUF格式,更低显存占用 | 必须配合:CLIP_L + T5XXL 文本编码器、FLUX VAE |
| `flux1-dev-F16.gguf` | FLUX.1 Dev GGUF | FLUX.1 Dev GGUF格式 | 必须配合:CLIP_L + T5XXL 文本编码器、FLUX VAE |
| `sd3.5_large_fp8_scaled.safetensors` | SD 3.5 Large | Stable Diffusion 3.5 Large(FP8量化) | 必须配合:CLIP_L + CLIP_G + T5XXL 文本编码器 |
| `flux1-redux-dev.safetensors` | FLUX Redux | FLUX 图像变体和风格迁移模型 | 必须配合:FLUX Dev/Schnell、CLIP Vision |
| `hunyuan_3d_v2.1.safetensors` / `hunyuan3d-dit-v2_fp16.safetensors` | Hunyuan3D | 腾讯混元3D生成模型 | 专用工作流 |
| `stable-audio-open-1.0.safetensors` | Stable Audio | 音频生成模型 | 专用工作流 |
| `ace_step_v1_3.5b.safetensors` | ACE Step | 轻量级快速生成模型 | 可选:VAE |
| `ltx-2-19b-dev-fp8.safetensors` | LTX-Video | Lightricks视频生成模型 | 配合LTX VAE |
## 2. 扩散模型 (Diffusion Models)
分离式扩散模型,通常需要配合特定的文本编码器和VAE使用。
| 模型名称 | 类型 | 主要用途 | 需配合的模型 |
|---------|------|---------|-------------|
| `flux1-dev.safetensors` | FLUX.1 Dev DiT | FLUX.1 Dev 的扩散Transformer部分 | 必须:CLIP_L + T5XXL、FLUX VAE |
| `flux1-fill-dev.safetensors` | FLUX.1 Fill | FLUX.1 图像修复/外绘专用模型 | 必须:CLIP_L + T5XXL、FLUX VAE |
| `flux1-canny-dev.safetensors` | FLUX.1 Canny | FLUX.1 Canny边缘控制模型 | 必须:CLIP_L + T5XXL、FLUX VAE |
| `flux1-kontext-dev.safetensors` | FLUX.1 Kontext | FLUX.1 上下文感知编辑模型 | 必须:CLIP_L + T5XXL、FLUX VAE |
| `flux1-redux-dev.safetensors` | FLUX Redux | FLUX 图像风格迁移 | 必须:FLUX 基础模型、CLIP Vision |
| `flux1-krea-dev_fp8_scaled.safetensors` | FLUX.1 Krea | Krea AI 优化版 FLUX | 必须:CLIP_L + T5XXL、FLUX VAE |
| `flux_dev_fp8_scaled_diffusion_model.safetensors` | FLUX Dev FP8 | FLUX Dev FP8量化扩散模型 | 必须:CLIP_L + T5XXL、FLUX VAE |
| `flux1-dev-kontext_fp8_scaled.safetensors` | FLUX Kontext FP8 | FLUX Kontext FP8量化版 | 必须:CLIP_L + T5XXL、FLUX VAE |
| `wan2.1_t2v_14B_bf16.safetensors` | Wan 2.1 T2V 14B | 阿里万相视频生成模型(文生视频) | 必须:Wan VAE、文本编码器 |
| `wan2.1_i2v_480p_14B_bf16.safetensors` / `wan2.1_i2v_480p_14B_fp16.safetensors` | Wan 2.1 I2V 480p | 万相图生视频模型(480p) | 必须:Wan VAE |
| `wan2.1_i2v_720p_14B_fp16.safetensors` | Wan 2.1 I2V 720p | 万相图生视频模型(720p高清版) | 必须:Wan VAE |
| `wan2.1_vace_14B_fp16.safetensors` / `wan2.1_vace_1.3B_fp16.safetensors` | Wan 2.1 VACE | 万相视频编辑模型 | 必须:Wan VAE |
| `wan2.1_fun_camera_v1.1_14B_bf16.safetensors` / `wan2.1_fun_camera_v1.1_1.3B_bf16.safetensors` | Wan 2.1 Camera | 万相相机运动控制模型 | 必须:Wan VAE、相机控制LoRA |
| `hidream_i1_full_fp8.safetensors` | HiDream I1 | HiDream 图像生成模型 | 必须:HiDream CLIP组合、VAE |
| `omnigen2_fp16.safetensors` | OmniGen2 | 统一图像生成与编辑模型 | 专用工作流 |
| `chroma-unlocked-v33.safetensors` / `Chroma1-Radiance-v0.3.safetensors` | Chroma | Chroma 图像生成模型 | 专用工作流 |
| `Cosmos-1_0-Diffusion-14B-Text2World.safetensors` | Cosmos T2W | NVIDIA Cosmos 文生世界模型 | 专用工作流 |
| `wan2.2_t2v_high_noise_14B_fp8_scaled.safetensors` / `wan2.2_t2v_low_noise_14B_fp8_scaled.safetensors` | Wan 2.2 T2V | 万相2.2版本文生视频 | 必须:Wan VAE |
| `wan2.2_i2v_high_noise_14B_fp8_scaled.safetensors` / `wan2.2_i2v_low_noise_14B_fp8_scaled.safetensors` | Wan 2.2 I2V | 万相2.2版本图生视频 | 必须:Wan VAE |
| `wan2.2_fun_camera_high_noise_14B_fp8_scaled.safetensors` / `wan2.2_fun_camera_low_noise_14B_fp8_scaled.safetensors` | Wan 2.2 Camera | 万相2.2相机运动控制 | 必须:Wan VAE |
| `wan2.2_fun_control_high_noise_14B_fp8_scaled.safetensors` / `wan2.2_fun_control_low_noise_14B_fp8_scaled.safetensors` | Wan 2.2 Control | 万相2.2控制模型 | 必须:Wan VAE、ControlNet |
| `wan2.2_s2v_14B_fp8_scaled.safetensors` | Wan 2.2 S2V | 万相2.2 基于风格/主体的视频生成 | 必须:Wan VAE |
| `wan2.2_ti2v_5B_fp16.safetensors` | Wan 2.2 TI2V | 万相2.2 主题一致性视频生成 | 必须:Wan VAE |
| `wan2.2_fun_inpaint_high_noise_14B_fp8_scaled.safetensors` / `wan2.2_fun_inpaint_low_noise_14B_fp8_scaled.safetensors` | Wan 2.2 Inpaint | 万相2.2视频修复/外绘 | 必须:Wan VAE |
| `Wan2_1-I2V-ATI-14B_fp8_e4m3fn.safetensors` | Wan 2.1 I2V ATI | 万相I2V ATI优化版 | 必须:Wan VAE |
| `Wan2_2-Animate-14B_fp8_e4m3fn_scaled_KJ.safetensors` | Wan 2.2 Animate | 万相动画生成模型 | 必须:Wan VAE |
| `qwen_image_fp8_e4m3fn.safetensors` | Qwen Image | 通义千问图像生成模型 | 必须:Qwen VAE、文本编码器 |
| `qwen_image_edit_2509_fp8_e4m3fn.safetensors` / `qwen_image_edit_2511_bf16.safetensors` | Qwen Image Edit | 通义千问图像编辑模型 | 必须:Qwen VAE |
| `humo_17B_fp8_e4m3fn.safetensors` | HuMo | HuMo 视频生成模型 | 专用工作流 |
| `flux-2-klein-4b-fp8.safetensors` | FLUX.2 Klein | FLUX.2 Klein 轻量模型 | 必须:CLIP_L + T5XXL |
| `flux.1-fill-dev-OneReward-transformer_fp8.safetensors` | FLUX Fill + OneReward | 带奖励模型优化的FLUX Fill | 必须:CLIP_L + T5XXL、FLUX VAE |
| `lotus-depth-d-v1-1.safetensors` | Lotus Depth | Lotus 深度估计模型 | 专用工作流 |
## 3. LoRA 模型
LoRA(Low-Rank Adaptation)用于微调基础模型的风格或添加新概念。
| 模型名称 | 适用基础模型 | 主要用途 |
|---------|-------------|---------|
| `Loraeyes_V1.safetensors` | SD 1.5 | 眼睛细节优化LoRA |
| `blindbox_v1_mix.safetensors` | SD 1.5 | 盲盒/手办风格LoRA |
| `MoXinV1.safetensors` | SD 1.5 | 墨心/中国画风格LoRA |
| `dmd2_sdxl_4step_lora.safetensors` | SDXL | DMD2 4步快速生成LoRA |
| `ltxv-13b-0.9.7-distilled-lora128.safetensors` | LTX-Video | LTXV 蒸馏LoRA,加速生成 |
| `Hyper-FLUX.1-dev-8steps-lora.safetensors` | FLUX.1 Dev | HyperSD 8步快速生成LoRA |
| `Hyper-FLUX.1-dev-16steps-lora.safetensors` | FLUX.1 Dev | HyperSD 16步生成LoRA |
| `Wan21_CausVid_14B_T2V_lora_rank32.safetensors` | Wan 2.1 14B | CausVid 因果视频生成LoRA |
| `Wan21_CausVid_bidirect2_T2V_1_3B_lora_rank32.safetensors` | Wan 2.1 1.3B | CausVid 双向因果视频生成LoRA(小模型版) |
| `lightx2v_T2V_14B_cfg_step_distill_v2_lora_rank64_bf16.safetensors` | Wan 2.1 14B T2V | LightX2V CFG蒸馏LoRA,加速文生视频 |
| `lightx2v_I2V_14B_480p_cfg_step_distill_rank64_bf16.safetensors` | Wan 2.1 14B I2V | LightX2V CFG蒸馏LoRA,加速图生视频 |
| `ltx-2-19b-distilled-lora-384.safetensors` | LTX-2 19B | LTX-2 蒸馏LoRA |
| `ltx-2-19b-lora-camera-control-dolly-left.safetensors` | LTX-2 19B | LTX-2 相机控制LoRA(左移) |
| `Qwen-Image-Lightning-4steps-V1.0.safetensors` / `Qwen-Image-Lightning-8steps-V1.0.safetensors` | Qwen Image | Qwen图像闪电快速生成LoRA |
| `Qwen-Image-Edit-2509-Lightning-4steps-V1.0-bf16.safetensors` / `Qwen-Image-Edit-2511-Lightning-4steps-V1.0-bf16.safetensors` | Qwen Image Edit | Qwen图像编辑闪电LoRA |
| `Qwen-Edit-2509-Multiple-angles.safetensors` | Qwen Image | Qwen多角度编辑LoRA |
| `uso-flux1-dit-lora-v1.safetensors` | FLUX.1 | USO-FLUX DiT LoRA |
| `wan2.2_t2v_lightx2v_4steps_lora_v1.1_high_noise.safetensors` / `wan2.2_t2v_lightx2v_4steps_lora_v1.1_low_noise.safetensors` | Wan 2.2 T2V | Wan 2.2 LightX2V 4步LoRA(高/低噪声版) |
| `wan2.2_i2v_lightx2v_4steps_lora_v1_high_noise.safetensors` / `wan2.2_i2v_lightx2v_4steps_lora_v1_low_noise.safetensors` | Wan 2.2 I2V | Wan 2.2 LightX2V 4步LoRA(高/低噪声版) |
| `removal_timestep_alpha-2-1740.safetensors` | Wan/FLUX | 时间步移除LoRA |
| `wan_alpha_2.1_rgba_lora.safetensors` | Wan 2.1 | Wan Alpha通道LoRA,支持RGBA生成 |
| `WanAnimate_relight_lorc_fp16.safetensors` | Wan | Wan动画重新打光LoRA |
## 4. ControlNet 模型
ControlNet 用于控制图像生成过程,基于各种条件输入。
| 模型名称 | 适用基础模型 | 控制类型 | 主要用途 |
|---------|-------------|---------|---------|
| `control_v11p_sd15_openpose_fp16.safetensors` | SD 1.5 | OpenPose | 人体姿态控制 |
| `control_v11p_sd15_scribble_fp16.safetensors` | SD 1.5 | Scribble | 涂鸦/草图控制 |
| `control_v11f1p_sd15_depth_fp16.safetensors` | SD 1.5 | Depth | 深度图控制 |
| `controlnetT2IAdapter_t2iAdapterDepth.safetensors` | SD 1.5 | Depth | T2I Adapter 深度控制 |
| `control-lora-canny-rank128.safetensors` / `control-lora-canny-rank256.safetensors` | SDXL | Canny | Canny边缘检测控制(LoRA格式) |
| `t2i-adapter-canny-sdxl-1.0.safetensors` / `t2i-adapter-canny-sdxl-1.0.fp16.safetensors` | SDXL | Canny | SDXL T2I Canny控制 |
| `sd3.5_large_controlnet_blur.safetensors` | SD 3.5 Large | Blur | SD 3.5 模糊控制网络 |
| `Qwen-Image-InstantX-ControlNet-Union.safetensors` | Qwen Image | Union | Qwen图像联合控制网络 |
| `Qwen-Image-InstantX-ControlNet-Inpainting.safetensors` | Qwen Image | Inpainting | Qwen图像修复控制网络 |
| `PanRightToLeft.safetensors` | Wan 2.1 | Motion | Wan视频平移控制(右到左) |
## 5. VAE 模型
VAE(变分自编码器)用于在像素空间和潜在空间之间转换图像。
| 模型名称 | 适用基础模型 | 主要用途 |
|---------|-------------|---------|
| `vae-ft-mse-840000-ema-pruned.safetensors` | SD 1.5 / SDXL | 标准VAE(840k步训练,EMA剪枝版) |
| `ae.safetensors` | FLUX 系列 | FLUX 官方VAE |
| `flux2-vae.safetensors` | FLUX.2 | FLUX.2 VAE |
| `wan_2.1_vae.safetensors` | Wan 2.1 | 万相视频VAE |
| `wan2.2_vae.safetensors` | Wan 2.2 | 万相2.2视频VAE |
| `wan_alpha_2.1_vae_rgb_channel.safetensors` / `wan_alpha_2.1_vae_alpha_channel.safetensors` | Wan Alpha | 万相Alpha通道VAE(RGB+Alpha分离) |
| `qwen_image_vae.safetensors` | Qwen Image | 通义千问图像VAE |
| `vaeFtMse840000EmaPruned_vaeFtMse840k.safetensors` | SD 1.5 | 另一种命名格式的VAE |
## 6. CLIP 和文本编码器
CLIP和文本编码器用于将文本提示转换为模型可理解的嵌入向量。
| 模型名称 | 类型 | 适用基础模型 | 主要用途 |
|---------|------|-------------|---------|
| `clip_l.safetensors` | CLIP-L | FLUX / SD3 / HiDream | CLIP-Large 文本编码器 |
| `t5xxl_fp16.safetensors` | T5-XXL FP16 | FLUX / SD3 | T5-XXL 文本编码器(FP16精度) |
| `t5xxl_fp8_e4m3fn_scaled.safetensors` | T5-XXL FP8 | FLUX / SD3 | T5-XXL FP8量化版 |
| `clip/t5xxl_fp16.safetensors` | T5-XXL | FLUX | 同上的另一种存放位置 |
| `umt5_xxl_fp16.safetensors` | UMT5-XXL | SD 3.5 / Wan | UMT5-XXL 文本编码器 |
| `umt5_xxl_fp8_e4m3fn_scaled.safetensors` | UMT5-XXL FP8 | SD 3.5 / Wan | UMT5-XXL FP8量化版 |
| `umt5_xxl_fp8_e4m3fn_scaled.safetensors` (checkpoints目录) | UMT5-XXL FP8 | SD 3.5 | 同上,checkpoints目录副本 |
| `clip_g_hidream.safetensors` | CLIP-G | HiDream | HiDream专用CLIP-G |
| `clip_l_hidream.safetensors` | CLIP-L | HiDream | HiDream专用CLIP-L |
| `fluxTextencoderT5XxlFp8_v10.safetensors` | T5-XXL FP8 | FLUX | FLUX专用T5-XXL FP8 |
| `t5-base.safetensors` | T5-Base | 通用 | T5基础版编码器 |
| `qwen_2.5_vl_fp16.safetensors` | Qwen 2.5 VL | Qwen Image/Video | 通义千问视觉语言模型 |
| `qwen_2.5_vl_7b_fp8_scaled.safetensors` | Qwen 2.5 VL 7B FP8 | Qwen Image/Video | 通义千问VL 7B FP8版 |
| `qwen_3_4b.safetensors` | Qwen 3 4B | Qwen | 通义千问3 4B模型 |
| `gemma_3_12B_it_fp4_mixed.safetensors` | Gemma 3 12B | 通用 | Google Gemma 3 12B指令模型 |
## 7. CLIP Vision 模型
CLIP Vision 用于处理图像输入,实现图生图、风格迁移等功能。
| 模型名称 | 主要用途 | 需配合的模型 |
|---------|---------|-------------|
| `clip_vision_g.safetensors` | CLIP Vision Large | IP-Adapter、图像反推、风格迁移 |
| `clip_vision_h.safetensors` | CLIP Vision Huge | 高清图像理解 |
| `sigclip_vision_patch14_384.safetensors` | SigCLIP Vision | SigCLIP 视觉编码器(384x384) |
| `checkpoints/clip_vision_g.safetensors` | 同上 | checkpoints目录副本 |
## 8. 超分模型 (Upscale Models)
用于图像放大和细节增强。
| 模型名称 | 放大倍数 | 算法类型 | 主要用途 |
|---------|---------|---------|---------|
| `RealESRGAN_x4.pth` | 4x | RealESRGAN | 通用图像4倍放大 |
| `RealESRGAN_x4plus.safetensors` | 4x | RealESRGAN+ | 增强版RealESRGAN |
| `4x-UltraSharp.pth` / `.bin` | 4x | ESRGAN | UltraSharp高质量放大 |
| `4x-UltraSharp-fp16.bin` / `4x-UltraSharp-fp32.bin` | 4x | ESRGAN | UltraSharp半精度/全精度版 |
| `4x-UltraSharp-fp16-opset*.onnx` / `4x-UltraSharp-fp32-opset*.onnx` | 4x | ESRGAN (ONNX) | UltraSharp ONNX格式(不同opset版本) |
| `4x-UltraMix_Balanced.pth` | 4x | ESRGAN | UltraMix平衡版(质量与速度平衡) |
| `4x-UltraMix_Restore.pth` | 4x | ESRGAN | UltraMix修复版(针对老照片) |
| `4x-UltraMix_Smooth.pth` | 4x | ESRGAN | UltraMix平滑版(减少噪点) |
| `4xFaceUpSharpDAT.pth` | 4x | DAT | 面部专用超分 |
| `ldsr/last.ckpt` | 可变 | LDSR | 潜在扩散超分辨率 |
| `upscale/x4-upscaler-ema.safetensors` | 4x | 潜在扩散 | 4倍潜在超分 |
| `latent_upscale_models/ltx-2-spatial-upscaler-x2-1.0.safetensors` | 2x | LTX | LTX-2空间超分 |
## 9. VAE Approx 模型
VAE Approximation 模型用于快速潜在解码预览。
| 模型名称 | 适用基础模型 | 主要用途 |
|---------|-------------|---------|
| `taesd_encoder.safetensors` / `taesd_decoder.safetensors` | SD 1.5 | SD 1.5 快速VAE编解码器 |
| `taesdxl_encoder.safetensors` / `taesdxl_decoder.safetensors` | SDXL | SDXL 快速VAE编解码器 |
| `taesd3_encoder.safetensors` / `taesd3_decoder.safetensors` | SD 3 | SD 3 快速VAE编解码器 |
| `taef1_encoder.safetensors` / `taef1_decoder.safetensors` | FLUX | FLUX 快速VAE编解码器 |
## 10. 音频编码器
用于音频处理和语音识别的模型。
| 模型名称 | 主要用途 |
|---------|---------|
| `wav2vec2_large_english_fp16.safetensors` | Wav2Vec 2.0 Large,英语语音识别 |
| `whisper_large_v3_fp16.safetensors` | OpenAI Whisper Large v3,多语言语音识别 |
## 11. 风格模型
用于图像风格迁移和处理的模型。
| 模型名称 | 主要用途 | 需配合的模型 |
|---------|---------|-------------|
| `flux1-redux-dev.safetensors` | FLUX Redux 风格迁移 | FLUX 基础模型、CLIP Vision |
## 12. GLIGEN 模型
GLIGEN(Grounded Language-Image Generation)用于基于位置的图像生成。
| 模型名称 | 适用基础模型 | 主要用途 |
|---------|-------------|---------|
| `gligen_sd14_textbox_pruned.safetensors` | SD 1.4 | 基于文本框位置的图像生成 |
## 13. XLabs 模型
XLabs AI 开发的模型集合。
| 模型名称 | 主要用途 | 需配合的模型 |
|---------|---------|-------------|
| `ipadapters/ip_adapter.safetensors` | IP-Adapter | 图像提示适配器,实现图生图风格迁移 |
## 14. FlashVSR 模型
FlashVSR 视频超分辨率模型集合。
| 模型名称 | 主要用途 |
|---------|---------|
| `FlashVSR1_1.safetensors` | FlashVSR 主模型 |
| `LQ_proj_in.safetensors` | 低质量投影输入模型 |
| `Prompt.safetensors` | 提示编码器 |
| `TCDecoder.safetensors` | TC解码器 |
| `Wan2.1_VAE.safetensors` | Wan 2.1 VAE(FlashVSR专用) |
| `Wan2_1-T2V-1_3B_FlashVSR_fp32.safetensors` | Wan 2.1 T2V 1.3B FlashVSR版 |
| `Wan2_1_FlashVSR_LQ_proj_model_bf16.safetensors` | FlashVSR低质量投影模型BF16版 |
## 15. 模型配合关系汇总
### 15.1 SD 1.5 系列工作流
```
基础模型 (SD 1.5 checkpoint)
├── 可选: VAE (vae-ft-mse-840000)
├── 可选: LoRA (如 MoXinV1、blindbox)
└── 可选: ControlNet (OpenPose、Canny、Depth、Scribble)
```
### 15.2 SDXL 系列工作流
```
基础模型 (SDXL Base)
├── 可选: SDXL VAE
├── 可选: SDXL LoRA
├── 可选: SDXL ControlNet (Canny、T2I-Adapter)
└── 可选: SDXL Refiner (用于精修)
```
### 15.3 FLUX.1 系列工作流
```
基础模型 (FLUX Dev / Schnell)
├── 必须: CLIP_L (clip_l.safetensors)
├── 必须: T5-XXL (t5xxl_fp16 或 fp8)
├── 必须: FLUX VAE (ae.safetensors)
├── 可选: FLUX LoRA (如 Hyper-FLUX、USO-FLUX)
└── 可选: FLUX Redux (风格迁移)
```
### 15.4 SD 3.5 系列工作流
```
基础模型 (SD 3.5 Large)
├── 必须: CLIP_L (clip_l.safetensors)
├── 必须: CLIP_G (clip_g,如需要)
├── 必须: T5-XXL / UMT5-XXL
└── 可选: SD 3.5 ControlNet
```
### 15.5 Wan 2.1/2.2 视频工作流
```
基础模型 (Wan T2V / I2V / VACE)
├── 必须: Wan VAE (wan_2.1_vae 或 wan2.2_vae)
├── 可选: UMT5-XXL 文本编码器
├── 可选: Wan LoRA (CausVid、LightX2V)
└── 可选: Wan ControlNet
```
### 15.6 HiDream 工作流
```
基础模型 (HiDream I1)
├── 必须: HiDream CLIP组合 (clip_l_hidream + clip_g_hidream)
└── 必须: HiDream VAE
```
### 15.7 Qwen Image 工作流
```
基础模型 (Qwen Image)
├── 必须: Qwen VAE (qwen_image_vae)
├── 必须: Qwen 文本编码器 (qwen_2.5_vl)
└── 可选: Qwen LoRA (Lightning、Edit)
```
---
## 附录:模型目录结构
```
models/
├── audio_encoders/ # 音频编码器 (Wav2Vec, Whisper)
├── checkpoints/ # 基础模型 (SD, SDXL, FLUX, SD3, Wan等)
├── clip/ # CLIP模型
├── clip_vision/ # CLIP Vision模型
├── controlnet/ # ControlNet模型
├── diffusion_models/ # 分离式扩散模型
├── loras/ # LoRA微调模型
├── style_models/ # 风格模型
├── text_encoders/ # 文本编码器 (T5, UMT5等)
├── vae/ # VAE模型
├── vae_approx/ # 快速VAE近似模型
├── upscale_models/ # 超分模型
├── FlashVSR/ # FlashVSR视频超分
├── gligen/ # GLIGEN模型
└── xlabs/ # XLabs模型 (IP-Adapter等)
```
你可以一起下载也可以按需下载:
链接:https://pan.quark.cn/s/64598499e434

评论
发表评论