Skip to content

Latest commit

 

History

History
executable file
·
222 lines (165 loc) · 11.5 KB

File metadata and controls

executable file
·
222 lines (165 loc) · 11.5 KB

⚡️ LightX2V:
轻量级视频生成推理框架

logo

License Ask DeepWiki Doc Doc Papers Docker

[ English | 中文 ]


LightX2V 是一个先进的轻量级视频生成推理框架,专为提供高效、高性能的视频合成解决方案而设计。该统一平台集成了多种前沿的视频生成技术,支持文本生成视频(T2V)和图像生成视频(I2V)等多样化生成任务。X2V 表示将不同的输入模态(X,如文本或图像)转换为视频输出(V)

🔥 最新动态

  • 2025年11月21日: 🚀 我们Day0支持了HunyuanVideo-1.5的视频生成模型,同样GPU数量,LightX2V可带来约2倍以上的速度提升,并支持更低显存GPU部署(如24G RTX4090)。支持CFG并行/Ulysses并行,高效Offload,TeaCache/MagCache等技术。同时支持沐曦,寒武纪等国产芯片部署。量化模型和轻量VAE模型现已可用:Hy1.5-Quantized-Models用于量化推理,HunyuanVideo-1.5轻量TAE用于快速VAE解码。我们很快将在我们的HuggingFace主页更新更多模型,包括步数蒸馏,VAE蒸馏等相关模型。使用教程参考这里,或查看示例目录获取代码示例。

💡 快速开始

详细使用说明请参考我们的文档:英文文档 | 中文文档

从 Git 安装

pip install -v git+https://github.com/ModelTC/LightX2V.git

从源码构建

git clone https://github.com/ModelTC/LightX2V.git
cd LightX2V
uv pip install -v . # pip install -v .

(可选)安装注意力/量化算子

注意力算子安装说明请参考我们的文档:英文文档 | 中文文档

快速开始

# examples/hunyuan_video/hunyuan_t2v.py
from lightx2v import LightX2VPipeline

pipe = LightX2VPipeline(
    model_path="/path/to/ckpts/hunyuanvideo-1.5/",
    model_cls="hunyuan_video_1.5",
    transformer_model_name="720p_t2v",
    task="t2v",
)

pipe.create_generator(
    attn_mode="sage_attn2",
    infer_steps=50,
    num_frames=121,
    guidance_scale=6.0,
    sample_shift=9.0,
    aspect_ratio="16:9",
    fps=24,
)

seed = 123
prompt = "Two anthropomorphic cats in comfy boxing gear and bright gloves fight intensely on a spotlighted stage."
negative_prompt = ""
save_result_path="/path/to/save_results/output.mp4"

pipe.generate(
    seed=seed,
    prompt=prompt,
    negative_prompt=negative_prompt,
    save_result_path=save_result_path,
)

💡 更多示例: 更多使用案例,包括量化、卸载、缓存等进阶配置,请参考 examples 目录

🤖 支持的模型生态

官方开源模型

量化模型和蒸馏模型/Lora (🚀 推荐:4步推理)

轻量级自编码器模型(🚀 推荐:推理快速 + 内存占用低)

自回归模型

💡 参考模型结构文档快速上手 LightX2V

🚀 前端展示

我们提供了多种前端界面部署方式:

  • 🎨 Gradio界面: 简洁易用的Web界面,适合快速体验和原型开发
  • 🎯 ComfyUI界面: 强大的节点式工作流界面,支持复杂的视频生成任务
  • 🚀 Windows一键部署: 专为Windows用户设计的便捷部署方案,支持自动环境配置和智能参数优化

💡 推荐方案:

  • 首次使用: 建议选择Windows一键部署方案
  • 高级用户: 推荐使用ComfyUI界面获得更多自定义选项
  • 快速体验: Gradio界面提供最直观的操作体验

🚀 核心特性

🎯 极致性能优化

💾 资源高效部署

  • 💡 突破硬件限制: 仅需8GB显存 + 16GB内存即可运行14B模型生成480P/720P视频
  • 🔧 智能参数卸载: 先进的磁盘-CPU-GPU三级卸载架构,支持阶段/块级别的精细化管理
  • ⚙️ 全面量化支持: 支持w8a8-int8w8a8-fp8w4a4-nvfp4等多种量化策略

🎨 丰富功能生态

  • 📈 智能特征缓存: 智能缓存机制,消除冗余计算,提升效率
  • 🔄 并行推理加速: 多GPU并行处理,显著提升性能表现
  • 📱 灵活部署选择: 支持Gradio、服务化部署、ComfyUI等多种部署方式
  • 🎛️ 动态分辨率推理: 自适应分辨率调整,优化生成质量
  • 🎞️ 视频帧插值: 基于RIFE的帧插值技术,实现流畅的帧率提升

🏆 性能基准测试

详细的性能指标和对比分析,请参考我们的基准测试文档

详细服务部署指南 →

📚 技术文档

📖 方法教程

🛠️ 部署指南

🧾 代码贡献指南

我们通过自动化的预提交钩子来保证代码质量,确保项目代码格式的一致性。

Tip

安装说明:

  1. 安装必要的依赖:
pip install ruff pre-commit
  1. 提交前运行:
pre-commit run --all-files

感谢您为LightX2V的改进做出贡献!

🤝 致谢

我们向所有启发和促进LightX2V开发的模型仓库和研究社区表示诚挚的感谢。此框架基于开源社区的集体努力而构建。

🌟 Star 历史

Star History Chart

✏️ 引用

如果您发现LightX2V对您的研究有用,请考虑引用我们的工作:

@misc{lightx2v,
 author = {LightX2V Contributors},
 title = {LightX2V: Light Video Generation Inference Framework},
 year = {2025},
 publisher = {GitHub},
 journal = {GitHub repository},
 howpublished = {\url{https://github.com/ModelTC/lightx2v}},
}

📞 联系与支持

如有任何问题、建议或需要支持,欢迎通过以下方式联系我们:


由 LightX2V 团队用 ❤️ 构建