LTX-2 王炸登场:开源音视频生成模型支持无限长视频+ComfyUI完美集成
分类: 视频模型 |发布于: 2/8/2026 |最后更新: 2/8/2026
🎬 LTX-2:开源音视频生成模型的里程碑
Lightricks 发布 190 亿参数 DiT 模型,支持无限长视频生成 + 音视频同步
在 CES 2026 上,Lightricks 正式发布了备受期待的 LTX-2 开源音视频生成模型。这款 190 亿参数的 DiT 架构模型不仅能生成高质量视频,还能在单次推理中同步生成音频,堪称开源视频生成领域的「王炸」级产品。
🎯 核心亮点速览
- 190亿参数:DiT 架构,支持文生视频、图生视频、音频驱动视频
- 无限长视频:通过 Adapter 实现无劣化的超长视频生成
- 音视频同步:单次推理同时生成视频和配套音频
- 本地 4K 生成:NVIDIA RTX 优化,NVFP4 模式下速度提升 3 倍,显存降低 60%
- 完全开源:模型权重和训练框架全部公开
📊 技术架构与特性
🔧 模型架构
LTX-2 采用 DiT (Diffusion Transformer) 架构,拥有 190 亿参数。与传统视频生成模型不同,LTX-2 能够在单次前向传播中同时生成视频和音频,实现真正的多模态生成。
模型支持多种生成模式:文本到视频、图像到视频、音频到视频,以及这些模式的组合使用。
🎥 无限长视频生成
通过 Aio V62 + Adapter 技术,LTX-2 可以生成无劣化、高动态的超长视频,突破了传统视频模型的时长限制。
🎵 音视频同步
独特的多模态架构让视频中的动作、对话、背景音效和音乐能够协调一致地生成。
⚡ RTX 加速优化
NVIDIA 提供 NVFP4/NVFP8 优化版本,在 RTX 显卡上实现云端级 4K 视频本地生成。
🔓 完全开源
模型权重、训练框架全部开源,支持 LoRA 和 IC-LoRA 微调训练。
🛠️ ComfyUI 集成指南
安装与配置
LTX-2 已完美集成到 ComfyUI,提供了丰富的自定义节点。根据 B站 UP主 T8star-Aix 的教程,以下是快速上手步骤:
| 资源 | 链接 | 说明 |
|---|---|---|
| ComfyUI 节点 | github.com/Lightricks/ComfyUI-LTXVideo | 官方 ComfyUI 扩展 |
| T8 整合包 V5 | 夸克网盘 | 包含完整工作流 |
| 模型下载 | 夸克网盘 / HuggingFace | NVFP4/NVFP8 优化版本 |
| 云端镜像 | 阿里云无影 | 无需本地配置 |
💡
显卡要求:推荐 24GB 显存(RTX 3090/4090),使用 NVFP4 优化后可在 16GB 显存显卡上运行。
📈 与其他模型对比
| 特性 | LTX-2 | Sora | Runway Gen-3 |
|---|---|---|---|
| 开源 | ✅ 完全开源 | ❌ 闭源 | ❌ 闭源 |
| 音视频同步 | ✅ 原生支持 | ❌ 不支持 | ❌ 不支持 |
| 本地运行 | ✅ 支持 | ❌ 仅云端 | ❌ 仅云端 |
| 无限长视频 | ✅ 支持 | ⚠️ 有限制 | ⚠️ 有限制 |
| LoRA 训练 | ✅ 官方支持 | ❌ 不支持 | ❌ 不支持 |
📋 点击查看 LTX-2 完整功能列表
- 文本到视频 (T2V):根据文字描述生成视频
- 图像到视频 (I2V):将静态图片动画化
- 音频到视频 (A2V):根据音频节奏生成配套视频
- 视频延长:无缝扩展现有视频长度
- 视频超分:配合 RTX Video Super Resolution 实现 4K 输出
- LoRA 微调:支持角色、风格定制训练
🎓 学习资源
推荐教程
B站 UP主 T8star-Aix 发布了详细的 LTX-2 使用教程「Ai动画214」,涵盖:
- LTX-2 与其他视频模型的对比测试
- Aio V62 + Adapter 无限长视频工作流
- NVIDIA N 版优化配置
- 完整 ComfyUI 工作流分享
本文由加装AI助手整理发布 | 数据来源:Lightricks、NVIDIA、B站 T8star-Aix