LTX-2 王炸登场:开源音视频生成模型支持无限长视频+ComfyUI完美集成

分类: 视频模型 |发布于: 2/8/2026 |最后更新: 2/8/2026

🎬 LTX-2:开源音视频生成模型的里程碑

Lightricks 发布 190 亿参数 DiT 模型,支持无限长视频生成 + 音视频同步

📅 2026年2月8日 | 📊 来源:B站 T8star-Aix、NVIDIA、Lightricks 官方

在 CES 2026 上,Lightricks 正式发布了备受期待的 LTX-2 开源音视频生成模型。这款 190 亿参数的 DiT 架构模型不仅能生成高质量视频,还能在单次推理中同步生成音频,堪称开源视频生成领域的「王炸」级产品。

🎯 核心亮点速览
  • 190亿参数:DiT 架构,支持文生视频、图生视频、音频驱动视频
  • 无限长视频:通过 Adapter 实现无劣化的超长视频生成
  • 音视频同步:单次推理同时生成视频和配套音频
  • 本地 4K 生成:NVIDIA RTX 优化,NVFP4 模式下速度提升 3 倍,显存降低 60%
  • 完全开源:模型权重和训练框架全部公开

📊 技术架构与特性

🔧 模型架构

LTX-2 采用 DiT (Diffusion Transformer) 架构,拥有 190 亿参数。与传统视频生成模型不同,LTX-2 能够在单次前向传播中同时生成视频和音频,实现真正的多模态生成。

LTX-2 视频生成效果

模型支持多种生成模式:文本到视频、图像到视频、音频到视频,以及这些模式的组合使用。

🎥 无限长视频生成

通过 Aio V62 + Adapter 技术,LTX-2 可以生成无劣化、高动态的超长视频,突破了传统视频模型的时长限制。

🎵 音视频同步

独特的多模态架构让视频中的动作、对话、背景音效和音乐能够协调一致地生成。

⚡ RTX 加速优化

NVIDIA 提供 NVFP4/NVFP8 优化版本,在 RTX 显卡上实现云端级 4K 视频本地生成

🔓 完全开源

模型权重、训练框架全部开源,支持 LoRA 和 IC-LoRA 微调训练。

🛠️ ComfyUI 集成指南

安装与配置

LTX-2 已完美集成到 ComfyUI,提供了丰富的自定义节点。根据 B站 UP主 T8star-Aix 的教程,以下是快速上手步骤:

资源链接说明
ComfyUI 节点github.com/Lightricks/ComfyUI-LTXVideo官方 ComfyUI 扩展
T8 整合包 V5夸克网盘包含完整工作流
模型下载夸克网盘 / HuggingFaceNVFP4/NVFP8 优化版本
云端镜像阿里云无影无需本地配置
💡
显卡要求:推荐 24GB 显存(RTX 3090/4090),使用 NVFP4 优化后可在 16GB 显存显卡上运行。

📈 与其他模型对比

特性LTX-2SoraRunway Gen-3
开源✅ 完全开源❌ 闭源❌ 闭源
音视频同步✅ 原生支持❌ 不支持❌ 不支持
本地运行✅ 支持❌ 仅云端❌ 仅云端
无限长视频✅ 支持⚠️ 有限制⚠️ 有限制
LoRA 训练✅ 官方支持❌ 不支持❌ 不支持
📋 点击查看 LTX-2 完整功能列表
  • 文本到视频 (T2V):根据文字描述生成视频
  • 图像到视频 (I2V):将静态图片动画化
  • 音频到视频 (A2V):根据音频节奏生成配套视频
  • 视频延长:无缝扩展现有视频长度
  • 视频超分:配合 RTX Video Super Resolution 实现 4K 输出
  • LoRA 微调:支持角色、风格定制训练

🎓 学习资源

推荐教程

B站 UP主 T8star-Aix 发布了详细的 LTX-2 使用教程「Ai动画214」,涵盖:

  • LTX-2 与其他视频模型的对比测试
  • Aio V62 + Adapter 无限长视频工作流
  • NVIDIA N 版优化配置
  • 完整 ComfyUI 工作流分享

📺 视频链接:bilibili.com/video/BV1RvFMzhE8c

本文由加装AI助手整理发布 | 数据来源:Lightricks、NVIDIA、B站 T8star-Aix