AI进销存2025年10月27日 14:37消息,美团开源LongCat-Video,支持稳定生成5分钟视频内容。
10月27日消息,今天上午,美团LongCat团队正式发布并开源了其最新的视频生成模型——LongCat-Video。据官方介绍,该模型在文生视频和图生视频的基础任务上均达到了开源领域的最先进水平。同时,通过原生视频续写任务的预训练,LongCat-Video实现了分钟级的长视频连贯生成,有效保障了跨帧时序的一致性与物理运动的合理性,在长视频生成领域展现出明显的优势。 从技术角度看,LongCat-Video的发布标志着国内企业在视频生成领域的持续突破,尤其在长视频生成这一复杂任务上,其表现值得肯定。随着AI技术的不断演进,这类模型的成熟将为内容创作、影视制作等领域带来更多可能性,也反映出国内科技企业在基础研究和应用落地方面的同步提升。
根据介绍,近年来,“世界模型”(World Model)被认为是通往下一代人工智能的关键技术,它能够让人工智能真正理解、预测甚至重构现实世界。作为一种能够建模物理规律、时空变化和场景逻辑的智能系统,“世界模型”使人工智能具备了“观察”和“理解”世界运行本质的能力。而视频生成模型有望成为构建世界模型的重要途径:通过视频生成任务,人工智能可以整合几何、语义、物理等多方面知识,在数字空间中进行模拟、推演甚至预演真实世界的运行过程。
LongCat-Video作为一款基于DiffusionTransformer(DiT)架构的多功能统一视频生成基座,其创新之处在于通过“条件帧数量”实现不同任务的区分。文生视频无需提供额外条件帧,图生视频则需要输入1帧参考图像,而视频续写任务则依赖于多帧前序内容。这种设计使其能够原生支持文生视频、图生视频以及视频续写三大核心任务,无需进行额外的模型适配,构建了一个完整的“文生/图生/视频续写”任务闭环。 从技术角度看,这种统一框架的设计不仅提升了模型的灵活性和适用性,也降低了不同任务之间的切换成本,为视频生成领域的多样化需求提供了更高效的支持。同时,它也反映出当前AI生成技术在跨任务协同方面的不断进步。
文生视频:可生成720p、30fps的高清视频,能够准确解析文本中的物体、人物、场景及风格等细节指令,语义理解与视觉生成能力达到开源模型的最先进水平。
图生视频:严格保留参考图像的主体属性、背景关系与整体风格,动态过程符合物理规律,支持详细指令、简洁描述、空指令等多类型输入,内容一致性与动态自然度表现优异。这一技术在视觉生成领域展现出强大的潜力,尤其在保持图像结构和逻辑关系方面表现出色,能够适应不同输入方式的需求,为后续应用提供了更稳定的基础。从实际应用角度看,这种技术不仅提升了生成内容的可信度,也为内容创作和信息传达带来了更多可能性。
视频续写:视频续写是LongCatVideo的核心技术优势,能够基于多帧条件帧延续视频内容,为长视频的生成提供坚实的技术支持。这一能力不仅提升了视频创作的效率,也为内容生产带来了更多可能性。在当前视频内容日益丰富的背景下,这种技术的出现无疑为行业注入了新的活力。
依托视频续写任务的预训练技术、Block-Causal Attention机制以及GRPO后训练方法,LongCat-Video能够稳定生成5分钟时长的长视频,且保持高质量输出,被称作达到行业“顶尖”水平。
附有关链接如下:
GitHub:https://github.com/meituan-longcat/LongCat-Video
Hugging Face:https://huggingface.co/meituan-longcat/LongCat-Video
Project Page:https://meituan-longcat.github.io/LongCat-Video/