中国科技大学与字节跳动即将联合推出具有里程碑意义的端到端长视频生成模型。该模型可直接生成**分钟长、480p分辨率、每秒24帧(fps)**的高质量视频,并支持多镜头场景转换,标志着国产视频生成技术在全球生成式AI竞争中取得关键突破。
这一成果的核心创新在于其底层算法——MoGA(Modular Global Attention),这是一种新的注意力机制,专门针对长视频生成中的上下文扩展和计算成本问题而设计。通过MoGA的结构优化,该模型可以处理高达580K令牌的上下文信息,显著降低了计算成本,使得生成时长、多场景的视频成为可能。
研究团队表示,传统的视频生成模型往往受到内存和计算能力的限制,只能生成几秒钟的动画 GIF 或短片。MoGA 的引入使得该模型能够“一次性生成”一部具有多个场景转换和连贯视觉叙事的“迷你短片”,大大扩展了生成视频模型的应用边界。
此外,MoGA具有高度的模块化和兼容性,可以直接与现有的高效加速库(如FlashAttention、xFormers、DeepSpeed等)集成,实现更快的训练和推理效率。这意味着该技术不仅具有科技突破意义,还具有产业化应用潜力,可以应用于影视创作、广告生成、游戏过场动画和数字人内容制作等领域。
随着OpenAI、Pika、Runway等公司不断推进短视频生成,中国科技大学和字节跳动推出的模型被认为是中国第一个能够真正生成一分钟长视频的系统。它在算法、效率和可扩展性方面的领先地位,可能会将中国推向视频生成领域的全球前沿。
声明:本文来自网络,版权归作者所有。文章内容仅代表作者独立观点,不代表数字化转型网立场,转载目的在于传递更多信息。如有侵权,请联系我们。数字化转型网www.szhzxw.cn

本文由数字化转型网(www.szhzxw.cn)转载而成,来源于网络;编辑/翻译:数字化转型网(Professionalism Achieves Leadership 专业造就领导者)默然
