您现在的位置是:首页 > 文章详情

中国科大与字节发布 MoGA 长视频生成模型

日期:2025-10-24点击:4

中国科学技术大学与字节跳动即将联合发布一款具有里程碑意义的 端到端长视频生成模型。该模型能够直接生成分钟级长度、480p 分辨率、24帧/秒(fps)的高质量视频,并支持多镜头场景切换,标志着国产视频生成技术在全球生成式 AI 竞赛中实现关键突破。

这项成果的核心创新在于其底层算法——MoGA(Modular Global Attention),这是一种全新的注意力机制,专为解决长视频生成中的上下文扩展与算力开销问题而设计。凭借 MoGA 的结构优化,模型可处理长达 580K token 的上下文信息,大幅降低计算成本,使长时间、多场景的视频生成成为可能。

研究团队表示,传统视频生成模型往往受限于显存和计算量,只能生成几秒钟的动画 GIF 或短片。而 MoGA 的引入,让模型能够“一次性”生成包含多个镜头切换、视觉叙事连贯的 “迷你短片”,极大拓展了生成式视频模型的应用边界。

此外,MoGA 具有高度的 模块化与兼容性,可直接与现有的高效加速库(如 FlashAttention、xFormers、DeepSpeed 等)集成,实现更快的训练与推理效率。这意味着该技术不仅具备科研突破意义,也具备产业落地潜力,可应用于影视创作、广告生成、游戏过场动画以及数字人内容生产等领域。

随着 OpenAI、Pika、Runway 等公司相继推进短视频生成,中国科大与字节跳动此次推出的模型被认为是国内首个能真正实现分钟级长视频生成的系统,其在算法、效率和可扩展性上的领先性,或将推动中国在视频生成领域进入全球前列。

原文链接:https://www.oschina.net/news/379224
关注公众号

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。

持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。

转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。

文章评论

共有0条评论来说两句吧...

文章二维码

扫描即可查看该文章

点击排行

推荐阅读

最新文章