Open-Sora 2.0 重磅开源!
潞晨科技正式推出 Open-Sora 2.0 ------ 一款全新开源的 SOTA 视频生成模型,仅 20 万美元(224 张 GPU)成功训练商业级 11B 参数视频生成大模型。开发高性能的视频生成模型通常耗资高昂:Meta 的视频模型训练需要 6000 多张 GPU 卡片,投入数百万美元。
在多项关键指标上,它与动辄百万美元训练成本的模型分庭抗礼,全面提升视频生成的可及性与可拓展性。
今天,视频生成领域迎来开源革命!Open-Sora 2.0------全新开源的 SOTA(State-of-the-Art) 视频生成模型正式发布。
仅用 20 万美元(224 张 GPU) 成功训练出商业级 11B 参数视频生成大模型,性能直追 HunyuanVideo 和 30B 参数的 Step-Video。权威评测 VBench 及用户偏好测试均证实其卓越表现,在多项关键指标上媲美动辄数百万美元训练成本的闭源模型。
此次发布全面开源模型权重、推理代码及分布式训练全流程,让高质量视频生成真正触手可及,进一步提升视频生成的可及性与可拓展性。
GitHub 地址:github.com/hpcaitech/Open-Sora
1. 体验与指标双在线
1.1 震撼视觉:Open-Sora 2.0 Demo 先行
🎥 观看宣传片,体验 Open-Sora 2.0 的强大生成能力
🎥 动作幅度可控:可根据需求设定运动幅度,以更好地展现人物或场景的细腻动作。
🎥 画质与流畅度:提供 720p 高分辨率和 24 FPS 流畅视频,让最终视频拥有稳定帧率与细节表现。
🎥 丰富场景切换:从乡村景色到自然风光场景,Open-Sora 2.0 生成的画面细节与过渡平滑度都有出色的表现。
1.2 11B 参数规模媲美主流闭源大模型
媲美 HunyuanVideo 和 30B Step-Video:
Open-Sora 2.0 采用 11B 参数规模 ,训练后在 VBench 和人工偏好(Human Preference) 评测上都取得与用高昂成本开发的主流闭源大模型同等水平。
用户偏好评测:
在视觉表现、文本一致性和动作表现三个评估维度上,Open Sora 在至少两个指标上超越了开源 SOTA HunyuanVideo,以及商业模型 Runway Gen-3 Alpha 等,以小成本获取了好性能。
VBench 指标表现强势:
根据视频生成权威榜单 VBench 的评测结果,Open-Sora 模型的性能进步显著。从 Open-Sora 1.2 升级到 2.0 版本后,与行业领先的 OpenAI Sora 闭源模型之间的性能差距大幅缩小,从之前的 4.52% 缩减至仅 0.69%,几乎实现了性能的全面追平。
此外,Open-Sora 2.0 在 VBench 评测中取得的分数已超过腾讯的 HunyuanVideo,以更低的成本实现了更高的性能,为开源视频生成技术树立了全新标杆!
2. 实现突破:低成本训练与高效能优化
Open Sora自开源以来,凭借其在视频生成领域的高效与优质表现,吸引了众多开发者的关注与参与。然而,随着项目的深入推进,也面临着高质量视频生成成本居高不下的问题。
为解决这些挑战,Open Sora团队展开了一系列卓有成效的技术探索,显著降低了模型训练成本。根据估算,市面上 10B 以上的开源视频模型,动辄需要上百万美元的单次训练成本,而 Open Sora 2.0 将该成本降低了 5-10 倍。
作为开源视频生成领域的领导者,Open-Sora 不仅继续开源了模型代码和权重,更开源了全流程训练代码,成功打造了强大的开源生态圈。
据第三方技术平台统计,Open-Sora 的学术论文引用量半年内获得近百引用,在全球开源影响力排名中稳居首位,领先所有开源的 I2V/T2V 视频生成项目,成为全球影响力最大的开源视频生成项目之一。
2.1 模型架构
Open-Sora 2.0 延续 Open-Sora 1.2 的设计思路,继续采用 3D 自编码器 和 Flow Matching 训练框架 ,并通过多桶训练机制,实现对不同视频长度和分辨率的同时训练。
在模型架构上,引入 3D 全注意力机制 ,进一步提升视频生成质量。同时,采用最新的 MMDiT 架构 ,更精准地捕捉文本信息与视频内容的关系 ,并将模型规模从 1B 扩展至 11B 。此外,借助 开源图生视频模型 FLUX 进行初始化,大幅降低训练成本,实现更高效的视频生成优化。
2.2 高效训练方法和并行方案全开源
为了追求极致的成本优化,Open-Sora 2.0 从四个方面着手削减训练开销。
首先,通过严格的数据筛选 ,确保高质量数据输入,从源头提升模型训练效率。采用多阶段、多层次的筛选机制,结合多种过滤器,有效提升视频质量,为模型提供更精准、可靠的训练数据。
其次,高分辨率训练的成本远超低分辨率,达到相同数据量时,计算开销可能高达 40 倍 。以 256px、5 秒 的视频为例,其 tokens 数量约 8 千 ,而 768px 的视频 tokens 数量接近 8 万 ,相差 10 倍 ,再加上注意力机制的平方级计算复杂度,高分辨率训练的代价极其昂贵。
因此,Open-Sora 优先将算力投入到低分辨率训练,以高效学习运动信息,在降低成本的同时确保模型能够捕捉关键的动态特征。
与此同时,Open-Sora 优先训练图生视频任务 ,以加速模型收敛。相比直接训练高分辨率视频,图生视频模型在提升分辨率时具备更快的收敛速度 ,从而进一步降低训练成本。在推理阶段,除了直接进行文本生视频(T2V) ,还可以结合开源图像模型 ,通过文本生图再生视频(T2I2V),以获得更精细的视觉效果。
最后,Open-Sora 采用高效的并行训练方案 ,结合 ColossalAI 和系统级优化,大幅提升计算资源利用率,实现更高效的视频生成训练。为了最大化训练效率,我们引入了一系列关键技术,包括:
-
高效的序列并行和 ZeroDP,优化大规模模型的分布式计算效率。
-
细粒度控制的 Gradient Checkpointing,在降低显存占用的同时保持计算效率。
-
训练自动恢复机制,确保 99% 以上的有效训练时间,减少计算资源浪费。
-
高效数据加载与内存管理,优化 I/O,防止训练阻塞,加速训练流程。
-
高效异步模型保存,减少模型存储对训练流程的干扰,提高 GPU 利用率。
-
算子优化,针对关键计算模块进行深度优化,加速训练过程。
这些优化措施协同作用,使 Open-Sora 2.0 在高性能与低成本之间取得最佳平衡,大大降低了高质量视频生成模型的训练。
2.3 高压缩比 AE 带来更高速度
在训练完成后,Open-Sora 面向未来,进一步探索高压缩比视频自编码器 的应用,以大幅降低推理成本。目前,大多数视频模型仍采用 4×8×8 的自编码器,导致 单卡生成 768px、5 秒视频耗时近 30 分钟 。为解决这一瓶颈,Open-Sora 训练了一款高压缩比(4×32×32)的视频自编码器,将推理时间缩短至单卡 3 分钟以内 ,推理速度提升 10 倍。
要实现高压缩比编码器,需要解决两个核心挑战:如何训练高压缩但仍具备优秀重建效果的自编码器 ,以及如何利用该编码器训练视频生成模型。
针对前者,Open-Sora 团队在视频升降采样模块中引入残差连接 ,成功训练出一款重建质量媲美当前开源 SoTA 视频压缩模型 ,且具备更高压缩比的 VAE,自此奠定了高效推理的基础。
高压缩自编码器在训练视频生成模型时面临更高的数据需求和收敛难度 ,通常需要更多训练数据 才能达到理想效果。为解决这一问题,Open-Sora 提出了基于蒸馏的优化策略 ,以提升 AE(自编码器)特征空间的表达能力 ,并利用已经训练好的高质量模型作为初始化,减少训练所需的数据量和时间。
此外,Open-Sora 还重点训练图生视频任务 ,利用图像特征引导视频生成,进一步提升高压缩自编码器的收敛速度,使其在更短时间内达到一定生成效果。
Open-Sora 认为,高压缩比视频自编码器将成为未来降低视频生成成本的关键方向 。目前的初步实验结果已展现出显著的推理加速效果,希望能进一步激发社区对这一技术的关注与探索,共同推动高效、低成本的视频生成发展。
3. 加入 Open-Sora 2.0,共同推动 AI 视频革命
🎬 今天,Open-Sora 2.0 正式开源!
-
🔗 GitHub 开源仓库 :github.com/hpcaitech/Open-Sora
-
📄 技术报告:github.com/hpcaitech/Open-Sora-Demo/blob/main/paper/Open_Sora_2_tech_report.pdf
💡 欢迎加入 Open-Sora 社区,探索 AI 视频的未来!
Open-Sora 2.0,未来已来 。让我们用更少的资源、更开放的生态,创造属于下一代的数字影像世界! 🎬✨

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
3月8日妇女节的那场直播,我们都聊了些啥?
3月8日,开源中国 OSCHINA 的直播节目《数智漫谈》邀请了 5 名技术领域的职业女性,探讨妇女权益与职业发展相关话题。 聊完之后发现,很多我们设想的一些性别对立和矛盾,落在具体的人,具体事的时候,可能并不存在;我们都一致认可技术不分性别,当人与人之间建立起这种基于能力认可的关系时,工作进展会很顺畅;温柔、细心、审美好,这些可能是某一个人的特质,但绝对不是女性这一个群体的特质。本文摘取部分观点。 (微信扫码,查看直播回放) 01 关于刻板印象 女性更细心、审美更好这类说法,100%是刻板印象!这些在我身上都不成立。包括审美能力——爱美这件事是否与性别相关,我觉得和环境关系很大,尤其是周围朋友的影响。如果女性相对更关注审美,可能是因为从小更容易接触到与美相关的信息,但这不代表天生如此。比如我过去长期在男性主导的环境工作,大家很少聊审美话题,外界也缺乏审美信息输入,我的审美素养自然难提升。如果说女性审美相对更好一些,可能是因为她们从小更容易接触与美相关的信息,这方面得到了培养。职业选择应基于兴趣和能力,而非性别标签。——缪翎,PingCAP 首席专家 团队合作时,必须有一个往前冲的和一...
- 下一篇
如何高效地为「推理模型」编写最佳提示词?万字长文介绍
编者按: 如何有效地为推理模型编写最佳提示词?对于 OpenAI 推出 O1 和 O3-mini 等这些专为深度推理而设计的模型,传统的提示词工程技巧是否仍然适用? 我们今天为大家带来的这篇文章,作者的观点是:推理模型与传统大语言模型在提示词处理方式上有本质不同,需要采用更简洁直接的提示词策略来充分发挥其优势。文章首先深入剖析了 OpenAI 的 O1/O3-mini 与 GPT-4o 三大模型的核心差异: O1/O3-mini 内置深度推理链,无需显式引导即可自主分析,而 GPT-4o 依赖提示词驱动分步思考; O1 系列在专业领域(如数学、法律)展现更强的多步骤推理与自检能力,而 GPT-4o 更擅长快速响应通用任务; O1/O3-mini 需避免冗余指令,强调简洁提问与结构化输出,而 GPT-4o 需主动引导推理过程。 然后进一步提出优化推理模型性能的实践方法,例如精简提示词、设定角色与格式指令,并以法律案例分析为例,演示如何通过精准设计提示词生成严谨的法律论证。 作者 | Agustinmantaras 编译 |岳扬 OpenAI 的 O1 和 O3-mini 是两款先进的推理...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- SpringBoot2整合MyBatis,连接MySql数据库做增删改查操作
- Jdk安装(Linux,MacOS,Windows),包含三大操作系统的最全安装
- SpringBoot2全家桶,快速入门学习开发网站教程
- Eclipse初始化配置,告别卡顿、闪退、编译时间过长
- CentOS7设置SWAP分区,小内存服务器的救世主
- Hadoop3单机部署,实现最简伪集群
- MySQL8.0.19开启GTID主从同步CentOS8
- CentOS7,CentOS8安装Elasticsearch6.8.6
- CentOS8编译安装MySQL8.0.19
- Docker快速安装Oracle11G,搭建oracle11g学习环境