腾讯混元发布并开源图生视频模型,支持生成背景音效及 2K 视频
3月6日,腾讯混元宣布推出图生视频模型并对外开源,同时上线对口型与动作驱动等玩法,并支持生成背景音效及2K高质量视频。 开源内容包含权重、推理代码和LoRA训练代码,支持开发者基于混元训练专属LoRA等衍生模型。 目前在Github、HuggingFace等主流开发者社区均可下载体验。 Github: https://github.com/Tencent/HunyuanVideo-I2V Huggingface:https://huggingface.co/tencent/HunyuanVideo-I2V 据介绍,基于图生视频的能力,用户只需上传一张图片,并简短描述希望画面如何运动、镜头如何调度等,混元即可按要求让图片动起来,变成5秒的短视频,还能自动配上背景音效。 此外,上传一张人物图片,并输入希望“对口型”的文字或音频,图片中的人物即可“说话”或“唱歌”;使用“动作驱动”能力,还能一键生成同款跳舞视频。 目前用户通过混元AI视频官网即可体验(https://video.hunyuan.tencent.com/),企业和开发者可在腾讯云申请使用API接口使用。 腾讯混元表示,此次开源...
