腾讯混元文生图大模型开源训练代码,发布LoRA与ControlNet插件
6月21日,腾讯混元文生图大模型(以下简称为混元 DiT 模型)宣布全面开源训练代码,同时对外开源混元 DiT LoRA 小规模数据集训练方案与可控制插件 ControlNet。 这意味着,全球的企业与个人开发者、创作者们,都可以基于混元 DiT 训练代码进行精调,创造更具个性化的专属模型,进行更大自由度的创作;或基于混元 DiT 的代码进行修改和优化,基于此构建自身应用,推动技术的快速迭代和创新。 作为中文原生模型,用户在通过混元 DiT 的训练代码进行精调时,可以直接使用中文的数据与标签,无需再将数据翻译成英文。 此前,腾讯混元文生图大模型宣布全面升级并对外开源,已在 Hugging Face 平台及 Github 上发布,可供企业与个人开发者免费商用。这是业内首个中文原生的 DiT 架构文生图开源模型,支持中英文双语输入及理解。模型开源仅一个月,Github Star 数达到2.4k,位于开源社区热门 DiT 模型前列。 混元DiT Github项目页面 在开源训练代码的同时, LoRA 小规模数据集训练方案与可控制插件 ControlNet 的发布也让混元 DiT 模型的开源生...







