您现在的位置是:首页 > 文章详情

谷歌与 Hugging Face 合作,帮助开发人员训练 AI 模型

日期:2024-01-27点击:71

据 TheVerge 报道,Google Cloud 与AI 模型托管平台 Hugging Face 建立了新的合作伙伴关系,让开发人员无需支付 Google Cloud 订阅费用即可构建、训练和部署 AI 模型。

现在,使用 Hugging Face 平台的外部开发人员将能够“经济高效”地访问谷歌的张量处理单元 (TPU) 和GPU 超级计算机,其中包括数千台 Nvidia 的热门且出口受限的 H100。

Hugging Face 是流行的 AI 模型托管平台,存储了海量开源基础模型,例如 Meta 的 Llama 2 和 Stability AI 的 Stable Diffusion。它还拥有许多用于模型训练的数据库。该平台上托管了超过 350,000 个模型,供开发人员使用或将自己的模型上传到 Hugging Face,就像程序员将代码放在 GitHub 上一样。Hugging Face 的估值为 45 亿美元,去年Google、亚马逊、Nvidia 等公司帮助筹集了 2.35 亿美元。

谷歌表示,Hugging Face 用户可以在“2024 年上半年”开始使用人工智能应用程序构建平台 Vertex AI 和 Kubernetes 引擎,帮助训练和微调模型。

谷歌在一份声明中表示,与 Hugging Face 的合作“进一步增强了谷歌云对开源人工智能生态系统开发的支持”。谷歌的一些模型位于 Hugging Face 上,但其标志性大型语言模型(如 Gemini,现在为聊天机器人 Bard 提供支持)和文本到图像模型 Imagen 不在平台上,被认为是更闭源的模型。

原文链接:https://www.oschina.net/news/276735
关注公众号

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。

持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。

转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。

文章评论

共有0条评论来说两句吧...

文章二维码

扫描即可查看该文章

点击排行

推荐阅读

最新文章