您现在的位置是:首页 > 文章详情

Opera 支持本地 LLM,本地下载大模型即可自建服务

日期:2024-04-15点击:191

Opera 近日宣布,其将在开发者频道的 Opera One 浏览器中添加对 150 个本地 LLM 模型的实验性支持。支持模型包括:

  • Meta 的 Llama

  • Vicuna

  • Google 的 Gemma

  • Mistral AI 的 Mixtral

使用本地大型语言模型意味着用户的数据保存在本地设备上,无需将信息发送到服务器。Opera 正在 Opera One 的开发者频道中测试这套新的本地 LLM。本地 LLM 通常需要每个模型 2-10 GB 的本地存储空间,然后将使用本地 LLM 代替 Opera 的 AI Aria。

 

原文链接:https://www.oschina.net/news/287780/opera-local-llms
关注公众号

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。

持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。

转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。

文章评论

共有0条评论来说两句吧...

文章二维码

扫描即可查看该文章

点击排行

推荐阅读

最新文章