本地环境运行Llama 3大型模型:可行性与实践指南
简介:
Llama 是由 Meta(前身为 Facebook)的人工智能研究团队开发并开源的大型语言模型(LLM),它对商业用途开放,对整个人工智能领域产生了深远的影响。继之前发布的、支持4096个上下文的Llama 2模型之后,Meta 进一步推出了性能更卓越的 Meta Llama 3系列语言模型,包括一个8B(80亿参数)模型和一个70B(700亿参数)模型。Llama 3 70B 的性能媲美 Gemini 1.5 Pro,全面超越 Claude 大杯,而 400B+ 的模型则有望与 Claude 超大杯和新版 GPT-4 Turbo 掰手腕
在各种测试基准中,Llama 3系列模型展现了其卓越的性能,它们在实用性和安全性评估方面与市场上其他流行的闭源模型相媲美,甚至在某些方面有所超越。Meta Llama 3系列的发布,不仅巩固了其在大型语言模型领域的竞争地位,而且为研究人员、开发者和企业提供了强大的工具,以推动语言理解和生成技术的进一步发展。
项目地址:
https://github.com/meta-llama/llama3
llama2和llama3的差异
llama3和GPT4的差异
指标 | Llama 3 | GPT-4 |
---|---|---|
模型规模 | 70B、400B+ | 100B、175B、500B |
参数类型 | Transformer | Transformer |
训练目标 | Masked Language Modeling、Perplexity | Masked Language Modeling、Perplexity |
训练数据 | Books、WebText | Books、WebText |
性能 | SOTA(问答、文本摘要、机器翻译等) | SOTA(问答、文本摘要、机器翻译等) |
开源 | 是 | 否 |
Llama 3 的亮点
-
面向所有人开放:Meta 通过开源 Llama 3 的轻量版本,让前沿的 AI 技术变得触手可及。无论是开发者、研究人员还是对 AI 技术好奇的小伙伴,都可以自由地探索、创造和实验。 Llama 3 提供了易于使用的 API,方便研究人员和开发者使用。
-
模型规模大:Llama 3 400B+ 模型的参数规模达到了 4000 亿,属于大型语言模型。
-
即将融入各种应用: Llama 3 目前已经赋能 Meta AI,Meta AI体验地址:https://www.meta.ai/
在 Windows 上使用 Ollama,运行Llama3模型
访问https://ollama.com/download/windows页面,下载OllamaSetup.exe
安装程序。
安装后,根据自身电脑配置,选择对应模型参数安装(运行 7B 至少需要 8GB 内存,运行 13B 至少需要 16GB 内存)
我这里运行的是Llama3:8b,可以看出,中文还是有点问题
Model | Parameters | Size | Download |
---|---|---|---|
Llama 3 | 8B | 4.7GB | ollama run llama3 |
Llama 3 | 70B | 40GB | ollama run llama3:70b |
Mistral | 7B | 4.1GB | ollama run mistral |
Dolphin Phi | 2.7B | 1.6GB | ollama run dolphin-phi |
Phi-2 | 2.7B | 1.7GB | ollama run phi |
Neural Chat | 7B | 4.1GB | ollama run neural-chat |
Starling | 7B | 4.1GB | ollama run starling-lm |
Code Llama | 7B | 3.8GB | ollama run codellama |
Llama 2 Uncensored | 7B | 3.8GB | ollama run llama2-uncensored |
Llama 2 13B | 13B | 7.3GB | ollama run llama2:13b |
Llama 2 70B | 70B | 39GB | ollama run llama2:70b |
Orca Mini | 3B | 1.9GB | ollama run orca-mini |
LLaVA | 7B | 4.5GB | ollama run llava |
Gemma | 2B | 1.4GB | ollama run gemma:2b |
Gemma | 7B | 4.8GB | ollama run gemma:7b |
Solar | 10.7B | 6.1GB | ollama run solar |
Hugging Face 使用
访问:https://huggingface.co/chat/ 然后切换Models
Replicate 使用
8B 模型:https://replicate.com/meta/meta-llama-3-8b
70B 模型:https://replicate.com/meta/meta-llama-3-70b
本文是转载文章 珩小派,版权归原作者所有。建议访问原文,转载本文请联系原作者。

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
手把手教你掌握SeaTunnel k8s运行Zeta引擎本地模式的技巧
转载自小虾米0.0 导读:随着Kubernetes的普及和发展,越来越多的企业和团队开始使用Kubernetes来管理和部署应用程序。然而,Kubernetes的默认工作方式可能不是最佳的选择,尤其是在需要更高效、更可靠的应用程序部署和管理能力时。因此,SeaTunnel提供了一种运行Zeta引擎(local-mode模式)的方法,可以让Kubernetes在本地运行Zeta引擎,实现更高效的应用程序部署和管理。在本文中,我们将探索SeaTunnel k8s运行zeta引擎(local-mode模式)的更多信息,了解如何更好地利用Zeta引擎的优势。 运行 将SeaTunnel上传至服务器上。我之前已经解压并执行过install-plugin.sh,这里为了方便,我直接用的执行过install-plugin.sh脚本之后的seatunnel做演示。 执行过install-plugin后的lib目录包含如下 tar -zxvf apache-seatunnel-2.3.3-bin.tar.gz sh apache-seatunnel-2.3.3/bin/install-plugin.sh...
- 下一篇
OurBMC大咖说|第4期:基于飞腾腾珑E2000的国产化BMC固件开发简介
栏目介绍:"OurBMC大咖说" 是由 OurBMC 社区精心策划的线上讲座栏目,邀请 BMC 相关领域大咖共同探讨 BMC 全栈技术的发展趋势、挑战和机遇。无论你是初学者还是资深从业者,"OurBMC大咖说" 都将为你提供一个宝贵的学习和交流的平台。 欢迎各位关注 "OurBMC大咖说",聆听大咖们的智慧之声,共同推动 BMC 全栈技术的进步和发展! 本期人物介绍:王亚洲,昆仑太科(北京)技术股份有限公司固件产品一部经理,昆仑BMC团队负责人。毕业于北京航空航天大学计算机学院,从事固件开发17年,参加包括国家 “核高基”、产业发展基金等多项重点工程项目开发,参与多项BMC固件行业和团体标准制定。 开源社区支持国产BMC产业快速健康发展 BMC(Baseboard Management Controller)系统作为服务器不可或缺的带外管理系统,承担着服务器远程集中运维、管理和监控的重要职责,是服务器运作的中枢神经系统。该系统主要由两大部分组成:BMC 芯片与 BMC 固件。其中,BMC 芯片作为计算力载体,承载着 BMC 固件的运行,而 BMC 固件则扮演着实现各类带外管理功能的关键...
相关文章
文章评论
共有0条评论来说两句吧...