【奶奶看了都会】Meta开源大模型LLama2部署使用教程,附模型对话效果
1.写在前面
就在7月19日,MetaAI开源了LLama2大模型,Meta 首席科学家、图灵奖获得者 Yann LeCun在推特上表示Meta 此举可能将改变大模型行业的竞争格局。一夜之间,大模型格局再次发生巨变。
推文上列了Llama2的网站和论文,小卷给大家贴一下,感兴趣的友友可以自己看看
论文:https://ai.meta.com/research/publications/llama-2-open-foundation-and-fine-tuned-chat-models/
Github页:https://github.com/facebookresearch/llama
2.LLama2是什么
Llama官网的说明是Llama2下一代开源大语言模型,可免费用于学术研究或商业用途。
目前模型有7B、13B、70B三种规格,预训练阶段使用了2万亿Token,SFT阶段使用了超过10w数据,人类偏好数据超过100w。
另外大家最关心的Llama2和ChatGPT模型的效果对比,在论文里也有提到,
对比GPT-4,Llama2评估结果更优,绿色部分表示Llama2优于GPT4的比例
虽然中文的占比只有0.13%,但后续会有一大推中文扩充词表预训练&领域数据微调的模型被国人放出。这不才开源几天而已,GIthub上就已经有基于Llama2的中文大模型了。。。
3.部署使用
关于LLama2的技术细节就不再多说了,大家可以自行查阅。接下来就教大家怎么自己玩一玩LLama2对话大模型。
大部分人都是没有本地GPU算力的,我们选择在云服务器上部署使用。我这里用的是揽睿星舟平台的GPU服务器(便宜好用,3090只要1.9/小时,且已在平台上预设了模型文件,无需再次下载)
新用户注册还送2小时的3090算力,记得注册时码写4104
3.1新建空间
登录:https://www.lanrui-ai.com/console/workspace
创建一个工作空间,运行环境镜像挂载公有镜像:pytorch: official-torch2.0-cu1117。选择预训练模型:llama-2-7b 和 llama-2-7b-chat。然后创建实例
3.2下载代码
实例创建完成后,以jupyterLab方式登录服务器,新建一个Terminal,然后进入到data
目录下
cd data
下载代码
执行下面的命令从GIthub上拉取llama的代码
sudo git clone https://github.com/facebookresearch/llama.git
下载完成后,会多一个llama
目录
3.3运行脚本
进入llama
目录
cd llama
安装依赖
sudo pip install -e .
测试llama-2-7b模型的文本补全能力
命令行执行:
torchrun --nproc_per_node 1 example_text_completion.py \ --ckpt_dir ../../imported_models/llama-2-7b/Llama-2-7b \ --tokenizer_path ../../imported_models/llama-2-7b/Llama-2-7b/tokenizer.model \ --max_seq_len 128 --max_batch_size 4
文本补齐效果示例:
上面的例子是在python脚本里写了一段话,让模型补全后面的内容。
测试llama-2-7b模型的对话能力
修改llama目录权限为777,再修改example_chat_completion.py
文件中的ckpt_dir
和tokenizer_path
路径为你的llama-2-7b-chat
模型的绝对路径
// 1.修改目录权限为可写入 chmod 777 llama //2.修改example_chat_completion.py文件里的参数 ckpt_dir: str = "/home/user/imported_models/llama-2-7b-chat/Llama-2-7b-chat/", tokenizer_path: str = "/home/user/imported_models/llama-2-7b-chat/Llama-2-7b-chat/tokenizer.model" //3.运行对话脚本 torchrun --nproc_per_node 1 example_chat_completion.py
这里我修改提示语让它用中文回答,执行对话脚本后,对话效果如下:
torchrun --nproc_per_node 1 example_chat_completion.py
说明:目前官方还没有提供UI界面或是API脚本代码给咱使用,还没法进行对话交互,如果有懂python的友友,可以自行加个UI界面,欢迎大家留言讨论。
4.下载更多模型
llama代码里有download.sh
脚本可以下载其他模型,但是下载需要的URL需要自行获取。下载步骤如下:
1.Meta AI网站获取下载URL
MetaAI下载模型页地址:https://ai.meta.com/llama/#download-the-model
点击Download后,要求填入一些信息和邮箱,提交后会给你的邮箱发一个下载URL,注意这个是你自己的下载链接哦~
下图是小卷邮箱里收到的模型下载链接
2.下载模型
服务器上命令行执行
sudo bash download.sh
接着按照提示粘贴下载URL和选择要下载的模型
总结
对于国内大模型使用来说,随着开源可商用的模型越来越多,国内大模型肯定会再次迎来发展机遇。
文章原创不易,欢迎多多转发,点赞,关注

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
IBM 安全报告:2023 年数据泄露成本再创新高
IBM Security 最新发布的一份2023 年数据泄露成本报告显示,2023 年全球数据泄露的平均成本达到 445 万美元,创下该报告的历史新高,相较过去3年增长了15%。其中检测和升级成本在同一时期跃升了 42%,是数据泄露成本中最高的部分。“这表明数据泄露调查正在向更复杂的方向转变”。 2023 年数据泄露成本报告基于对2022 年 3 月至 2023 年 3 月期间全球 553 个组织所经历的真实数据泄露的深入分析。提供了一些威胁见解,以及升级网络安全和最大程度减少损失的实用建议。 企业在计划如何处理日益增加的成本和频率的数据泄露方面存在分歧。研究发现,虽然 95% 的研究组织经历过不止一次的数据泄露事件,但被泄露的组织更有可能将事件成本转嫁给消费者 (57%),而不是增加安全投资 (51%)。 报告中的一些主要发现包括: 人工智能和自动化对研究组织的违规识别和遏制速度影响最大。与未部署这些技术的组织相比,广泛使用人工智能和自动化的组织的数据泄露生命周期缩短了 108 天(分别为 214 天和 322 天),且平均节省 176 万美元的成本。 一些组织认为,在勒索软件攻击...
- 下一篇
MySQL 的解析器以及 MySQL8.0 做出的改进 | StoneDB技术分享 #2
设计:小艾 审核:丁奇 编辑:宇亭 作者:柳湛宇(花名:乌淄) 浙江大学-软件工程-在读硕士、StoneDB 内核研发实习生 一、MySQL 的解析器 MySQL 所使用的解析器(即 Lexer 和 Parser 的组合)是嵌入了 C/C++语言的 yacc/lex 组合,在 linux/GNU 体系上,这一组合的实现是 GNU Bison/Flex,即 Flex 负责生成 tokens, Bison 负责语法解析。 对于 Bison,请参阅[1] Bison 本是一个自底向上(Bottom-Up)的解析器,但是由于历史原因,MySQL 语法编写的规则是以自顶向下(Top-Down)的,这将会产生一些问题,我们首先简要介绍这两种解析模式。 二、自底向上与自顶向下解析模式 更多详细讲解,请参阅[2] 当我们在谈论自底向上和自顶向下两种解析模式时,局面是我们手上已经有了编写完成的语法规则和将输入语句词法解析完成后的 token 数组,而之后的任务总体上就是构建语法解析树。 以下 yacc 语法约束和匹配序列(「例 1」)用于展示两种解析模式的不同。 exp1:'a''b'|'b''c';e...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- CentOS8安装MyCat,轻松搞定数据库的读写分离、垂直分库、水平分库
- Linux系统CentOS6、CentOS7手动修改IP地址
- Eclipse初始化配置,告别卡顿、闪退、编译时间过长
- CentOS7编译安装Cmake3.16.3,解决mysql等软件编译问题
- SpringBoot2全家桶,快速入门学习开发网站教程
- MySQL8.0.19开启GTID主从同步CentOS8
- Docker使用Oracle官方镜像安装(12C,18C,19C)
- Docker安装Oracle12C,快速搭建Oracle学习环境
- CentOS7安装Docker,走上虚拟化容器引擎之路
- Docker快速安装Oracle11G,搭建oracle11g学习环境