RWKV Runner 超详细 API 指南
大家好,今天我们带来 RWKV Runner API 的详细用法。
本文会列出 RWKV Runner 每一个 API 的作用、请求主体的参考结构、必需字段和可选字段等内容,帮助大家更轻松、更灵活地调用 RWKV Runner 的 API 。
如果你还不了解 RWKV Runner ,我们建议你从 RWKV 中文官网- RWKV Runner 简介开始阅读。
接下来,让我们先从一些 RWKV 模型的基础知识开始吧!
RWKV 模型解码参数(预备知识)
你可能注意到了,很多 RWKV 部署/体验工具都支持调整 Temperature
、Top_P
、Presence penalty
和 Frequency Penalty
等 RWKV 模型解码参数。
这些主要解码参数对应的效果如下:
参数 | 效果 |
---|---|
Temperature | 采样温度,就像给模型喝酒,数值越大随机性越强,更具创造力,数值越小则越保守稳定。 |
Top_P | 就像给模型喂镇静剂,优先考虑前 n% 概率质量的结果。如设置成 0.1 则考虑前 10% , 生成内容质量更高但更保守。如设置成 1 ,则考虑所有质量结果,内容质量降低但更多样。 |
Presence penalty | 存在惩罚,根据“新 token 在至今的文本中是否出现过”来对其进行惩罚。值越大,模型涉及新话题的可能性越高。 |
Frequency Penalty | 频率惩罚,根据“新 token 在至今的文本中出现的频率/次数”来进行惩罚。值越大,模型重复相同短语/句子的可能性越低。 |
max_tokens | 模型生成文本时的最大 token 数。如果你在对外提供服务,建议限制单个请求的 max_tokens,太高可能导致极端情况下单个响应消耗大量的服务器资源。 |
续写小说和对话这一类需要创造性的任务,需要高 Temperature
+ 低 Top_P
的参数组合,可以尝试以下四种参数搭配:
Temperature
1.2 ,Top_P
0.5Temperature
1.4 ,Top_P
0.4Temperature
1.4 ,Top_P
0.3Temperature
2 ,Top_P
0.2
举个例子,续写小说可以尝试将 Temperature
设为 2 ( Temperature
增加会提高文采,但逻辑会下降),然后将 Top_P
设为 0.1 ~ 0.2 (Top_P
越低,逻辑能力越强),这样生成的小说内容逻辑和文采都很好。
完成相对机械的任务,例如材料问答、文章摘要等,则可将参数设为:
Temperature
1 ,Top_P
0.2Temperature
1 ,Top_P
0.1Temperature
1 ,Top_P
0
举个例子,如果你正在执行像关键词提取之类的机械任务,不需要模型进行任何开放性思考,则可以将 Temperature
设为 1 ,Top_P
、Presence penalty
、Frequency Penalty
都设为 0 。
现在,你应该对 RWKV 模型最主要的四个解码参数有所了解了,现在我们开始了解 RWKV Runner 的所有 API 具体用法!
Completions (续写) API
RWKV Runner 的续写 API 分为聊天续写和基础续写两种,其中聊天续写 API 拥有“role - 角色”参数,因此支持角色扮演等进阶任务。
/chat/completions
v1/chat/completions
和 /chat/completions
是相同的 API,用于 RWKV 的聊天续写模式,也就是和模型对话。
必需参数
- "messages": 消息对象列表,包含两个元素: * "content": 提供给模型的 prompt ,即对话内容 * "role": 扮演的角色名称,可以从"user", "assistant" 和 "system"选一个。
因此,聊天 API 的基础请求主体如下:
{ "messages": [ { "content": "hello", "role": "user" } ] }
注意,上面是一个最简单的聊天续写请求,如果你希望控制模型的创作风格、回答的最大字数等细节,请按需添加以下参数:
可选参数
下面列出了聊天续写 API 的所有可选参数:
参数名称 | 类型 | 参数解释 |
---|---|---|
max_tokens | integer | 生成文本的最大token数,最大 102400,对外部署时建议限制文本长度。 |
temperature | number | 解码参数之一,具体效果参考前文,范围[0, 3] |
top_p | number | 解码参数之一,具体效果参考前文,范围 [0, 1] |
presence_penalty | number | 解码参数之一,具体效果参考前文,范围 [-2, 2] |
frequency_penalty | number | 解码参数之一,具体效果参考前文,范围 [-2, 2] |
penalty_decay | number | 频率的衰减参数,范围 [0.99, 0.999],不建议修改 |
top_k | integer | 模型生成内容的候选词数量,范围 [0, 25] 不建议修改 |
global_penalty | boolean | 是否应用全局惩罚,不建议修改 |
state | string | 指定使用的 RWKV state 文件路径 |
model | string | null | 指定使用的 RWKV 模型路径 |
stream | boolean | 是否以流模式生成文本。 |
stop | string | array | null | 指定生成文本时的停止词。 |
user_name | string | null | 聊天模式的用户名,不建议修改 |
assistant_name | string | null | 聊天模式的助手名,不建议修改 |
system_name | string | null | 聊天模式的系统名,不建议修改 |
/completions
/completions
和 v1/completions
是相同的续写 API,对应的是 RWKV Runner 的基础续写模式,也就是让模型接着你的 prompt 继续生成内容。
必需参数
- "prompt": 你提供给模型的续写 prompt 。
因此,聊天 API 的基础请求主体如下:
{ "prompt": "那一天,人们又想起来被暴雨支配的恐惧..." }
可选参数
下面列出了续写 API 的所有可选参数:
参数名称 | 类型 | 参数解释 |
---|---|---|
max_tokens | integer | 生成文本的最大token数,最大 102400,对外部署时建议限制文本长度。 |
temperature | number | 解码参数之一,具体效果参考前文,范围[0, 3] |
top_p | number | 解码参数之一,具体效果参考前文,范围 [0, 1] |
presence_penalty | number | 解码参数之一,具体效果参考前文,范围 [-2, 2] |
frequency_penalty | number | 解码参数之一,具体效果参考前文,范围 [-2, 2] |
penalty_decay | number | 频率的衰减参数,范围 [0.99, 0.999],不建议修改 |
top_k | integer | 模型生成内容的候选词数量,范围 [0, 25] 不建议修改 |
global_penalty | boolean | 是否应用全局惩罚,不建议修改 |
state | string | 指定使用的 RWKV state 文件路径 |
model | string | null | 指定使用的 RWKV 模型路径 |
stream | boolean | 是否以流模式生成文本。 |
stop | string | array | null | 指定生成文本时的停止词。 |
RWKV Runner 默认使用
\n\nUser
作为停止词,如果你希望修改默认的模型停止词,则可以指定stop
字段(一个字符串或者是一个字符串列表)。可参考以下停止词:
["\n\nUser", "\n\nQuestion", "\n\nQ", "\n\nHuman", "\n\nBob", "\n\nAssistant", "\n\nAnswer", "\n\nA", "\n\nBot", "\n\nAlice"]
Embeddings API
RWKV Runner 的 Embeddings API 还停留在 RWKV-4,未针对 RWKV5/6 架构更新,因此不建议使用。
Configs(配置类) API
/switch-model
这个 API 用于切换并重新部署 RWKV 模型。
必需字段
- "model":用于切换 RWKV 模型,填 RWKV 模型文件的路径
- "strategy":模型部署的方法,如"cuda fp16" 。
可选字段
参数名称 | 类型 | 参数解释 |
---|---|---|
model | string | null | 指定使用的 RWKV 模型路径 |
strategy | string | 驱动 RWKV 模型的方法 |
tokenizer | string | nulls | 指定使用的 RWKV 分词器路径,不建议修改 |
customCuda | boolean | 是否启用自定义 cuda 算子,如果是比较新的 Nvidia 显卡,建议改成 true |
deploy | boolean | 是否启用部署模式,启用部署模式会屏蔽掉会屏蔽掉/switch-model 、 /exit 和其他有风险的 API |
/update-config
/update-config
API 用于用于更新模型默认配置,或者说缺省参数,包括解码参数、是否挂载 state 文件等。
当调用续写 API ( /chat/completions
或者 /completions
) 且没有传递参数时,将使用 /update-config
设置的默认参数。
可选字段
参数名称 | 类型 | 参数解释 |
---|---|---|
max_tokens | integer | 生成文本的最大token数,最大 102400,对外部署时建议限制文本长度。 |
temperature | number | 解码参数之一,具体效果参考前文,范围[0, 3] |
top_p | number | 解码参数之一,具体效果参考前文,范围 [0, 1] |
presence_penalty | number | 解码参数之一,具体效果参考前文,范围 [-2, 2] |
frequency_penalty | number | 解码参数之一,具体效果参考前文,范围 [-2, 2] |
penalty_decay | number | 频率的衰减参数,范围 [0.99, 0.999],不建议修改 |
top_k | integer | 模型生成内容的候选词数量,范围 [0, 25] 不建议修改 |
global_penalty | boolean | 是否应用全局惩罚,不建议修改 |
state | string | 指定使用的 RWKV state 文件路径 |
参考的请求主体:
{ "frequency_penalty": 1, "global_penalty": false, "max_tokens": 1000, "penalty_decay": 0.996, "presence_penalty": 0, "state": "models/", "temperature": 1, "top_p": 0.3 }
/status
这个 API 用于获取 RWKV Runner 及运行设备的状态,比如运行状态、进程 ID 、GPU 型号。 参考的
**响应结构: **
{ "status": 3, # 模型工作的状态码 "pid": 34776, # 模型的进程ID(Process ID) "device_name": "NVIDIA GeForce RTX 3080 Laptop GPU" #模型工作的 GPU 型号 }
RWKV Runner 状态码:0 是模型离线,2 是模型正在载入,3 是模型正常工作中
MIDI 相关 API
RWKV Runner 的 MIDI API 用于处理 midi 乐谱文件(.mid
),比如文本转 MIDI 、MIDI 转 WAV 音频文件等。
/text-to-midi
这个 API 用于将 MIDI 格式的文本(text)转换为 MIDI 乐谱文件(.mid
)。
必需字段
- "text": 提供给模型的 MIDI 乐谱文本,即 MIDI 乐谱内容。
参考的请求主体:
{ "text": "p:24:a p:2a:a p:31:a p:39:a p:3b:a p:45:a b:26:a g:3e:a g:3e:a g:42:a g:42:a g:45:a g:45:a pi:3e:a pi:42:a pi:45:a t14 p:24:0 p:2a:0 p:31:0 p:39:0 p:3b:0 p:45:0 t2 p:2a:a p:3b:a p:45:a t14 p:2a:0 p:3b:0 p:45:0 b:26:0 g:3e:0" }
/midi-to-text
这个 API 用于将 MIDI 乐谱文件(.mid
) 转换为 MIDI 格式的文本(text)。
必需字段
- file_data:提供给模型的 MIDI 乐谱文件,也可以是 string($binary) - 字符串格式的二进制数据。
参考的响应结构:
{ "text": " p:24:a p:2a:a " }
/txt-to-midi
这个 API 用于将 MIDI 内容的文本文件(.txt
)转换为 MIDI 乐谱文件(.mid
)。
必需字段
- "midi/sample.mid": 转化完毕的 MIDI 文件保存路径
- "midi/sample.txt":需要转化的 TXT 文件路径
参考的请求主体:
{ "midi_path": "midi/sample.mid", "txt_path": "midi/sample.txt" }
/midi-to-wav
这个 API 用于将 MIDI 乐谱文件(.mid
) 转换为 WAV 音频文件(.wav
)。
这个 API 与 RWKV 模型无关,且需要先安装 fluidsynth 。
必需字段
- "midi_path": 需要转换的 MIDI 文件路径
- "wav_path": WAV 文件保存路径
可选字段
- "sound_font_path":影响 MIDI 音色和合成参数的 SoundFont 文件路径
参考的请求主体
{ "midi_path": "midi/sample.mid", "sound_font_path": "assets/default_sound_font.sf2", "wav_path": "midi/sample.wav" }
/text-to-wav
这个 API 用于将 MIDI 乐谱文本(text)转换为 WAV 音频文件(.wav
)。
必需字段
- "text": 提供给模型的 MIDI 乐谱文本,即 MIDI 乐谱内容。
- "wav_name": 转化后返回的 WAV 文件名称
可选字段
- sound_font_path:影响 MIDI 音色和合成参数的 SoundFont 文件路径
参考的请求主体
{ "sound_font_path":"assets/default_sound_font.sf2", "text":"p:24:a p:2a:a p:31:a", "wav_name":"sample" }
文件处理 API
文件处理 API 目前只有 /file-to-text
,用于解析 PDF 和 txt 文件。
API 查询参数
- file_name(必需参数):指定需要解析的文件名称,如 ?file_name=233.PDF 。这里必须正确填写你上传的文件类型后缀(
.txt
或者.pdf
),因为 PDF 文件需要特殊处理。 - file_encoding:指定解析的文件编码,如 &file_encoding=utf-8
必需字段
- file_data:类型 *string($binary),上传一个 txt 或者 PDF 的二进制数据
MISC API
这部分 API 主要用于兼容 OpenAI API ,以便开发者能将 RWKV 模型用在 ChatGPT 客户端中。
State Cache 相关 API
State 缓存相关 API 没有请求主体,下面是几个 State API 的作用:
- /disable-state-cache:禁用 state 缓存
- /enable-state-cache:启用 state 缓存
- /reset-state-cache:重置 state 设置
有关 State 文件是什么,以及它的详细用法,请参考RWKV State 介绍文章。
常见疑问
问题 1:我要去哪里查看 RWKV Runner 的 API 文档?
本地启动 RWKV Runner 并启动一个模型,你将可以在 http://localhost:8000/docs 中查看 RWKV Runner 的 API 文档。
问题 2: deploy 模式下,哪些 API 会因“危险权限”而被屏蔽?
在部署模式下,一切会影响服务器系统和硬件的 API 都会被屏蔽掉,这是为了安全起见。
比如:/switch-model
、 /exit
以及 State Cache 相关的 API 都会被屏蔽。
问题 3:为什么我本地部署 RWKV Runner 默认开启了 deploy 模式?
在 RWKV Runner 中,如果你勾选了 “启用 WebUI“ ,那么默认开启了 deploy 模式。
你可以通过关闭此选项,来解除部署模式,进而使用一些危险权限的 API 。
问题 4 :为什么 RWKV Runner 的 embaddings API 用不了?
截至目前(2023-07-05,RWKV Runner V 1.8.4) 不建议使用 RWKV Runner 文档中提供的 embaddings API 。
文档中的 embaddings API 目前停留在 RWKV-4,未针对 RWKV5/6 架构进行重构,因此会报错。
更多 RWKV Runner 及 API 使用问题,欢迎加入 QQ 群交流:
- RWKV Runner 交流群:818930736
- RWKV 模型交流群:224287095

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
硅基流动完成近亿元融资:加速生成式AI技术普惠进程
硅基流动(SiliconFlow)近日完成总金额近亿元人民币的天使+轮融资。本轮融资由某知名产业方领投,跟投方包括智谱AI、360 和水木清华校友基金等知名企业及机构,老股东耀途资本继续超额跟进,华兴资本担任独家财务顾问。 本轮融资不仅是对硅基流动技术实力和市场前景的高度认可,也将为其未来发展提供强劲动力。创始人兼 CEO 袁进辉表示:“非常感谢各位投资方对硅基流动的信任和支持。这次融资将帮助我们进一步加快产品创新,为开发者提供触手可及的 AI 云服务,促进 AI 应用层的繁荣,推动 AGI 技术普惠化。” AI Infra:潜力巨大的“铲子”生意 近两年,生成式 AI 和大模型技术爆发,使得 AI 基础设施(AI Infra)成为市场的关键一环。 根据 Gartner 的报告,2023 年专用于 AI 工作负载的芯片创造近 534 亿美元的收入,占据了AGI产业中的大部分价值。而未来随着模型提升、架构改进和定制芯片等降本提效措施的实施,AI 应用的盈利能力将逐步提高,AI 应用层的价值将逐步显现,在这一进程中,离开发者最近的 AI Infra 生态位具备显著优势。 AI Infra天...
- 下一篇
万字长文解析AI Agent技术原理和应用
本文分享自华为云社区《AI Agent框架(LLM Agent):LLM驱动的智能体如何引领行业变革,应用探索与未来展望》,作者: 汀丶。 1. AI Agent(LLM Agent)介绍 1.1. 术语 Agent:“代理” 通常是指有意行动的表现。在哲学领域,Agent 可以是人、动物,甚至是具有自主性的概念或实体。 AI Agent:AI Agent(人工智能代理)是一种能够感知环境、进行决策和执行动作的智能实体。 RPA:RPA(Robotic Process Automation) 即机器人流程自动化,是一种软件自动化技术。RPA 通过模仿人类在电脑上的手动操作,如打开网站、点击鼠标、键盘输入等,实现业务流程的自动化。RPA 系统可以自动处理大量重复的、基于规则的工作流程任务,例如在银行中,纸质文件输入、文件票据验证、从电子邮件和文件中提取数据、跨系统数据迁移、自动化 IT 应用操作等。RPA 的主要优势包括减少劳动成本、提高生产力、出错率低、可监控的操作和开发周期短。它可以在金融、办公自动化、IT 流程自动化等多个领域发挥重要作用。 Copilot:即飞机的 “副驾驶”,这...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- Linux系统CentOS6、CentOS7手动修改IP地址
- Docker使用Oracle官方镜像安装(12C,18C,19C)
- Docker安装Oracle12C,快速搭建Oracle学习环境
- CentOS7安装Docker,走上虚拟化容器引擎之路
- Docker快速安装Oracle11G,搭建oracle11g学习环境
- CentOS7编译安装Cmake3.16.3,解决mysql等软件编译问题
- CentOS关闭SELinux安全模块
- CentOS7编译安装Gcc9.2.0,解决mysql等软件编译问题
- Hadoop3单机部署,实现最简伪集群
- CentOS6,7,8上安装Nginx,支持https2.0的开启