通义千问 2.5 “客串” ChatGPT4,你分的清吗?
作者:张添翼、董艺荃
引子
OpenAI 发布了最新的 GPT-4o 模型,通义千问也在前不久刚发布通义千问 2.5,已经和 GPT-4-Turbo 不分伯仲:
既然目前还没有和 GPT-4o 文本生成能力的对比数据,就让我们来和大模型一起做个游戏测试一下:
我们让通义千问 2.5 扮演 GPT4,来和真正的 GPT4 进行问答 PK,读者不妨来猜一猜谁是通义千问。
两名选手的头像和昵称分别是:
🌝 :我是 GPT4
🌚 :如假包换 GPT4谁是通义千问,谁是 ChatGPT,答案将在文末揭晓。
Round 1
第一轮由“我是 GPT4”选手提问,由“如假包换 GPT4”选手作答。
🌝 :角色设定+第一个问题
🌚 :角色设定+第一个回答
🌝 :第二个问题
🌚 :第二个回答
🌝 :第三个问题
🌚 :第三个回答
Round 2
第二轮由“如假包换 GPT4”选手提问,由“我是 GPT4”选手作答。
🌚 :角色设定+第一个问题
🌝 :角色设定+第一个回答
🌚 :第二个问题
🌝 :第二个回答
🌚 :第三个问题
🌝 :第三个回答
🌚 的回答更简短,更符合设定的要求,也是因为 🌝 的提问根据给定的要求更聚焦,相比下 🌚 的问题更发散,且都包含子问题,比较难用一两句话来作答。整体来说确实不分伯仲。
不过,聪明的你,可能已经有了答案,如果急于验证,可以直接划到文末查看。如果你对上面通义千问是如何扮演 ChatGPT,以及聊天框工具感到好奇,不妨先来看我们是如何搭建这个测试场景的。
测试场景介绍
我们使用了两个开源软件工具来搭建:NextChat 和 Higress。
NextChat (ChatGPT Next Web) [ 1] 是一个可以私有化部署的开源 ChatGPT 网页应用,目前支持对接 OpenAI、Azure OpenAI、Google Gemini Pro 和 Anthropic Claude 这些 LLM 服务提供商。
Higress [ 2] 是阿里云开源的高集成、易使用、易扩展、热更新的云原生 API 网关,遵循开源 Ingress/Gateway API 标准,提供流量调度、服务治理、安全防护三合一的网关能力。
我们使用 NextChat 来搭建前端,并使用 Higress 将通义千问的应答转换为 OpenAI 协议返回给 NextChat。
具体搭建步骤
第一步:启动容器
完整的 docker compose 配置贴在 Higress 社区的这个 issue ****中,可以点击阅 读原文查看。
🔔 注意: Higress 容器环境变量中的 YOUR_DASHSCOPE_API_KEY 需要替换为你自己的通义千问的 API Key [ 3] 。
docker compose -p higress-ai up -d
第二步:在浏览器里访问 http://localhost:3000/ ,打开 NextChat 页面
第三步:点击对话输入框工具栏最右侧的模型设置按钮,切换模型
因为 Higress 的 AI Proxy 插件(可以访问 http://localhost:8001 登陆 Higress 的控制台查看插件配置)配置了 gpt-4o 到 qwen-max(即通义千问 2.5)的模型映射,所以实际上这里提供的模型服务是 qwen-max。
完成!现在你就可以与 AI 进行对话了。
可以看到 Higress 实现了流式的效果,这不仅基于 Higress 底层对 SSE 等流式协议的良好支持,也依赖 Higress 的 Wasm 插件扩展机制可以实现通义千问协议到 OpenAI 协议的流式转换。
Higress AI 网关介绍
随着 LLM 技术蓬勃发展,AI Web 应用创新如火如荼,对于构建一款 Web 应用来说,网关是必须的。而 AI Web 应用流量有以下特征,和对 AI 网关的需求:
- 长连接:由 AI Web 应用常见的 Websocket 和 SSE 协议决定,长连接的比例很高,要求网关更新配置操作对长连接无影响,不影响业务。
- 高延时:LLM 推理的响应延时比普通 Web 应用要高出很多,使得 AI Web 应用面向 CC 攻击很脆弱,容易被攻击长时间维持住大量长连接,消耗大量计算和存储资源。
- 大带宽:结合 LLM 上下文来回传输,以及高延时的特性,AI Web 应用对带宽的消耗远超普通应用,网关或后端如果没有实现较好的流式处理能力,容易导致内存快速上涨,继而触发 OOM。
Higress 可以很好地解决这些痛点:
- 长连接:不同于 Nginx 变更配置需要 Reload,导致连接断开,Higress 基于 Envoy 实现了连接无损的真正配置热更新。
- 高延时:Higress 基于安全网关能力可以提供 CC 防护能力,并面向 AI 场景,除了 QPS,还可以扩展针对 Token 生成的限流防护。
- 大带宽:Higress 支持完全流式转发,在 AI Web 应用场景下,所需的内存占用极低,同时也可以开发 Wasm 插件对请求和响应进行自定义逻辑的流式处理。
从上面的测试环境搭建流程来看,Higress AI 代理插件可以很方便的让 AI 对话应用直接对接通义千问等接口契约不同的大模型服务。除了通义千问和 ChatGPT 之外,这个插件还支持 Azure OpenAI 和月之暗面(Moonshot)等大模型服务提供商,并且支持配置一个外部文件地址作为聊天上下文,可以用来快速搭建一个个人 AI 助理服务。
整个插件使用 Go 语言进行开发,代码可以在这里找到:https://github.com/alibaba/higress/tree/main/plugins/wasm-go/extensions/ai-proxy对于流式相应的处理方法,大家可以参考这段代码:
// 这个 handler 函数会重入。在收到响应 body 的流式分块后,每次调用此函数会传入一个分块(chunk)。isLastChunk 标识是否是最后一个分块。方法处理完需要返回修改后的分块。
func onStreamingResponseBody(ctx wrapper.HttpContext, pluginConfig config.PluginConfig, chunk []byte, isLastChunk bool, log wrapper.Log) []byte {
activeProvider := pluginConfig.GetProvider()
if activeProvider == nil {
log.Debugf("[onStreamingResponseBody] no active provider, skip processing")
return chunk
}
log.Debugf("[onStreamingResponseBody] provider=%s", activeProvider.GetProviderType())
log.Debugf("isLastChunk=%v chunk: %s", isLastChunk, string(chunk))
if handler, ok := activeProvider.(provider.StreamingResponseBodyHandler); ok {
apiName := ctx.GetContext(ctxKeyApiName).(provider.ApiName)
modifiedChunk, err := handler.OnStreamingResponseBody(ctx, apiName, chunk, isLastChunk, log)
if err == nil && modifiedChunk != nil {
return modifiedChunk
}
return chunk
}
return chunk
}
有兴趣参与 Higress 社区贡献,实现更多大模型 API 的适配,可以到这个 issue 下认领任务:https://github.com/alibaba/higress/issues/940
有任何使用问题,也欢迎到社区提 issue,也可以进微信或钉钉群交流(钉钉群号:30735012403):
此外,由中国科学院软件研究所“开源软件供应链点亮计划”发起并长期支持的暑期开源活动“开源之夏”正在进行中。Higress 也有两个与 AI 相关的项目参与其中,分别是“基于向量相似度实现 LLM 结果召回的 WASM 插件”和“基于 AI 网关实现 AI 模型的轻量化部署”。欢迎各位在校同学积极报名参与。
详情可查看开源之夏的 Higress 社区页面 [ 4] 。
答案揭晓
最后,我们来揭晓前面问题的答案。不知道各位猜对了吗?
相关链接:
[1] NextChat (ChatGPT Next Web)
https://github.com/ChatGPTNextWeb/ChatGPT-Next-Web
[2] Higress
https://github.com/alibaba/higress
[3] 通义千问的 API Key
https://help.aliyun.com/zh/dashscope/opening-service?spm=a2c4g.11186623.0.0.72c2369dLprd45
[4] Higress 社区页面
https://summer-ospp.ac.cn/org/orgdetail/1f8ea42c-86c9-46b8-b1f5-344de5741ef0

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
-
上一篇
B站千万级长连接实时消息系统的架构设计与实践
本文由哔哩哔哩资深开发工程师黄山成分享,原题“千万长连消息系统”,本文进行了排版和内容优化等。 1、引言 在当今数字娱乐时代,弹幕已经成为直播平台上不可或缺的互动元素之一。 用户通过发送弹幕、送礼等,可以实时在直播画面上展现自己的想法、评论和互动内容,从而丰富了用户观看体验。在这个过程中,实时向终端推送互动信息,就需要用到长连接。 长连接,顾名思义,是应用存活期间和服务端一直保持的网络数据通道,能够支持全双工上下行数据传输。其和请求响应模式的短连接服务最大的差异,在于它可以提供服务端主动给用户实时推送数据的能力。 本文将介绍B站基于golang实现的千万级长连接实时消息系统的架构设计与实践,包括长连接服务的框架设计,以及针对稳定性与高吞吐做的相关优化。 2、关联文章 《B站基于微服务的API网关从0到1的演进之路》 《石墨文档单机50万WebSocket长连接架构实践》 《百度统一socket长连接组件从0到1的技术实践》 《探探的IM长连接技术实践:技术选型、架构设计、性能优化》 《爱奇艺WebSocket实时推送网关技术实践》 《LinkedIn的Web端即时通讯实践:实现单机几...
-
下一篇
无垠式代码生成器 SimpleJEE 版代码讲读
无垠式代码生成器SimpleJEE版代码讲读 无垠式代码生成器SimpleJEE版是一个旧版的Java通用代码生成器。是一款动词算子式通用代码生成器。支持SGS代码生成器脚本和SGS2 Excel模板代码生成。它支持SGS脚本语法加亮,支持一对多和多对多关系。是一款核心功能比较完整,码量不大的通用代码生成器,是学习通用代码生成器原理的很好的源代码。 现在,无垠式代码生成器SimpleJEE版1.0.2 Ada发布了第一个源码介绍视频,对代码生成器原理感兴趣的同学们可以参考。视频请见:https://www.bilibili.com/video/BV1nH4y1376a/ 项目地址:https://gitee.com/jerryshensjf/InfinitySimpleJEE 二进制war包下载地址:https://gitee.com/jerryshensjf/InfinitySimpleJEE/attach_files 无垠式代码生成器SimpleJEE版 特点 这是最轻量级的代码生成器,生成物只有大约6.5兆。 采用Servlet,JSP, JSON, JQuery等简单技术实现,...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- Mario游戏-低调大师作品
- MySQL数据库在高并发下的优化方案
- Dcoker安装(在线仓库),最新的服务器搭配容器使用
- Docker使用Oracle官方镜像安装(12C,18C,19C)
- CentOS8编译安装MySQL8.0.19
- Springboot2将连接池hikari替换为druid,体验最强大的数据库连接池
- SpringBoot2编写第一个Controller,响应你的http请求并返回结果
- Docker快速安装Oracle11G,搭建oracle11g学习环境
- SpringBoot2初体验,简单认识spring boot2并且搭建基础工程
- CentOS7,8上快速安装Gitea,搭建Git服务器