如何让 Llama2、通义千问开源大语言模型快速跑在函数计算上?
作者:寒斜 阿里云智能技术专家 「本文是“在 Serverless 平台上构建 AIGC 应用”系列文章的第一篇文章。」
前言
随着 ChatGPT 以及 Stable Diffusion,Midjourney 这些新生代 AIGC 应用的兴起,围绕 AIGC 应用的相关开发变得越来越广泛,有呈井喷之势,从长远看这波应用的爆发不仅仅是停留在形式之上,更是在各个领域产生实际的生产力价值,比如办公领域有 copilot system 365,钉钉智能;代码编程领域有 github copilot,cursor ide; 文娱领域的妙鸭相机;可以肯定的是未来 AIGC 的应用数量会更多,类型也会更加丰富,企业的内部软件或者 SOP 都会尽可能的跟 AI 进行融合,这必然催生出海量的 AIGC 应用开发需求,这也代表着巨大的市场机会。
开发 AIGC 应用的挑战
AIGC 的应用前景如此诱人,可能决定企业未来的发展走向。然而对很多中小企业及开发者而言,上手进行 AIGC 应用的开发依然有着非常高昂的成本:
- 基础模型服务的获取:chatgpt 提供了非常完善的 api 开发体系,然而并不开放给国内客户使用,开源的模型进行服务的部署非常困难
- 高昂的费用, GPU 短缺导致 GPU 的费用急剧飙升,本地购买高规格显卡需要一次性花费不少的成本,并且并不能提供在线服务。
- 端到端的对接:单纯模型服务的 api 无法变成直接的生产力,需要完成【企业数据&企业 SOP】-> LLM 服务 -> 各种端侧的完整链路
函数计算 AIGC 应用的解决方案
函数计算围绕创建和使用 AIGC,从基础设施到应用生态,开发端到使用端提供的完整的配套。
主要包含三个部分:
一、模型服务底座,函数计算可以部署来自魔搭,huggingface 等开元社区的 ai 模型,我们针对 LLM,Bert 等智能知识库/助手场景做了专门的定制,接入 OpenAI 兼容的 api 规范,提供一键部署的模版和可视化的 web 访问界面,帮助开发者或者企业快速上手 llama2,chatglm2,通义千问等模型的部署。
二、业务连接层,串联业务需求以及的模型服务,安全服务,数据库服务等基础资源,这部分有在 AIGC 应用部分有很多相同的逻辑,比如账号体系,数据集管理,提示词模版,工具管理,模型服务管理等,从各业务侧视角看,不一样的部分只是 提示词,知识库以及工具集,底层的模型服务,安全服务,数据库服务则是共享的,这层可以简化业务里面构建不同智能场景的流程,快速,低成本的可以构建不同业务的 AIGC 应用。
三、客户端侧,客户端是 AI 应用的使用部分,也是最接近业务的部分,这部分更多的考虑是如何将 AI 服务融入已有的使用端,比如钉钉,企业微信等办公 IM 系统,以及 web 浏览器插件等,通过函数计算+eventbridge 可以快速帮助 ai 服务接入到这些客户端。
本篇教程先来分享一下第一个部分,如何通过函数计算快速部署 AIGC 相关模型服务包括 LLM 模型和 Embedding(Bert) 模型。
LLM 模型及 Embedding 服务部署教程
前期准备
使用该项目,您需要有开通以下服务:
服务 | 备注 |
---|---|
函数计算 FC | 对 AIGC 进行 CPU/GPU 推理计算:https://free.aliyun.com/?pipCode=fc |
文件存储 NAS | 存储大语言模型以及 Embedding 服务所需要的模型,新用户请先领取免费试用资源包:https://free.aliyun.com/?product=9657388&crowd=personal |
应用介绍
应用详情
使用阿里云函数计算部署开源大模型应用,提供兼容 openai 规范的接口和 ChatGPT-Next-Web 客户端。
ChatGPT-Next-Web:
操作文档
llm 应用模版
登录到阿里云函数计算控制台->应用->创建应用-> 人工智能选择 AI 大语言模型 API 服务应用模板点击"立即创建"。
应用模版设置
设置好知道点击"创建并部署默认环境"。
等待部署
该过程您会自动完成。
服务访问
服务部署成功之后会返回两个链接。
- llm-server 为大语言模型的 api 服务界面,基于 swagger。
- llm-client 则是访问客户端,访问客户端需要您输入前面填写的客户端私有密码,填写好之后就可以测试使用了。
embedding 模版
登录到阿里云函数计算控制台->应用->创建应用-> 人工智能选择 “开源 Bert 模型服务” 应用模板点击"立即创建"。
应用模版设置
选择好地域创建即可。
等待部署
该过程您会自动完成。
服务访问
测试 embedding 接口。
总结
部署好 LLM 服务意味着您已经开启了 AIGC 应用的开发旅程,接下来我会继续跟大家分享更多关于 AIGC 相关的内容,包括如何构建知识库问答应用,如何调用工具完善大语言模型的能力,如何接入自己的 IM 系统和构建 web 的集成插件。
宇宙漫游,阿里云 x 森马 AIGC T 恤设计大赛
一、【森马X阿里云 AIGC T 恤设计大赛】
程序员 AIGC 自己的 T 恤,赢 Airpods,图案定制 T 恤!
通过函数计算 FC 快捷部署 Stable Diffusion:内置模型库+常用插件+ControlNet,支持 SDXL1.0。
立即参加:https://developer.aliyun.com/adc/series/activity/aigc_design
可赢取 Airpods 三代,作品定制联名体恤,森马行李箱等周边!
二、参加话题活动
一起讨论 AIGC 的未来发展趋势,用户可从任意角度交流分享,可以赢得护眼台灯、数据线、静音净化器奖品!
话题:《相比优秀的服装设计师,AIGC 可以如何突破设计灵感的界限?是纯粹的机械语言还是一点点的灵光乍现?》https://developer.aliyun.com/ask/548537?spm=a2c6h.13148508.setting.14.4a894f0esFcznR

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
基于 Kubernetes 的 Serverless PaaS 稳定性建设万字总结
数字经济的今天,云计算俨然已经作为基础设施融入到人们的日常生活中,稳定性作为云产品的基本要求,研发人员的技术底线,其不仅仅是文档里承诺的几个九的 SLA 数字,更是与客户切身利益乃至身家性命息息相关,稳定性压倒一切。本文将侧重于实际落地而非方法论,阐述云产品 SAE 业务侧稳定性实际建设过程中的经验和思考。 SAE(Serverless 应用引擎)作为业界首款面向应用的 Serverless PaaS 平台,全托管免运维,实现了 Web 应用,微服务应用以及定时任务的 Serverless 化。其核心优势之一在于用户可以低心智负担,零改造成本的将其应用/任务直接部署至 SAE 中。用户只需聚焦于核心的业务逻辑开发,而应用生命周期管理,微服务管理,日志,监控等功能交由 SAE 完成,无论是代码包的发布,监控调用链的集成,还是分布式调度框架的迁移,都可以在无需改动任何业务逻辑和版本依赖的情况下使用。同时 SAE 正在建设基于流量网关托管的全新架构,借助自适应弹性,闲置计费等能力进一步为用户降低使用门槛和费用成本。 SAE 产品的设计理念是将简洁易用的使用体验和交互界面呈现给用户,将底层 K...
- 下一篇
云原生场景下高可用架构的最佳实践
01 引言 随着云原生技术的快速发展以及在企业 IT 领域的深入应用,云原生场景下的高可用架构,对于企业服务的可用性、稳定性、安全性越发重要。通过合理的架构设计和云平台的技术支持,云原生高可用架构可以提供高可用性、弹性扩展性、简化运维管理、提升可靠性和安全性等方面的优势,为企业提供了更加可靠和高效的应用运行环境。 Kubernetes 是云原生的核心技术之一,提供了容器编排和管理的能力,包括基础设施自动化、弹性扩展性、微服务架构和自动化运维等,所以 Kubernetes 的应用高可用架构是云原生高可用的基石。本文会以阿里云容器服务 ACK(Alibaba Cloud Container Service for Kubernetes)为例,介绍基于 ACK 的应用高可用架构和治理的最佳实践。 02 应用高可用架构设计 云原生应用的高可用架构设计,是应用高可用开发、部署和治理的重要前提,可以从如下方面考虑: 1. 集群设计:集群控制面和数据面的组件和节点,使用多节点、多副本高可用部署,保证 K8s 集群的高可用性。以 ACK 为例,提供了覆盖控制面和数据面的集群高可用能力。在控制面,ACK...
相关文章
文章评论
共有0条评论来说两句吧...