Serverless GPU:助力 AI 推理加速
本文整理自 2024 云栖大会,阿里云智能集团高级技术专家聂大鹏、NVIDIA 解决方案架构师金国强演讲议题《Serverless GPU:助力 AI 推理加速》
近年来,AI 技术发展迅猛,企业纷纷寻求将 AI 能力转化为商业价值,然而,在部署 AI 模型推理服务时,却遭遇成本高昂、弹性不足及运维复杂等挑战。本文将探讨云原生 Serverless GPU 如何从根本上解决这些问题,以实现 AI 技术的高效落地。
AI 落地的三大难题与趋势
- 成本高昂: GPU 资源利用率低下,因缺乏 GPU 虚拟化、业务潮汐效应及资源调度问题,导致昂贵的 GPU 显卡未能充分利用。
- 弹性受限: 自建 GPU 集群难以应对流量波动,尤其在实时推理和离线任务处理时,缺乏快速弹性扩展能力。
- 运维复杂: AI 团队不愿承担 GPU 集群的管理和维护,涉及硬件软件维护、故障处理及多业务混部问题。
趋势显示,用户自建 GPU 集群正向云平台 Serverless 形态转变,期望通过低成本、高弹性和免运维方式,专注于业务价值创造。
Serverless GPU 算力创新:助力 AI 落地降本
Serverless GPU 模式通过智能区分 GPU 实例的忙闲状态,提供差异化定价策略,实现了成本优化与性能保障的双重目标。这种模式下的算力供应具备三个显著优势:
- 弹性模式: 无需预留资源,按需快速弹出 GPU 容器,适合准实时或离线场景,大幅降低成本。
- 预留模式: 保证无冷启动,但成本较高,适用于 24/7 连续运行的需求。
- 闲置 GPU 模式: 结合弹性与预留模式的优点,通过区分 GPU 实例的忙闲状态,提供差异化定价,既保证低延迟,又显著降低成本。
实现这些优势的关键在于阿里云函数计算生态的 GPU 架构升级,即神龙多租 GPU 架构。该架构支持空间维度上的多租户 GPU 卡切分与时间维度上的超卖复用,从而实现秒级弹性 GPU 规格解耦,最终释放更经济高效的 GPU 技术红利。
闲置 GPU 模式的内部机制与优势
- GPU checkpoint 至内存池,闲置成本远低于 GPU 显存,实现低延时与成本优化。
- 解冻过程根据模型大小决定,冷启动时间控制在合理范围。
- 通过工作负载分析,智能调整 GPU 冻结时机,确保热工作负载性能接近原生 GPU。
神龙多租 GPU 架构与技术创新
- 实现空间维度上的多租户 GPU 切分混布,时间维度上的超卖复用,提高 GPU 资源利用率。
- 提供秒级弹性、GPU 切分规格、CPU/ MEM/GPU 规格解耦、忙闲时分开定价等特性,释放 GPU 技术红利。
随着传统 Web 场景下的调度算法(比如:RR 调度策略、最小连接数调度策略)在 AI 场景有诸多弊端:如恶化后端 GPU 资源饿死胖死现象,造成业务请求 RT 急剧抖动。函数计算平台提供请求负载感知的调度策略,根据函数的请求并发度来最大化压榨后端集群的处理能力,提升用户 GPU 实例、用户自建 GPU 集群的资源利用率。
英伟达案例:NVIDA TensorRT 与 AI 推理加速
阿里云函数计算是一种无服务器(Serverless)计算服务,它允许用户在无需管理底层基础设施的情况下,直接运行代码。函数计算以其高灵活性和弹性扩展能力,让用户专注于业务逻辑的开发,自动处理计算资源的分配、扩展和维护。此外,函数计算支持 GPU 算力,使其成为 AI 任务的理想选择,如模型推理和图像生成,能够大幅提高效率并降低计算成本。
NVIDIA TensorRT 是英伟达为深度学习推理优化的高性能库,通过权重量化、层融合和内存优化等技术,极大地提升了模型的推理速度,同时减少了资源消耗。TensorRT 支持从多种框架(如 TensorFlow、PyTorch)导出的模型,包括大语言模型和多模态视觉语言模型,使开发者能够充分利用 GPU 的计算能力,快速部署 AI 应用。
针对当前热门的大模型推理,英伟达还推出了 NVIDIA TensorRT-LLM(LLM,Large Language Models),这是一个专为加速大语言模型推理设计的高性能深度学习推理库,不仅覆盖了主流大语言模型,还支持丰富的数据精度选项,通过系统内核和优化计算库,实现了模型推理性能的显著提升。
在 Serverless GPU 创新的基础上,英伟达的 NVIDIA TensorRT 成为加速 AI 推理的重要利器。TensorRT 作为高性能深度学习模型推理的 SDK,通过数据精度混合处理、模型融合、算子优化等技术手段,显著提升了模型推理效率。函数计算的无缝计算体验与 NVIDIA 的高性能推理库相结合,为开发者提供了一个强大的平台,让他们能够以更低的成本、更高的效率完成复杂的 AI 任务,加速技术落地和应用创新。
在实际应用中,这种合作模式的优势尤为明显。例如,在大规模模型推理场景下,使用 TensorRT 可以将平均推理耗时降低约 20%, 这在处理千万级参数的大模型时效果尤为显著。而 TensorRT-LLM 进一步针对大语言模型进行了优化,确保即使在处理极为复杂的模型时,也能保持高精度和低延迟。
结论
Serverless GPU 算力创新不仅解决了 AI 落地过程中的成本、弹性和运维难题,更为企业带来了全新的算力管理模式。通过与英伟达等技术巨头的合作,阿里云函数计算等平台正引领着 AI 算力服务的新时代,为企业提供更加高效、灵活且经济的 AI 解决方案。在未来,Serverless GPU 将成为推动 AI 技术普及和商业化的关键力量,助力各行各业实现智能化转型。

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
Java灵魂拷问13个为什么,你都会哪些?
>大家好,我是 V 哥。今天看了阿里云开发者社区关于 Java 的灵魂拷问,一线大厂在用 Java 时,都会考虑哪些问题呢,对于工作多年,又没有大厂经历的小伙伴不妨看看,V 哥总结的这13个为什么,你都会哪些?先赞后看,绝不摆烂。 1. 为什么禁止使用 BigDecimal 的 equals 方法做等值比较? BigDecimal 的 equals 方法在等值比较时存在一些问题,通常不建议直接使用它来判断数值的相等性。下面是主要原因以及推荐的替代方案: 1. equals 方法比较严格,包含了精度和符号的比较 BigDecimal.equals 不仅比较数值本身,还会比较精度和符号。例如,BigDecimal 的 equals 方法会认为 1.0 和 1.00 是不同的值,因为它们的 scale 不同(即小数位数不同)。例如: BigDecimal a = new BigDecimal("1.0"); BigDecimal b = new BigDecimal("1.00"); System.out.println(a.equals(b)); // 输出 false 尽管 1.0...
- 下一篇
glibc 内存分配与释放机制详解
作者:来自 vivo 互联网存储团队- Wang Yuzhi 本文以一次线上故障为基础介绍了使用 glibc 进行内存管理可能碰到问题,进而对库中内存分配与释放机制进行分析,最后提供了相应问题的解决方案。 一、引言 内存对象的分配与释放一直是后端开发人员代码设计中需要考虑的问题,考虑不周极易造成内存泄漏、内存访问越界等问题。在发生内存异常后,开发人员往往花费大量时间排查用户管理层代码,而忽视了C运行时,库层和操作系统层本身的实现也可能会带来内存问题。本文先以一次线上内存事故引出问题,再逐步介绍 glibc 库的内存布局设计、内存分配、释放逻辑,最后给出相应的解决方案。 二、内存告警事件 在一次线上运维过程中发现服务出现内存告警。 【监控系统-自定义监控-告警-持续告警】 检测规则: xxx内存使用率监测:一般异常(>4096) 集群id:xxx 集群名称: xxxxxx 异常对象(当前值): xx.xx.xx.xx-xxxxxxx(11335) 开始时间: 2023-08-10 17:10:30 告警时间: 2023-08-10 18:20:32 持续时间: 1h10m2s 异常...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- CentOS6,7,8上安装Nginx,支持https2.0的开启
- CentOS8,CentOS7,CentOS6编译安装Redis5.0.7
- SpringBoot2更换Tomcat为Jetty,小型站点的福音
- Jdk安装(Linux,MacOS,Windows),包含三大操作系统的最全安装
- CentOS7,8上快速安装Gitea,搭建Git服务器
- SpringBoot2整合MyBatis,连接MySql数据库做增删改查操作
- SpringBoot2全家桶,快速入门学习开发网站教程
- CentOS8安装MyCat,轻松搞定数据库的读写分离、垂直分库、水平分库
- CentOS8编译安装MySQL8.0.19
- CentOS7,CentOS8安装Elasticsearch6.8.6