AI 狂奔,云原生技术走向何处?
AI的敏捷迭代需求与云原生基础设施的稳态设计哲学之间,本来就存在天然的隔阂。而随着云原生与 AI 的加速融合,正在重新定义计算资源的调度与模型的交付方式。同时也将一系列尖锐的矛盾推至台前:速度与稳定、弹性与成本、统一与异构。这促使我们不得不去思考,AI 狂奔的背景下,云原生技术的走向。
在GOTC 2025 全球开源技术峰会“云原生AI”论坛,我们直面核心矛盾。议题如下,
13:30-14:10
云原生如何塑造人工智能基础设施 (AI Infra) 的未来
Keith Chan Linux 基金会亚太区副总裁、CNCF中国区总监
重点说明云原生 AI 基础设施层如何支持AI开发和使用, 和讨论云原生AI基础设施生态的发展现状和企业实践。
14:10-14:50
有了大模型智能运维为何还不能原地起飞?
华明,快猫星云联合创始人&CTO
智能化在各行各业的落地前提是这个方向上数据基础的AI-Ready,这已经成为当下的共识。
在大模型浪潮之前,大量企业的IT基础设施完成了容器化或云原生化的改造,并积极的推进可观测性数据标准OpenTelementry的落地。回头看,这些工作仿佛都是在为运维的AI-Ready做着准备。那时至今日,有了云原生和OpenTelementry,我们离运维的AI-Ready是否还有距离?是否装上AI就能原地起飞?
Flashcat 是基于国内著名可观测性开源项目Nightingale(开源夜莺)开发的一款一体化可观测性产品,核心目的在于用一个产品解决复杂IT环境/多云环境/混合云环境的可观测性难题和稳定性保障难题。Flashcat 在让人更好的使用可观测性产品的基础上摸索出了一套推进可观测性数据进入AI-Ready状态的方法,并结合大模型实践了故障根因定位的智能化。此议题将把Flashcat的方法和实践分享给大家。
14:50-15:30
AutoMQ:面向 AI 时代的 Kubernetes 原生数据流平台
陈仲良,AutoMQ 产品负责人
在 AI 时代,企业模型训练与推理日益依赖海量、实时与历史业务数据。随着 A2A 协同与 MCP 架构的成熟,AI 系统对数据流的敏捷性和弹性提出了更高要求。传统数据流系统(如 Apache Kafka)诞生于数据中心时代,已难以满足云原生环境下弹性扩展、成本优化和 agent 集成的需求。本议题将深入解析 AutoMQ 如何基于云与 Kubernetes,打造兼具自动弹性伸缩、低成本、高度 AI 原生特性的新一代数据流系统,同时分享 AutoMQ 在多云异构环境下的架构实践、自动扩缩容机制,助力企业实现高效、智能的数据流运维。
15:30-16:10
让 Kubernetes 在 AI 时代再次焕发活力
张晋涛,CNCF Ambassador, Microsoft MVP, Kong Inc.
Kubernetes 已经有了十年的历史,技术的更迭也在持续不断。而现在的热潮和关注点,更多的都在 AI 领域。
作为一个同时在 Kubernetes 和 AI 两个领域活跃的开发者,我想同时从这两个领域的角度出发,来和大家探讨下,如何在 AI 时代,让 Kubernetes 再次焕发活力, 以及为什么 Kubernetes 仍然是 AI 时代 infra 的首选。
重点说明云原生 AI 基础设施层如何支持AI开发和使用, 和讨论云原生AI基础设施生态的发展现状和企业实践。
16:10-16:50
Apache Pulsar × AI Agent:智能系统消息基础架构
翟佳,谙流科技创始人 & CEO,Apache Member
多智能体协作系统(Multi-Agent System, MAS)因需实现任务拆分、并发处理、角色分工与协同推理等复杂能力,已成为构建实用 AI Agent 系统更贴近现实、更强大的架构范式;这本质上构建了一个分布式系统。消息队列(MQ)作为核心的异步通信基础设施,提供了高效、解耦、可靠、缓冲和可扩展的消息传递能力,正是解决分布式 Agent 间高效协作问题的关键所在。
访问 GOTC 官方报名通道报名参会:https://www.oschina.net/event/8598047
全球开源技术峰会 GOTC 2025,为期 2 天的开源技术与行业盛会,将通过行业展览、主题发言、圆桌讨论等形式来诠释此次大会主题 ——“万源共振,智构未来”。会议聚焦 Agentic AI、大模型时代的“开源”、AI+软件工程、软件基础设施智能化、AI Coding、具身智能等热门话题,探讨开源未来,助力开源发展。
https://gotc.oschina.net
关注公众号
低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
-
上一篇
黄仁勋驳斥 AI 泡沫论,英伟达新一代芯片预计将创 5000 亿美元营收
英伟达公司首席执行官黄仁勋周二在华盛顿的一场发布会上发表演讲,坚决反驳有关人工智能市场出现泡沫的担忧,并乐观预估公司最新一代芯片Blackwell以及更新的Rubin芯片,有望在未来几个季度创造高达5000亿美元的收入。他表示,这两款芯片正推动英伟达进入前所未有的销售增长周期。 这是英伟达首次在美国首都举办 GTC 大会。黄仁勋在白宫附近的会议中心向数千名与会者表示:“我们已经到达了良性循环,这是一个转折点……非常了不起。” 他认为,当前的 AI 模型性能已强大到客户愿意为之买单的程度,从而为算力基础设施的巨额投资提供了充分理由。此番言论有效缓解了外界对 AI 投资泡沫的担忧,英伟达股价在周二应声上涨逾4%。 黄仁勋透露,他对最新一代 Blackwell 和 Rubin 芯片的发货量预期将达到2000万颗。相比之下,前一代Hopper芯片在整个生命周期的出货量总计仅有400万颗,新一代芯片的出货量预期实现了五倍的惊人增长。 此次华盛顿活动的重点之一是英伟达正在建立的广泛行业合作关系,旨在扩大其高度依赖少数几家数据中心巨头(如微软、亚马逊、谷歌)的客户基础。英伟达宣布将与优步、Palan...
-
下一篇
IBM 发布 Granite 4.0 Nano 模型
IBM 近日推出了四款新的 Granite4.0Nano 模型,这一系列模型的参数规模从350万到15亿不等。与行业中大型模型普遍依赖云计算的趋势不同,Granite4.0Nano 模型可以在普通的笔记本电脑上运行,甚至可以在浏览器中本地运行。这使得开发者能够在不依赖云服务的情况下,构建适用于消费者硬件或边缘设备的应用。 所有 Granite4.0Nano 模型均在 Apache2.0许可下发布,适合研究人员、企业和独立开发者使用,且支持商业用途。这些模型与各种工具兼容,如 llama.cpp、vLLM 和 MLX,并获得了 ISO42001负责任 AI 开发的认证。 Granite4.0Nano 家族包括四款模型:Granite-4.0-H-1B(约1.5亿参数)、Granite-4.0-H-350M(约350万参数)、Granite-4.0-1B(接近2亿参数的变种)和 Granite-4.0-350M(变种)。其中,H 系列模型采用混合状态空间架构,适用于低延迟的边缘环境,而标准的变压器模型则提供了更广泛的兼容性。 基准测试显示,Granite4.0模型在多个领域的表现优于同类竞...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- SpringBoot2整合Thymeleaf,官方推荐html解决方案
- SpringBoot2整合MyBatis,连接MySql数据库做增删改查操作
- CentOS7设置SWAP分区,小内存服务器的救世主
- CentOS8,CentOS7,CentOS6编译安装Redis5.0.7
- CentOS7编译安装Cmake3.16.3,解决mysql等软件编译问题
- Docker使用Oracle官方镜像安装(12C,18C,19C)
- MySQL数据库在高并发下的优化方案
- Hadoop3单机部署,实现最简伪集群
- Windows10,CentOS7,CentOS8安装Nodejs环境
- 2048小游戏-低调大师作品


微信收款码
支付宝收款码