Flink Agents 0.1.0 发布公告
Apache Flink 社区很高兴地宣布发布 Apache Flink Agents 的首个预览版本(0.1.0)。
什么是 Apache Flink Agents
Apache Flink Agents 是 Apache Flink 的全新子项目,用于在 Flink 的流处理运行时之上直接构建事件驱动的 AI 智能体。它在同一框架内统一了流处理与自主智能体能力,将 Flink 在规模、低时延、容错能力和状态管理方面的成熟优势,与构建智能体所需的能力(大型语言模型、工具、记忆与动态编排)相结合。
为什么需要 Apache Flink Agents
尽管 AI 智能体在聊天机器人和智能编程等交互式应用中发展迅速,但这类系统通常以同步、一次性的交互为主。许多企业场景无法等待用户触发后再启动。例如,在电商、金融、物联网和物流等工业化场景中,系统必须对支付失败、传感器异常或用户点击等实时事件立即作出关键决策。
要在生产环境中取得成功,企业级智能体必须具备以下能力:
- 
  
处理实时且高吞吐的事件流,例如交易、传感器异常或用户点击。
 - 
  
持续且自主运行,而不仅在收到指令时才工作。
 - 
  
在出现问题时,确保安全性、可审计性以及故障恢复能力。
 
这类工作不仅需要“智能”,还要求大规模处理能力、毫秒级延迟、容错能力以及有状态的协调,而这些正是 Apache Flink 的强项。
迄今为止,还没有一个统一的框架能够将 Agentic AI 模式引入 Flink 久经考验的流处理生态。Apache Flink Agents 通过将智能体视作事件驱动的微服务来弥补这一空白,使其具备始终在线、可靠且可扩展的特性。
核心特性
基于 Flink 久经验证的流处理引擎,Apache Flink Agents 继承了分布式、大规模、具备容错能力的结构化数据处理能力与成熟的状态管理,并在此基础上为智能体 AI 的基本组件与功能提供原生支持与抽象,如大语言模型(LLM)、提示词、工具、记忆、动态编排、可观测性等。
Apache Flink Agents 的核心特性包括:
- 
  
大规模数据处理与毫秒级时延:依托 Flink 的分布式处理引擎,实时处理海量事件流。
 - 
  
数据与 AI 的无缝集成:直接将 Flink 的 DataStream 和 Table API 作为智能体的输入和输出,实现 Flink 中结构化数据处理与 AI 文本处理能力的平滑集成。
 - 
  
Action 级别的精确一次一致性:通过将 Flink 的检查点机制与外部预写日志相结合,确保智能体的 Action 及其外部效应具备精确一次一致性语义。
 - 
  
**熟悉的智能体抽象:**沿用业内常见的 AI 智能体概念,便于具有相关经验的开发者快速上手并在 Apache Flink Agents 上构建应用。
 - 
  
多语言支持:同时提供原生的 Python 与 Java API,适配多样化开发环境,支持团队选择偏好的编程语言。
 - 
  
丰富的生态系统:原生集成主流大语言模型(LLM)、来自不同提供商的向量存储,以及托管在 MCP 服务器上的工具与提示词,并支持自定义扩展。
 - 
  
可观测性:采用以事件为中心的编排方式,所有智能体的 Action 均由事件连接与控制,可通过事件日志观察并理解智能体行为。
 
0.1.0 版本发布
Flink Agents 0.1.0 可在此处下载。
文档与快速入门示例可在此处查阅。
注意:Flink Agents 0.1.0 为预览版本,这意味着:
- 
  
部分功能可能存在已知或未知问题。您可以通过 Github Issues 查看已知问题列表及其解决状态。
 - 
  
当前的 API 与配置选项处于实验阶段,后续版本可能发生不向后兼容的变更。因此,我们不建议在对稳定性要求较高的生产环境中使用该版本。
 
我们非常感谢您提供的任何反馈,无论是分享您如何使用我们的产品、提出新功能建议、帮助我们发现和修复问题,还是任何其他想法。您的见解对我们而言弥足珍贵。
您可以通过以下方式联系我们:
- 
  
加入 Apache Flink Slack,在 #flink-agents-user 频道寻求帮助。
 - 
  
在 Github Issues 提交功能需求和缺陷报告。
 - 
  
在 Github Discussions 分享您的使用案例和想法。
 
贡献者列表
Apache Flink 社区感谢对此版本作出贡献的每一位贡献者:
Adem Amen Thabti, Alan Z., Eugene, Hao Li, HuangXingBo, Kavishankarks, KeGu-069, Letao Jiang, Qingsheng Ren, Richard, Wenjin Xie, Xintong Song, Xu Huang, Xuannan, twosom, yanand0909, zhaomin1423
关注公众号
					低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 
							
								
								    上一篇
								    
								
								复旦大学与美团联合发布 R-HORIZON,长链推理评测框架
复旦大学与美团LongCat联合推出 R-HORIZON——首个系统性评估与增强 LRMs 长链推理能力的评测框架与训练方法。 据介绍,R-HORIZON 提出了问题组合(Query Composition)方法,通过构建问题间的依赖关系,将孤立任务转化为复杂的多步骤推理链。 以数学任务为例,该方法包含三个步骤: 1. 信息提取:从独立问题中提取核心数值、变量等关键信息 2. 依赖构建:将前序问题的答案嵌入到后续问题的条件中 3. 链式推理:模型必须顺序解决所有子问题才能获得最终答案 方法优势: 灵活扩展:可自由控制推理链长度(n=2, 4, 8...) 精确可控:可灵活设定问题间的依赖强度 高效低成本:基于现有数据集构建,无需额外人工标注 基于此方法,团队构建了R-HORIZON Benchmark用于系统性评估 LRMs 的多步推理能力,同时生成了长链推理训练数据,通过强化学习(RLVR)提升模型性能。 R-HORIZON 方法流程——从单 — 问题到复杂推理链的转化及应用场景 R-HORIZON 标志着大型推理模型研究的范式转变——从「能解决什么问题」到「能走多远」。 技术贡献 ...
 - 
							
								
								    下一篇
								    
								
								黄仁勋驳斥 AI 泡沫论,英伟达新一代芯片预计将创 5000 亿美元营收
英伟达公司首席执行官黄仁勋周二在华盛顿的一场发布会上发表演讲,坚决反驳有关人工智能市场出现泡沫的担忧,并乐观预估公司最新一代芯片Blackwell以及更新的Rubin芯片,有望在未来几个季度创造高达5000亿美元的收入。他表示,这两款芯片正推动英伟达进入前所未有的销售增长周期。 这是英伟达首次在美国首都举办 GTC 大会。黄仁勋在白宫附近的会议中心向数千名与会者表示:“我们已经到达了良性循环,这是一个转折点……非常了不起。” 他认为,当前的 AI 模型性能已强大到客户愿意为之买单的程度,从而为算力基础设施的巨额投资提供了充分理由。此番言论有效缓解了外界对 AI 投资泡沫的担忧,英伟达股价在周二应声上涨逾4%。 黄仁勋透露,他对最新一代 Blackwell 和 Rubin 芯片的发货量预期将达到2000万颗。相比之下,前一代Hopper芯片在整个生命周期的出货量总计仅有400万颗,新一代芯片的出货量预期实现了五倍的惊人增长。 此次华盛顿活动的重点之一是英伟达正在建立的广泛行业合作关系,旨在扩大其高度依赖少数几家数据中心巨头(如微软、亚马逊、谷歌)的客户基础。英伟达宣布将与优步、Palan...
 
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- MySQL8.0.19开启GTID主从同步CentOS8
 - CentOS8安装MyCat,轻松搞定数据库的读写分离、垂直分库、水平分库
 - MySQL数据库在高并发下的优化方案
 - CentOS8,CentOS7,CentOS6编译安装Redis5.0.7
 - Docker快速安装Oracle11G,搭建oracle11g学习环境
 - CentOS7编译安装Cmake3.16.3,解决mysql等软件编译问题
 - Docker使用Oracle官方镜像安装(12C,18C,19C)
 - CentOS7,CentOS8安装Elasticsearch6.8.6
 - Hadoop3单机部署,实现最简伪集群
 - CentOS7,8上快速安装Gitea,搭建Git服务器
 

			
				
				
				
				
				
				
				
微信收款码
支付宝收款码