腾讯开源 tRPC-Agent-Go:让 Go 开发者轻松构建智能 AI 应用
腾讯 tRPC团队之前开源了 A2A 开发框架tRPC-A2A-Go 和 MCP 开发框架 tRPC-MCP-Go,现在进一步推出 tRPC-Agent-Go 开发框架,实现 Go 语言 AI 生态开发框架的闭环。
公告称,当前主流 Agent 框架(AutoGen、CrewAI 、Agno、ADK等)大部分都是基于 Python,而 Go在微服务、并发与部署方面有天然优势,Go在腾讯内部也有大规模应用,业界基于Go语言的Agent框架较少,大部分都是编排式的workflow框架,缺少真正的“去中心化、可协作、能涌现”的自主多 Agent 能力。tRPC-Agent-Go 直接利用 Go 的高并发与 tRPC 生态,把 LLM 的推理、协商和自适应性带到 Go 场景,满足复杂业务对“智能+性能”的双重需求。
tRPC-Agent-Go 采用模块化架构设计,由多个核心组件组成,组件都可插拔,通过事件驱动机制实现组件间的解耦通信,支持callback插入自定义逻辑:
- Agent:核心执行单元,负责处理用户输入并生成响应
- Runner:Agent 的执行器,负责管理执行流程,串联 Session/Memory Service 等能力
- Model:支持多种 LLM 模型(OpenAI、DeepSeek 等)
- Tool:提供各种工具能力(Function、MCP、DuckDuckGo 等)
- Session:管理用户会话状态和事件
- Memory:记录用户的长期记忆和个性化信息
- Knowledge:实现 RAG 知识检索能力
- Planner:提供 Agent 的计划和推理能力
- CodeExecutor:提供Agent代码执行能力,支持Local,Container等模式
核心特点
多样化 Agent 系统
- LLMAgent:基于大语言模型,支持工具调用和推理
- ChainAgent:链式执行,支持多步骤任务分解
- ParallelAgent:并行处理,支持多专家协作
- CycleAgent:循环迭代,支持自我优化
- GraphAgent:图工作流,兼容现有编排习惯
丰富工具生态
- 内置常用工具
- 支持 Function、MCP 协议等多种扩展方式
- 灵活的工具组合和调用策略
智能会话管理
- 支持 Redis 和内存存储的会话持久化
- 长期记忆和个性化信息保持
- RAG 检索增强生成能力
- 实时事件驱动架构
全链路可观测性
- OpenTelemetry 全链路追踪和性能监控
- 可视化调试界面和实时监控
- 结构化日志和错误追踪

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
货拉拉开源两款三方库
货拉拉开源了两款实用三方库 —— AspectPro Aop Plugin 和 page-spy-harmony,直击应用开发过程中“代码耦合高”“远程调试难”等高频痛点。 在复杂的应用开发过程中,日志记录、性能监控、权限校验等功能虽然往往与核心业务逻辑关系不大,但却必不可少,但这些功能的代码散布于代码架构的各个角落。这种现象易导致代码耦合度增高、业务逻辑不够纯粹,不仅降低了代码的可读性,也为后期的维护带来了不小的挑战。 针对这一典型问题,货拉拉推出了轻量级鸿蒙运行时 hook 框架 AspectPro Aop Plugin,并同步开源其编译时代码修改插件 aspect-pro-plugin,两者配合使用可实现任意代码 hook 操作。 AspectPro Aop Plugin 对齐鸿蒙系统的 AOP 能力,开发者无需关心静态方法限制,即可对如按钮点击事件、链式构造类方法、不可写方法等多类行为进行精准 hook,并灵活更改参数与返回值;而 aspect-pro-plugin 则在编译阶段支持多种代码扫描、替换与导包策略,支持自定义配置规则。 通过引入 AspectPro Aop Plu...
- 下一篇
书生发布 InternVL 3.5 最新视觉全系列模型
书生发布了最新的视觉模型 InternVL 3.5 全系列模型,从 1B 到 241B 共 8 个尺寸。 根据评测结果,书生 3.5 最高尺寸 241B 在视觉模型里的表现仅次于商业版的 GPT-5 和 Gemini 2.5 Pro。 所有模型均已发布到 Hugging Face https://huggingface.co/collections/OpenGVLab/internvl35-68ac87bd52ebe953485927fb 该模型的技术亮点: Cascade Reinforcement Learning(Cascade RL):采用“离线 RL + 在线 RL”两阶段策略,实现更加稳健收敛和精细对齐,从而显著增强模型的推理能力,在 MMMU 和 MathVista 等任务上表现提升明显。 Visual Resolution Router(ViR):动态调整视觉 token 的分辨率,兼顾性能与效率,使视觉理解更加灵活高效。 Decoupled Vision-Language Deployment(DvD):将视觉编码器与语言模型分开部署至不同 GPU,有效平衡资源负载,...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- CentOS8安装Docker,最新的服务器搭配容器使用
- SpringBoot2编写第一个Controller,响应你的http请求并返回结果
- CentOS关闭SELinux安全模块
- Docker安装Oracle12C,快速搭建Oracle学习环境
- MySQL8.0.19开启GTID主从同步CentOS8
- Jdk安装(Linux,MacOS,Windows),包含三大操作系统的最全安装
- CentOS7编译安装Cmake3.16.3,解决mysql等软件编译问题
- Windows10,CentOS7,CentOS8安装MongoDB4.0.16
- CentOS7设置SWAP分区,小内存服务器的救世主
- Eclipse初始化配置,告别卡顿、闪退、编译时间过长