AI Agent逐渐成为AI应用的核心架构
最近,开源中国 OSCHINA、Gitee 与 Gitee AI 联合发布了《2024 中国开源开发者报告》。报告聚焦 AI 大模型领域,对过去一年的技术演进动态、技术趋势、以及开源开发者生态数据进行多方位的总结和梳理。查看完整报告:2024 中国开源开发者报告.pdf
在第二章《TOP 101-2024 大模型观点》中,广东智用人工智能应用研究院担任工业&社区CTO张善友认为,AI Agent 逐渐成为AI应用的核心架构,通过自主感知、决策和执行能力,实现对现有软件的智能化改造和升级,从而改变业务流程和用户交互方式。全文如下。
AI Agent逐渐成为AI应用的核心架构
文/张善友
随着人工智能技术的迅猛发展,大模型应用已经成为了2024年的热点话题,大模型应用已逐渐从初期的Chatbot迈向RAG、Copilot及Agent等更为高级的阶段。这些大模型具备强大的数据处理能力和深度学习能力,为各种应用场景提供了前所未有的便利。
单一的大模型在处理所有任务时往往存在局限性,因此需要借助外部工具或函数来增强其处理能力。
2023年6月13日OpenAI发布的GPT模型的Function Calling功能,成为大模型与现实世界交互的桥梁。Function Calling机制在很大程度上推动了Agent技术的发展。Agent技术以其独特的自主性和智能性,正逐渐成为大模型应用的重要组成部分,引领着新的发展趋势。
在智能化方面,Agent的学习能力得到了极大的增强。传统的机器学习技术为Agent提供了初步的学习框架,使得Agent能够通过数据驱动的方式学习并优化自身行为。
然而,随着神经网络模型的广泛应用,Agent的学习能力得到了质的飞跃。深度学习技术使得Agent能够处理更加复杂、高维的数据,从而更精确地感知环境信息并做出相应决策。此外,强化学习技术的不断发展也为Agent提供了持续学习和自我优化的能力,使得Agent能够在与环境的互动中不断改进自身策略,实现更高级别的智能化。
早期的Agent系统往往依赖于预设的规则和策略进行决策和行动,自主性和灵活性相对有限。然而,随着大模型推理能力的发展,Agent已经具备了更高的自主性。这种自主性不仅体现在Agent能够根据环境变化和任务需求自主调整行为策略上,更表现在Agent能够在一定程度上进行自我管理和自我修复,以应对各种复杂和不确定的情况。
AI Agent的发展趋势是其逐渐成为AI应用的核心架构,通过自主感知、决策和执行能力,实现对现有软件的智能化改造和升级,从而改变业务流程和用户交互方式。
2024年,开源社区中出现了一些著名的多智能体框架,如MetaGPT、LangGraph和AutoGen,这些框架通过不同的技术手段来解决多智能体系统中的信息冗余和任务复杂性问题。
这些框架的出现表明,未来多智能体系统将更加注重灵活性和可定制性。多智能体框架逐渐成为主流,有效解决了单智能体视角局限的问题,实现了多工作流的并行处理,使得推理过程更加可靠,并具备了对多模态数据的兼容性。这种趋势表明,未来的AI Agent将不再局限于单一任务,而是能够处理复杂的多任务环境,提高整体效率和可靠性。
AI Agent的发展还依赖于大模型的持续优化和创新。大模型的发展方向包括优化性能、利用庞大的训练数据集模拟人类行为以及增强模型固有的通用能力。
这些优化和创新将推动AI Agent在推理、规划、记忆和工具使用等方面的能力提升,2024年的OpenAI的o1模型是这方面的典型代表,不仅是OpenAI所代表的闭源的大模型是这样,开源的大模型也是在不断提升智能化能力,例如2024年9月阿里发布的Qwen 2.5 72B模型成为全球最强开源大模型。此外,Qwen 2.5的整体性能相比前一代提升了超过18%,并且在多模态能力、长文本处理和指令遵循等方面也有所增强。
大模型应用从Chatbot到RAG、Copilot和Agent的发展历程充满了挑战与机遇。随着技术的不断进步和创新,我们有理由相信,大模型应用将在未来展现出更加广阔的应用前景和巨大的社会价值。
作者简介:
张善友
从事.NET技术开发二十三年,认证CKAD专家,曾在腾讯工作12年,目前在广东智用人工智能应用研究院担任工业&社区CTO。业余积极参与运营.NET技术社区、Dapr中文社区、Semantic Kernel中文社区,.NET黄埔论坛以及相关开源项目,运营微信公众号“dotNET跨平台”和“新一代智能应用”。荣获连任19次微软最有价值专家MVP,6届华为云HCDE,6届腾讯云最有价值专家TVP。
《2024 中国开源开发者报告》由开源中国 OSCHINA、Gitee 与 Gitee AI 联合出品,聚焦 AI 大模型领域,对过去一年的技术演进动态、技术趋势、以及开源开发者生态数据进行多方位的总结和梳理。
报告整体分为三章:
- 中国开源开发者生态数据
- TOP 101-2024 大模型观点
- 国产 GenAI 生态高亮瞬间
查看完整报告,请点击 :2024 中国开源开发者报告.pd

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
AI 开发者中间件工具生态 2024 年总结
最近,开源中国 OSCHINA、Gitee 与 Gitee AI联合发布了《2024 中国开源开发者报告》。报告聚焦 AI 大模型领域,对过去一年的技术演进动态、技术趋势、以及开源开发者生态数据进行多方位的总结和梳理。查看完整报告:2024 中国开源开发者报告.pdf 在第二章《TOP 101-2024 大模型观点》中,生成式AI开发者莫尔索总结了2024年AI开发者中间件工具生态。全文如下。 AI开发者中间件工具生态2024年总结 文/莫尔索 AI应用开发者工具自下而上涵盖了模型托管与推理服务、代理工作流编排、大型模型应用的监控与追踪、模型输出的可控性以及安全工具等多个层面。模型是AI应用的核心组成部分,其服务需依赖推理引擎实现。开发者接入模型的方式大致可分为四类: 首先是以模型初创企业为代表,提供先进的商业闭源模型,如 OpenAI、Anthropic、智谱及 MiniMax 等。 其次是由 TogetherAI、Groq、Fireworks、Replicate、硅基流动等组成的 GPU 推理集群服务提供商,它们处理扩展与缩减等技术难题,并在基本计算费用基础上收取额外费用,从而让应...
- 下一篇
机房迁移,不同 Pod 副本请求耗时会相差数倍?
作者:昭飞,铖朴 问题背景 近期,某企业客户的应用需要迁移到其他机房的机器上。在迁移前夕的测试过程中,客户发现当同一个应用的多个 Pod 副本,被调度到 Kubernetes 多个不同节点上时,部分节点(慢节点)上的应用实例耗时显著高于其他节点,同时观察发现,这些慢节点都是迁移后的节点,请求在迁移前的节点上耗时均是正常的。 从上图中可以看到,红框中的第一个实例的平均耗时显著高于其他实例,而其所在的节点即为迁移后的节点上。此问题阻塞了客户的机房迁移进展,联系阿里云工程师需要帮助分析耗时出现差异的根因。 问题排查 梳理耗时点 工程师在了解了需求后,首先梳理了客户系统应用的访问链路,跟进客户反馈,其问题最为严重的 Gateway 应用,部署形态大致如下: 基于上述信息,无法直接判断出具体的耗时点在哪?好在工程师发现,系统应用均接入到了阿里云 ARMS 中,想到可以通过查看调用链进一步判断耗时点。 于是,在 ARMS 中查看一条慢调用记录的调用链,发现刨去 Gateway 的下游应用耗时,有 7s 多的时间消耗在了 Gateway 应用身上,这部分的耗时包含了 Gateway 应用自身的执行耗...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- Windows10,CentOS7,CentOS8安装MongoDB4.0.16
- Linux系统CentOS6、CentOS7手动修改IP地址
- CentOS7编译安装Gcc9.2.0,解决mysql等软件编译问题
- Jdk安装(Linux,MacOS,Windows),包含三大操作系统的最全安装
- SpringBoot2整合Redis,开启缓存,提高访问速度
- SpringBoot2整合MyBatis,连接MySql数据库做增删改查操作
- CentOS8,CentOS7,CentOS6编译安装Redis5.0.7
- MySQL8.0.19开启GTID主从同步CentOS8
- Mario游戏-低调大师作品
- CentOS7安装Docker,走上虚拟化容器引擎之路