周鸿祎提出 AI 智能体 L1-L5 分级
360 集团创始人周鸿祎借鉴自动驾驶的智能级别划分,首次提出了一套完整的智能体(Agent)L1至L5的分级模型,并明确了360集团在其中的战略定位。
周鸿祎指出,最高级的L5级智能体将具备“创造智能体”的能力,是AI发展的终极形态。
他将目前和未来的智能体划分为以下几个层级:
- L4级 - 多智能体蜂群:能够协同完成复杂任务,如长视频生成或网站开发等创造性工作。其单次任务的tokens消耗量巨大,介于1000万至1亿之间。
- L3级 - 推理型智能体:以Manus等模型为代表,具备深度研究和分析能力,可胜任制作专业海报和网页等复杂工作。其单次对话的tokens消耗量约为100万。
- L2级 - 工作流智能体:主要应用于知识库管理和流程自动化等场景,单次对话消耗的tokens量小于等于100万。
- L1级 - 聊天助手:以OpenAI的ChatGPT为典型代表,主要应用于情感陪伴和基础问答等领域。
周鸿祎强调,360集团的目标远不止于停留在L2级别。他透露,公司正致力于打造L3和L4级别的高阶智能体。
为此,360已推出“智能体工厂”,该平台能够支持从L1到L4级别的智能体及智能体蜂群的构建,旨在让每个企业和个人都能根据自身需求,定制专属的L3级推理型智能体和L4级智能体蜂群,从而在AI时代获得更强大的生产力。
关注公众号
低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
-
上一篇
Ollama 推出付费服务“Turbo”
Ollama 推出了名为“Turbo”的付费服务,旨在解决本地运行超大模型的性能瓶颈,让用户在数据中心级的硬件上运行大型开源模型,服务月费为 20 美元。 Ollama “Turbo”适用场景: 本地显卡显存不足,无法加载 120B 级别模型 需要快速原型验证、批量推理或高并发调用 希望保持本地环境简洁,同时获得接近数据中心的性能 据介绍,Ollama “Turbo”服务主要解决新模型体积过大、在普通 GPU 上难以运行或运行缓慢的问题。通过将模型运行负载转移到云端,用户可以释放本地计算机(Mac, Windows, Linux)的性能。在预览阶段,Turbo 支持 gpt-oss-20b 和 gpt-oss-120b 模型。 该服务与 Ollama 的 CLI、API 以及 JavaScript/Python 库完全兼容。Ollama 承诺不会记录或保留通过 Turbo 模式进行的任何查询,所有硬件均位于美国。
-
下一篇
金融级 ZooKeeper 来袭:性能提升100%,SLA 99.99%,数据防护升级
作者:草谷 简介 阿里云微服务引擎 MSE ZooKeeper 企业版正式发布,提供比专业版更高的稳定性与安全能力,SLA 达 99.99%,整体服务性能提升 100%。针对关键业务,企业版通过独享资源池实现更高规格配额,满足大规模需求。此外新增数据备份容灾、容量管理反脆弱限流等功能,提升整体企业级特性,助力企业应对复杂业务挑战。 企业版 vs. 开源自建 分布式系统的稳定性与安全性已成为企业核心竞争力的关键支撑。作为分布式协调服务的标杆,ZooKeeper 的部署与运维模式直接影响企业业务的连续性与效率。相较于开源自建方案,阿里云 MSE 托管 ZooKeeper 凭借深度打磨的企业级特性,为企业提供了更可靠、高效、安全的服务选择,重新定义了分布式协调服务的运维标准。 企业版 vs. 专业版 超高稳定性,99.99% SLA 承诺 容量管理规范: 针对链接数、watch 数、内存大小等核心指标,实施基于规格的限流策略。该规范如同为集群设置智能调控机制,可依据实际情况动态调整阈值,有效抵御突发流量对集群的冲击,减少因资源耗尽引发的 FullGc 现象,保障集群始终处于稳定的负载区间。 ...
相关文章
文章评论
共有0条评论来说两句吧...


微信收款码
支付宝收款码