首页 文章 精选 留言 我的

精选列表

搜索[开启],共10000篇文章
优秀的个人博客,低调大师

MOSN 子项目 Layotto:开启服务网格+应用运行时新篇章

作者简介: 马振军,花名古今,在基础架构领域耕耘多年,对 Service Mesh 有深度实践经验,目前在蚂蚁集团中间件团队负责 MOSN、Layotto 等项目的开发工作。 Layotto官方GitHub地址: https://github.com/mosn/layotto 点击链接即可观看现场视频:https://www.bilibili.com/video/BV1hq4y1L7FY/ Service Mesh 在微服务领域已经非常流行,越来越多的公司开始在内部落地,蚂蚁从 Service Mesh 刚出现的时候开始,就一直在这个方向上大力投入,到目前为止,内部的 Mesh 方案已经覆盖数千个应用、数十万容器并且经过了多次大促考验,Service Mesh 带来的业务解耦,平滑升级等优势大大提高了中间件的迭代效率。 在大规模落地以后,我们又遇到了新的问题,本文主要对 Service Mesh 在蚂蚁内部落地情况进行回顾总结,并分享对 Service Mesh 落地后遇到的新问题的解决方案。 一、Service Mesh 回顾与总结 A、Service Mesh 的初衷 在微服务架构下,基础架构团队一般会为应用提供一个封装了各种服务治理能力的 SDK,这种做法虽然保障了应用的正常运行,但缺点也非常明显,每次基础架构团队迭代一个新功能都需要业务方参与升级才能使用,尤其是 bugfix 版本,往往需要强推业务方升级,这里面的痛苦程度每一个基础架构团队成员都深有体会。 伴随着升级的困难,随之而来的就是应用使用的 SDK 版本差别非常大,生产环境同时跑着各种版本的 SDK,这种现象又会让新功能的迭代必须考虑各种兼容,就好像带着枷锁前进一般,这样随着不断迭代,会让代码维护非常困难,有些祖传逻辑更是一不小心就会掉坑里。 同时这种“重”SDK 的开发模式,导致异构语言的治理能力非常薄弱,如果想为各种编程语言都提供一个功能完整且能持续迭代的 SDK 其中的成本可想而知。 18 年的时候,Service Mesh 在国内持续火爆,这种架构理念旨在把服务治理能力跟业务解耦,让两者通过进程级别的通信方式进行交互。在这种架构模式下,服务治理能力从应用中剥离,运行在独立的进程中,迭代升级跟业务进程无关,这就可以让各种服务治理能力快速迭代,并且由于升级成本低,因此每个版本都可以全部升级,解决了历史包袱问题,同时 SDK 变“轻”直接降低了异构语言的治理门槛,再也不用为需要给各个语言开发相同服务治理能力的 SDK 头疼了。 B、Service Mesh 落地现状 蚂蚁很快意识到了 Service Mesh 的价值,全力投入到这个方向,用 Go 语言开发了 MOSN 这样可以对标 envoy 的优秀数据面,全权负责服务路由,负载均衡,熔断限流等能力的建设,大大加快了公司内部落地 Service Mesh 的进度。 现在 MOSN 在蚂蚁内部已经覆盖了数千个应用、数十万容器,新创建的应用默认接入 MOSN,形成闭环。而且在大家最关心的资源占用、性能损耗方面 MOSN 也交出了一份让人满意的答卷: 1. RT 小于 0.2ms 2. CPU 占用增加 0%~2% 3. 内存消耗增长小于 15M 由于 Service Mesh 降低了异构语言的服务治理门槛,NodeJS、C++等异构技术栈也在持续接入到 MOSN 中。 在看到 RPC 能力 Mesh 化带来的巨大收益之后,蚂蚁内部还把 MQ,Cache,Config 等中间件能力都进行了 Mesh 化改造,下沉到 MOSN,提高了中间件产品整体的迭代效率。 C、新的挑战 1. 应用跟基础设施强绑定 一个现代分布式应用,往往会同时依赖 RPC、Cache、MQ、Config 等各种分布式能力来完成业务逻辑的处理。 当初看到 RPC 下沉的红利以后,其他各种能力也都快速下沉。初期,大家都会以自己最熟悉的方式来开发,这就导致没有统一的规划管理,如上图所示,应用依赖了各种基础设施的 SDK,而每种 SDK 又以自己特有的方式跟 MOSN 进行交互,使用的往往都是由原生基础设施提供的私有协议,这直接导致了复杂的中间件能力虽然下沉,但应用本质上还是被绑定到了基础设施,比如想把缓存从 Redis 迁移到 Memcache 的话,仍旧需要业务方升级 SDK,这种问题在应用上云的大趋势下表现的更为突出,试想一下,如果一个应用要部署在云上,由于该应用依赖了各种基础设施,势必要先把整个基础设施搬到云上才能让应用顺利部署,这其中的成本可想而知。 因此如何让应用跟基础设施解绑,使其具备可移植能力,能够无感知跨平台部署是我们面临的第一个问题。 2. 异构语言接入成本高 事实证明 Service Mesh 确实降低了异构语言的接入门槛,但在越来越多的基础能力下沉到 MOSN 以后,我们逐渐意识到为了让应用跟 MOSN 交互,各种 SDK 里都需要对通信协议,序列化协议进行开发,如果再加上需要对各种异构语言都提供相同的功能,那维护难度就会成倍上涨, Service Mesh 让重 SDK 成为了历史,但对于现在各种编程语言百花齐放、各种应用又强依赖基础设施的场景来说,我们发现现有的 SDK 还不够薄,异构语言接入的门槛还不够低,如何进一步降低异构语言的接入门槛是我们面临的第二个问题。 二、Multi Runtime 理论概述 A、什么是 Runtime? 20 年初的时候,Bilgin lbryam 发表了一篇名为 Multi-Runtime Microservices Architecture 的文章,里面对微服务架构下一阶段的形态进行了讨论。 如上图所示,作者把分布式服务的需求进行了抽象,总共分为了四大类: 1. 生命周期(Lifecycle) 主要指应用的编译、打包、部署等事情,在云原生的大趋势下基本被 docker、kubernetes 承包。 2. 网络(Networking) 可靠的网络是微服务之间进行通信的基本保障,Service Mesh 正是在这方面做了尝试,目前 MOSN、envoy 等流行的数据面的稳定性、实用性都已经得到了充分验证。 3. 状态(State) 分布式系统需要的服务编排,工作流,分布式单例,调度,幂等性,有状态的错误恢复,缓存等操作都可以统一归为底层的状态管理。 4. 绑定(Binding) 在分布式系统中,不仅需要跟其他系统通信,还需要集成各种外部系统,因此对于协议转换,多种交互模型、错误恢复流程等功能也都有强依赖。 明确了需求以后,借鉴了 Service Mesh 的思路,作者对分布式服务的架构演进进行了如下总结: 第一阶段就是把各种基础设施能力从应用中剥离解耦,通通变成独立 sidecar 模型伴随着应用一起运行。 第二阶段是把各种 sidecar 提供的能力统一抽象成若干个 Runtime,这样应用从面向基础组件开发就演变成了面向各种分布式能力开发,彻底屏蔽掉了底层实现细节,而且由于是面向能力,除了调用提供各种能力的 API 之外,应用再也不需要依赖各种各样基础设施提供的 SDK 了。 作者的思路跟我们希望解决的问题一致,我们决定使用 Runtime 的理念来解决 Service Mesh 发展到现在所遇到的新问题。 B、Service Mesh vs Runtime 为了让大家对 Runtime 有一个更加清晰的认识,上图针对 Service Mesh 跟 Runtime 两种理念的定位、交互方式、通信协议以及能力丰富度进行了总结,可以看到相比 Service Mesh 而言,Runtime 提供了语义明确、能力丰富的 API,可以让应用跟它的交互变得更加简单直接。 三、MOSN 子项目 Layotto A、dapr 调研 dapr 是社区中一款知名的 Runtime 实现产品,活跃度也比较高,因此我们首先调研了 dapr 的情况,发现 dapr 具有如下优势: 1. 提供了多种分布式能力,API 定义清晰,基本能满足一般的使用场景。 2. 针对各种能力都提供了不同的实现组件,基本涵盖了常用的中间件产品,用户可以根据需要自由选择。 当考虑如何在公司内部落地 dapr 时,我们提出了两种方案,如上图所示: 1. 替换:废弃掉现在的 MOSN,用 dapr 进行替换,这种方案存在两个问题: a. dapr 虽然提供了很多分布式能力,但目前并不具备 Service Mesh 包含的丰富的服务治理能力。 b. MOSN 在公司内部已经大规模落地,并且经过了多次大促考验,直接用 dapr 来替换 MOSN 稳定性有待验证。 2. 共存:新增一个 dapr 容器,跟 MOSN 以两个 sidecar 的模式进行部署。这种方案同样存在两个问题: a. 引入一个新的 sidecar,我们就需要考虑它配套的升级、监控、注入等等事情,运维成本飙升。 b. 多维护一个容器意味着多了一层挂掉的风险,这会降低现在的系统可用性。 同样的,如果你目前正在使用 envoy 作为数据面,也会面临上述问题。 因此我们希望把 Runtime 跟 Service Mesh 两者结合起来,通过一个完整的 sidecar 进行部署,在保证稳定性、运维成本不变的前提下,最大程度复用现有的各种 Mesh 能力。此外我们还希望这部分 Runtime 能力除了跟 MOSN 结合起来之外,未来也可以跟 envoy 结合起来,解决更多场景中的问题,Layotto 就是在这样的背景下诞生。 B、Layotto 架构 如上图所示,Layotto 是构建在 MOSN 之上,在下层对接了各种基础设施,向上层应用提供了统一的,具有各种各样分布式能力的标准 API。对于接入 Layotto 的应用来说,开发者不再需要关心底层各种组件的实现差异,只需要关注应用需要什么样的能力,然后调用对应能力的 API 即可,这样可以彻底跟底层基础设施解绑。 对应用来说,交互分为两块,一个是作为 gRPC Client 调用 Layotto 的标准 API,一个是作为 gRPC Server 来实现 Layotto 的回调,得利于gRPC 优秀的跨语言支持能力,应用不再需要关心通信、序列化等细节问题,进一步降低了异构技术栈的使用门槛。 除了面向应用,Layotto 也向运维平台提供了统一的接口,这些接口可以把应用跟 sidecar 的运行状态反馈给运维平台,方便 SRE 同学及时了解应用的运行状态并针对不同状态做出不同的举措,该功能考虑到跟 k8s 等已有的平台集成,因此我们提供了 HTTP 协议的访问方式。 除了 Layotto 本身设计以外,项目还涉及两块标准化建设,首先想要制定一套语义明确,适用场景广泛的 API 并不是一件容易的事情,为此我们跟阿里、 dapr 社区进行了合作,希望能够推进 Runtime API 标准化的建设,其次对于 dapr 社区已经实现的各种能力的 Components 来说,我们的原则是优先复用、其次开发,尽量不把精力浪费在已有的组件上面,重复造轮子。 最后 Layotto 目前虽然是构建在 MOSN 之上,未来我们希望 Layotto 可以跑在 envoy 上,这样只要应用接入了 Service Mesh,无论数据面使用的是 MOSN 还是 envoy,都可以在上面增加 Runtime能力。 C、Layotto 的移植性 如上图所示,一旦完成 Runtime API 的标准化建设,接入 Layotto 的应用天然具备了可移植性,应用不需要任何改造就可以在私有云以及各种公有云上部署,并且由于使用的是标准 API,应用也可以无需任何改造就在 Layotto 跟 dapr 之间自由切换。 D、名字含义 从上面的架构图可以看出,Layotto 项目本身是希望屏蔽基础设施的实现细节,向上层应用统一提供各种分布式能力,这种做法就好像是在应用跟基础设施之间加了一层抽象,因此我们借鉴了 OSI 对网络定义七层模型的思路,希望 Layotto 可以作为第八层对应用提供服务,otto 是意大利语中8的意思,Layer otto 就是第八层的意思,简化了一下变成了 Layotto,同时项目代号 L8,也是第八层的意思,这个代号也是设计我们项目 LOGO 时灵感的来源。 介绍完项目的整体情况,下面对其中四个主要功能的实现细节进行说明。 E、配置原语 首先是分布式系统中经常使用的配置功能,应用一般使用配置中心来做开关或者动态调整应用的运行状态。Layotto 中配置模块的实现包括两部分,一个是对如何定义配置这种能力的 API 的思考,一个是具体的实现,下面逐个来看。 想要定义一个能满足大部分实际生产诉求的配置 API 并不是一件容易的事,dapr 目前也缺失这个能力,因此我们跟阿里以及 dapr 社区一起合作,为如何定义一版合理的配置 API 进行了激烈讨论。 目前讨论结果还没有最终确定,因此 Layotto 是基于我们提给社区的第一版草案进行实现,下面对我们的草案进行简要说明。 我们先定义了一般配置所需的基本元素: 1. appId:表示配置属于哪个应用 2. key:配置的 key 3. content:配置的值 4. group:配置所属的分组,如果一个 appId 下面的配置过多,我们可以给这些配置进行分组归类,便于维护。 此外我们追加了两种高级特性,用来适配更加复杂的配置使用场景: 1. label,用于给配置打标签,比如该配置属于哪个环境,在进行配置查询的时候,我们会使用 label+ key 来查询配置。 2. tags,用户给配置追加的一些附加信息,如描述信息、创建者信息,最后修改时间等等,方便配置的管理,审计等。 对于上述定义的配置 API 的具体实现,目前支持查询、订阅、删除、创建、修改五种操作,其中订阅配置变更后的推送使用的是 gRPC 的 stream 特性,而底层实现这些配置能力的组件,我们选择了国内流行的 apollo,后面也会根据需求增加其他实现。 F、Pub/Sub 原语 对于 Pub/Sub 能力的支持,我们调研了 dapr 现在的实现,发现基本上已经可以满足我们的需求,因此我们直接复用了 dapr 的 API 以及 components,只是在 Layotto 里面做了适配,这为我们节省了大量的重复劳动,我们希望跟 dapr 社区保持一种合作共建的思路,而不是重复造轮子。 其中 Pub 功能是 App 调用 Layotto 提供的 PublishEvent 接口,而 Sub 功能则是应用通过 gRPC Server 的形式实现了 ListTopicSubscriptions 跟 OnTopicEvent 两个接口,一个用来告诉 Layotto 应用需要订阅哪些 topic,一个用于接收 topic 变化时 Layotto 的回调事件。 dapr 对于 Pub/Sub 的定义基本满足我们的需求,但在某些场景下仍有不足,dapr 采用了 CloudEvent 标准,因此 Pub 接口没有返回值,这无法满足我们生产场景中要求 Pub 消息以后服务端返回对应的 messageID 的需求,这一点我们已经把需求提交给了 dapr 社区,还在等待反馈,考虑到社区异步协作的机制,我们可能会先社区一步增加返回结果,然后再跟社区探讨一种更好的兼容方案。 G、RPC 原语 RPC 的能力大家不会陌生,这可能是微服务架构下最最基础的需求,对于 RPC 接口的定义,我们同样参考了 dapr 社区的定义,发现完全可以满足我们的需求,因此接口定义就直接复用 dapr 的,但目前 dapr 提供的 RPC 实现方案还比较薄弱,而 MOSN 经过多年迭代,能力已经非常成熟完善,因此我们大胆把 Runtime 跟 Service Mesh 两种思路结合在一起,把 MOSN 本身作为我们实现 RPC 能力的一个 Component,这样 Layotto 在收到 RPC 请求以后交给 MOSN 进行实际数据传输,这种方案可以通过 istio 动态改变路由规则,降级限流等等设置,相当于直接复用了 Service Mesh 的各种能力,这也说明 Runtime 不是要推翻 Service Mesh,而是要在此基础上继续向前迈一步。 具体实现细节上,为了更好的跟 MOSN 融合,我们在 RPC 的实现上面加了一层 Channel,默认支持dubbo,bolt,http 三种常见的 RPC 协议,如果仍然不能满足用户场景,我们还追加了 Before/After 两种 Filter,可以让用户做自定义扩展,实现协议转换等需求。 H、Actuator 原语 在实际生产环境中,除了应用所需要的各种分布式能力以外,PaaS 等运维平台往往需要了解应用的运行状态,基于这种需求,我们抽象了一套 Actuator 接口,目前 dapr 还没有提供这方面的能力,因此我们根据内部的需求场景进行了设计,旨在把应用在启动期、运行期等阶段各种各样的信息暴露出去,方便 PaaS 了解应用的运行情况。 Layotto 把暴露信息分为两大类: 1. Health:该模块判断应用当前运行状态是否健康,比如某个强依赖的组件如果初始化失败就需要表示为非健康状态,而对于健康检查的类型我们参考了 k8s,分为: a. Readiness:表示应用启动完成,可以开始处理请求。 b. Liveness:表示应用存活状态,如果不存活则需要切流等。 2. Info:该模块预期会暴露应用的一些依赖信息出去,如应用依赖的服务,订阅的配置等等,用于排查问题。 Health 对外暴露的健康状态分为以下三种: 1. INIT:表示应用还在启动中,如果应用发布过程中返回该值,这个时候 PaaS 平台应该继续等待应用完成启动。 2. UP:表示应用启动正常,如果应用发布过程中返回该值,意味着 PasS 平台可以开始放入流量。 3. DOWN:表示应用启动失败,如果应用发布过程中返回该值,意味着 PaaS 需要停止发布并通知应用 owner。 到这里关于 Layotto 目前在 Runtime 方向上的探索基本讲完了,我们通过定义明确语义的 API,使用 gRPC 这种标准的交互协议解决了目前面临的基础设施强绑定、异构语言接入成本高两大问题。随着未来 API 标准化的建设,一方面可以让接入 Layotto 的应用无感知的在各种私有云、公有云上面部署,另一方面也能让应用在 Layotto,dapr 之间自由切换,提高研发效率。 目前 Serverless 领域也是百花齐放,没有一种统一的解决方案,因此 Layotto 除了在上述 Runtime 方向上的投入以外,还在 Serverless 方向上也进行了一些尝试,下面就尝试方案进行介绍。 四、WebAssembly 的探索 A、WebAssembly 简介 WebAssembly,简称 WASM,是一个二进制指令集,最初是跑在浏览器上来解决 JavaScript 的性能问题,但由于它良好的安全性,隔离性以及语言无关性等优秀特性,很快人们便开始让它跑在浏览器之外的地方,随着 WASI 定义的出现,只需要一个 WASM 运行时,就可以让 WASM 文件随处执行。 既然 WebAssembly 可以在浏览器以外的地方运行,那么我们是否能把它用在 Serverless 领域?目前已经有人在这方面做了一些尝试,不过如果这种方案真的想落地的话,首先要考虑的就是如何解决运行中的 WebAssembly 对各种基础设施的依赖问题。 B、WebAssembly 落地原理 目前 MOSN 通过集成 WASM Runtime 的方式让 WASM 跑在 MOSN 上面,以此来满足对 MOSN 做自定义扩展的需求。同时,Layotto 也是构建在 MOSN 之上,因此我们考虑把二者结合在一起,实现方案如下图所示: 开发者可以使用 Go/C++/Rust 等各种各样自己喜欢的语言来开发应用代码,然后把它们编译成 WASM 文件跑在 MOSN 上面,当 WASM 形态的应用在处理请求的过程中需要依赖各种分布式能力时就可以通过本地函数调用的方式调用 Layotto 提供的标准 API,这样直接解决了 WASM 形态应用的依赖问题。 目前 Layotto 提供了 Go 跟 Rust 版 WASM 的实现,虽然只支持 demo 级功能,但已经足够让我们看到这种方案的潜在价值。 此外,WASM 社区目前还处于初期阶段,有很多地方需要完善,我们也给社区提交了一些 PR共同建设,为 WASM 技术的落地添砖加瓦。 C、WebAssembly 落地展望 虽然现在 Layotto 中对 WASM 的使用还处于试验阶段,但我们希望它最终可以成为 Serverless 的一种实现形态,如上图所示,应用通过各种编程语言开发,然后统一编译成 WASM 文件,最后跑在 Layotto+MOSN 上面,而对于应用的运维管理统一由 k8s、docker、prometheus 等产品负责。 五、社区规划 最后来看下 Layotto 在社区的做的一些事情。 A、Layotto vs Dapr 上图列出了 Layotto 跟 dapr 现有的能力对比,在 Layotto 的开发过程中,我们借鉴 dapr 的思路,始终以优先复用、其次开发为原则,旨在达成共建的目标,而对于正在建设或者未来要建设的能力来说,我们计划优先在 Layotto 上落地,然后再提给社区,合并到标准 API,鉴于社区异步协作的机制,沟通成本较高,因此短期内可能 Layotto 的 API 会先于社区,但长期来看一定会统一。 B、API 共建计划 关于如何定义一套标准的 API 以及如何让 Layotto 可以跑在 envoy 上等等事项,我们已经在各个社区进行了深入讨论,并且以后也还会继续推进。 C、Roadmap Layotto 在目前主要支持 RPC、Config、Pub/Sub、Actuator 四大功能,预计在九月会把精力投入到分布式锁、State、可观测性上面,十二月份会支持 Layotto 插件化,也就是让它可以跑在 envoy 上,同时希望对 WebAssembly 的探索会有进一步的产出。 D、正式开源 前面详细介绍了 Layotto 项目,最重要的还是该项目今天作为 MOSN 的子项目正式开源,我们提供了详细的文档以及 demo 示例方便大家快速上手体验。 对于 API 标准化的建设是一件需要长期推动的事情,同时标准化意味着不是满足一两种场景,而是尽可能的适配大多数使用场景,为此我们希望更多的人可以参与到 Layotto 项目中,描述你的使用场景,讨论 API 的定义方案,一起提交给社区,最终达成 Write once, Run anywhere 的终极目标!

优秀的个人博客,低调大师

高额奖池、院士评定,首届全球人工智能技术创新大赛开启征召!

随着新一轮科技革命和产业变革的来临,产业智能化升级与转型正迈进新的加速阶段。积淀的AI技术如何下沉到行业,如何构建良好的智能发展生态,如何在更深刻的层面影响大众生活,成为了当前关键问题。 在过去十几年的AI浪潮中,计算机视觉与自然语言处理技术的突破,为各行各业的发展带来了新的潜力。如今随着AI技术突破的放缓,我们需要认真思考,如何将这些技术突破应用金融、医疗、汽车、手机等各个领域,通过不断的开拓、创新,推动产业智能化变革。 此外,产业的智能化转型还需要人才。技术人才的能力和视野,直接决定了智能化转型的深度和高度。 为了推动AI技术的应用创新,促进人工智能领域的学术交流、人才培养,打造人工智能的人才交流平台与产业生态圈。首届全球人工智能技术创新大赛已于今年年初开赛。 此届大赛由中国人工智能学会和杭州市余杭区人民政府共同创办,杭州市未来科技城管委会、阿里云计算有限公司、清华-OPPO未来终端技术研究中心联合承办,力求打造具有“高层次、高价值、高奖励”三高特性的人工智能标志赛事,为菁英人才提供一个打破国界与领域限制的竞技舞台。 在赛题设置上,结合人工智能领域的技术发展,大赛设置医学影像报告异常检测、PANDA大场景多对象检测跟踪、小布助手对话短文本语义匹配三大赛题,邀请全球AI人才共同突破赛题中的关键技术瓶颈,推进下一代人工智能前瞻性研究发展。 此外,大赛设置150万元的高额奖金池,即日起至4月7日面向全球开放线上征召,不论你是高校在校生(包括高职高专、本科生、研究生),或是科研机构学者、企业技术开发者,不限年龄和国籍,均可报名角逐。 我们接下来就说下这场2021年最值得关注的AI技术创新大赛为何值得参赛。 三大赛题融合技术突破、行业应用 首先,该大赛三大赛题在设置上,既包含计算机视觉与NLP两大热点AI技术,又兼顾了算法突破与行业应用。 对于影像科的医生来说,观察医学影像并得出患者状况是一项的常见任务,这些观察结果可供临床医生得出诊断意见和进一步检查的建议。随着深度学习和计算机视觉等技术的发展和落地,「医学影像+AI」这一领域被寄予厚望。这项技术的应用推广不仅能在一定意义上减轻医生的日常工作量,也能够协助医生提高诊断准确率。 因此本次大赛赛题一的任务要求参赛队伍根据医生对CT的影像描述文本数据,判断身体若干目标区域是否有异常以及异常的类型。初赛阶段仅需判断各区域是否有异常;复赛阶段除了判断有异常的区域外,还需判断异常的类型。 赛题二是当前计算机视觉领域热点研究方向之一:大场景多对象检测跟踪,赛题包含大场景多目标检测、追踪等视觉任务,旨在推动人工智能在大场景多对象复杂关系上研究的发展。 赛题三聚焦NLP技术落地应用,解决产业实际问题。在智能移动终端普及的今天,「语音助手」俨然已经成为了很多人最熟悉、最亲近的家庭成员之一。意图识别是这类对话系统中的一个核心任务,而对话短文本语义匹配是意图识别的主流算法方案之一。本赛题以OPPO「小布助手」为基础,要求参赛队伍根据脱敏后的短文本query-pair预测它们是否属于同一语义。 与此同时,本次大赛由中国最具影响力的竞赛平台——阿里云天池平台提供平台和算力的支撑,助力AI人才的培养,丰富技术创新生态的建设。 豪华嘉宾阵容与高额奖金 除了考究的赛题设置,豪华的嘉宾评委阵容与高额奖金也是不得不参赛的原因。 中国工程院院士戴琼海、中国工程院院士陈杰、南京大学人工智能学院院长周志华教授等将为大赛提供最为专业的指导,为全球参赛选手们提供质量最高的同台竞技平台。 图:部分嘉宾评委 为方便更多技术人才参与,并有充分的准备时间,即日起至4月7日都可报名及组队。大赛在流程设计上分为初赛、复赛、总决赛三个赛程,层层把关,确保更公平、更严格的评选出优质项目。 在奖金方面,每个赛道奖金池总额分别为50万人民币,大赛总奖金池高达150万。此外,在每个赛道的初赛阶段,大赛设立周周星奖励。从初赛第三周开始,以每周一中午12点的排行榜为准,取前两名参赛队伍发放周周星特别礼物。 更多大赛详情,请参考官网(点击阅读原文): https://gaiic.tianchi.aliyun.com/ 配套「AI青年说」,推动技术布道与科普公益 除了参赛,「吃瓜选手们」也可通过另一种方式参与该盛事。 在大赛进行期间,中国人工智能学会为扩大大赛影响力与社会关注度,推进人工智能技术发展与交流,特发起「AI青年说」系列活动,邀请知名青年学者,面向人工智能与前沿科技从业者与泛科技人群,探讨理论研究与应用实践中的热点话题,欢迎大家积极关注。

优秀的个人博客,低调大师

浙江赛区总决赛即将开启,巅峰对决即将上演

8月21日,浙江赛区总决赛将在杭州国大雷迪森广场酒店举行,届时优选出的参赛队伍将会在活动现场进行路演答辩,对参赛作品进行详细讲解,同时还有资深技术评委坐镇现场,为参赛队伍进行打分,评选出获胜队伍后将现场进行颁奖。 壮大鲲鹏应用产业生态是我国计算产业发展的“振芯铸魂”的工程,也是浙江省数字经济高质量发展的重要抓手,推动鲲鹏计算产业生态发展需要立足于信息技术应用创新体系的建设。通过本次大赛,助力更硬的实力来推动浙江省信息化产业的进步和信息技术应用创新体系的发展。 大赛围绕“行业应用孵化,鲲鹏商用部署”进行,以具备能够商用落地的应用系统为报名前提条件,邀请广大高校及行业应用系统厂商组建参赛队伍参赛,征集各行业各类解决方案作品,吸引全产业开发者共同打造鲲鹏全栈解决方案,实现技术与商业创新应用。 作为全国十三大赛区的其中一环,浙江赛区自2020年7月1日开放报名通道起,一个月的时间里,浙江赛区吸引了近百支参赛队伍,近三百名开发者的报名。而走到总决赛的50支队伍更是精兵强将,以代码过招、用实力说话,争做技术的弄潮儿。为确保大赛的公平公正性,本次大赛将采取现场答辩形式选出获胜队伍。 值得一提的是,浙江赛区赛事激励总额高达70万,将在“金融”、“政府”、“大数据”、“ARM原生应用”和“开放命题”五大赛题下选出一、二、三等奖,获得一等奖的团队将有机会参加“华为开发者大赛·鲲鹏应用创新大赛 2020”全国赛,进行更加激烈的角逐。 信息化浪潮势不可挡,在这场对决中,作为参赛者,势必将此次大赛当做实践、创新的练兵场;作为观战者,时代的参与者,我们也将从中收获诸多感悟,并得以沉淀。生命不息,代码不断,创作不止,让我们一起期待这场代码与代码间的实力对决! 【责任编辑: 张燕妮 TEL:(010)68476606】

优秀的个人博客,低调大师

创客北京2020·鲲鹏应用创新专项赛总决赛即将开启,大赛桂冠花落谁家!

2020年8月20日,创客北京2020 · 鲲鹏应用创新专项赛将迎来激动人心的时刻。在备受瞩目的专家评审环节,主办方将在现场邀请入围选手参与大赛总决赛,专家评审小组将从方案创新性、技术领先性、商业前景、社会价值等多个维度进行评选,最终评选出优秀作品,评选结果将于8月24日正式发布。 自7月2日启动赛事以来,这场由工业和信息化部、财政部指导,北京市经济和信息化局、北京市财政局、中关村科学城管理委员会主办,北京市中小企业服务中心、北京市中小企业公共服务平台、北京创业投资创新服务联盟、北京鲲鹏联合创新中心、华为技术有限公司承办、北京市丰台区发展投资有限公司协办的大赛在北京地区引发了极大的关注,应者云集,历时45天,513位选手参赛,144个作品完成提交,大战一触即发! 创客北京2020 · 鲲鹏应用创新专项赛设置了五大赛题,分别是“鲲鹏生态:使能金融行业”、“鲲鹏生态:使能数字政府”、“ARM原生创新应用”、“大数据创新解决方案”、“开放命题”。专家评审小组秉持着公平公正的原则,将分别在这五大赛题中评选出一等奖、二等奖、三等奖各五个团队。其中,一等奖每个团队奖励5万元现金和价值12500元华为终端大礼包,二等奖每个团队奖励3万现金+价值7500元华为终端大礼包,三等奖每个团队奖励3万元现金。增设鼓励奖15名,每个团队奖励1万现金,赛事奖项激励总额高达80万。 专家评审小组将从五个一等奖团队中,将评选出一个技术价值、应用价值和商业落地价值最高的1个团队给予额外的特别奖励。五大赛题一等奖团队还将被推选参加“华为开发者大赛@鲲鹏应用创新大赛2020”全国赛。 目前大赛评审已经进入倒计时阶段,评审专家和参赛选手都在积极准备,大战一触即发,让我们敬请期待鲲鹏大赛桂冠花落谁家! 【责任编辑: 张燕妮 TEL:(010)68476606】

优秀的个人博客,低调大师

阿里“AI慧眼”助力识货开启,全新购物体验!

识货的“AI慧眼”,所见即所得 迎着内容电商崛起的风口,识货APP精准的找到了体育客群对正品运动装备的选购“明星同款偏好”,成功握住了内容电商的红利期。为了在内容深度上更好地迎合用户内容导购的要求,缩短交易转化流程,优化用户体验,在2018年,从创立之初就在云上的识货找到阿里云,将阿里云图像搜索产品引入。 图像搜索为识货的用户带来了一种全新的购物方式,无论用户何时何地看上一款球鞋或体育装备,只需要打开识货,用手机给商品拍照上传图片,搜索后就能获取与商品外观、颜色等相近的搜索结果,详细了解商品的基本信息、用户评价、达人推荐等内容。 “以图搜图”给识货提供了一双“AI慧眼”,帮助用户省去了繁琐的文字搜索和标签筛选的步骤,大大缩短了用户在线购物流程和时间,更为重要的是“所见即所得”,可对未知描述的商品进行快速定位。 现在,识货上每月百万次的搜索都在云上发生。 引入阿里云的图像搜索产品之后,识货的用户购买商品转化率提升了65%,日均使用量不断提升,在云上都不必担心” 虎扑表示。 阿里云图像搜索的“以图搜图”技术源自手淘“拍立淘”,拥有目前业界精度最高的图搜检索引擎,由阿里自研,可支持百亿级别的检索,因为结合了超大规模聚类、量化索引等技术,实现了毫秒级的结果反馈,支持全局场景应用的覆盖,包括电商,零售,纺织,商标等等。 与虎扑网主站不同,识货、毒从诞生之初就根植在阿里云上,数据流转、业务处理都架构在云端,充分体验到了云原生的优势,云原生已然成为了虎扑不断扩大体育生态边界的新“图腾”。不断累积的默契和信任,以及新业务所获得的突破,成为了虎扑决定2018年All in阿里云的基石。 以上是节选自——《上云,和JRs一起以竞技的视角看世界》 *人类的大脑只需13毫秒就可以识别图像,根据社会科学科研计算机网(SSRN)的数据显示,65%的人是视觉型学习者。这意味着,如果通过图片或视频来传达信息,半数以上的人能够更好地识别、吸收和存储信息。*其实说的图像搜索,每一个人应该都感触颇多。毕竟从14年的拍立淘,到如今的阿里云的图像搜索,不得不承认,这一新的“生产工具”在逐渐改变着我们的习惯! 不少人会认为图像搜索,对于电商不过是锦上添花的工具而已,但实际图搜带来的收益远比你想象的多! 1.增加产品曝光 网购时,卖家需要在最短时间内给到消费者与之搜索最密切相关的结果。运用图片搜索可以加速卖家把庞大的商品类目呈现在消费者眼前。 通过识别图片中的产品属性,以此生成描述性文本数据,AI算法再为数万个产品加上一系列可供检索的标签,使得用户在使用图片搜索时可以找到这些产品。品牌不仅能够借此机会向消费者展示海量的产品,而且消费者也能更快定位到相关产品。 2.提升购物转化率 图像搜索能够精准为客户推荐更想要的商品,能够直接触及客户所想,自然更能提升转化率。 在2017年,Gartner (研究公司)预测到2021年,重新设计网站以支持图片搜索的品牌,其电商收益将实现30%的增长,而一些知名的零售商已经从中大大赚了一笔。在采用图片搜索的第一个月,高街时尚品牌Forever 21的AOV(客单价)增长了21%。其他品牌也在通过图片推荐功能来进一步完善线上购物体验。 3.带来全新购物体验 相较PC时代,移动端客户需要更加便利、易用的搜索方式上下班路上和公共休闲场所场景网购比例上升,预计2020年,中国移动端购物占比将达到74%,所以给客户带来更好的购物体验是重中之重。 阿里云图搜相较竞品来说,售卖规格清晰明了,价格有绝对优势,不限客户调用次数,且不仅在电商领域,其他方面也进一步开发出适用于图片、社交、纺织、摄影、家居、商标等行业图搜引擎,并且支持定制化场景算法开发!并且支持定制化场景算法开发!并且支持定制化场景算法开发! 产品主页:https://ai.aliyun.com/imagesearch点击链接:图像搜索需求咨询,阿里云专家将1对1沟通您的需求!

优秀的个人博客,低调大师

阿里90后工程师利用ARM硬件特性开启安卓8终端“上帝模式”

文/图 阿里安全潘多拉实验室 团控 编者按:团控,阿里安全潘多拉实验室研究人员,该实验室主要聚焦于移动安全领域,包括对iOS和Android系统安全的攻击和防御技术研究。团控的主攻方向为安卓系统级漏洞的攻防研究。在今年3月的BlackHat Asia和4月份的HITB上,团控受邀做了主题为《内核空间镜像攻击》的演讲。以下为团控该研究主题的技术分析文章。 一、前言 在现代操作系统中,系统运行的内核空间和应用程序的用户空间相互隔离,以保证操作系统的稳定性。以运行Linux内核的ARM终端为例,内核空间和用户空间拥有不同的页表信息,并保存于不同的硬件寄存器。另外,内核运行时的特权等级高于用户态程序,无论何时内核空间对普通程序是不可见的。然而,ARM处理器的某些特殊硬件特性能够打破这种保护,使得普通程序在用户态能够直接访问内核空间,直接打破内核

优秀的个人博客,低调大师

亿滋中国牵手阿里云,全球零食领导企业开启数字化升级

6月7日,云栖大会•上海峰会上,全球零食领导企业亿滋国际的代表作为特约嘉宾分享了与阿里云合作的经验点滴。2015年初,亿滋中国与阿里巴巴签署了战略合作伙伴关系,以后双方相继在多个平台和不同方面展开了合作。其中,亿滋中国利用阿里云平台的存储、数据库产品,以及数加平台搭建中台系统就是重要的合作项目之一。 亿滋国际是全球零食行业龙头企业,公司拥有8万余名员工,为全球约160个国家的消费者生产和提供美味的食品和饮料。奥利奥、趣多多、炫迈口香糖、吉百利,这些中国消费者熟知的品牌就是亿滋旗下的。据欧睿信息咨询公司报告,其饼干和糖果品类排名全球第一,巧克力和口香糖排名第二。 随着数字经济深入人们生活的方方面面,零食消费市场发生着越来越快速的变化。“以饼干为例,过去人们大都在商超购买,但现在更多的消费者喜欢在线购买,或是利用无人超市;以前购买饼干更多

优秀的个人博客,低调大师

AI AR+硬件,开为科技落地建邺万达开启AR互动营销

开为科技正试图利用AR+大屏的方式将线下流量引入线上。 昨天下午,AR/AI公司开为科技在南京建邺万达百货举办了一场“智能AR互动屏”产品介绍会。会上,开为科技COO杨宽为我们介绍了关于智能AR互动屏的创造理念,以及对“AR营销”的认知。 据了解,开为科技也已经与万达百货建邺店达成合作,前者将基于智能AR互动屏来打造一场“AR互动营销”。 此前,我们曾对开为科技CEO杨通和杨宽进行过采访(「镁客·请讲」Kiwi科技杨通:初心不改,用黑科技撬起移动社交市场),在创业初期,开为科技的出发点是AR/AI+社交,对于此次转向AR/AI+营销方向,杨宽表示:“AR效果是一个互动的效果,当有人从互动屏前面经过,屏幕上就会自动生成AR特效,从而将人们的注意力吸引过来。眼下,人均拥有一部手机,线上流量变贵,电商、科技公司纷纷转到线下,我们就想,为什么不以这种AR+大屏的方式去做线下呢?” 在介绍会现场,我们也看到,基于AI人脸识别技术和AR特效的智能AR互动屏吸引了不少用户的驻足试玩。期间,镁客君也上场小试了几把,并砸中金蛋获得了奖品。 另外,我们可以看到,在将所展示的商品做成AR特效的同时,关于鞋子的款式、店铺位置等信息也在互动屏中显示出来,很好地将线下流量引入到店铺,或者是通过扫描二维码的方式将流量引入到商家的线上平台。 对于之后的产品规划,杨宽在现场表示,未来除了人脸识别,他们还将研发更多的生物识别技术,继续拓展“虚拟试戴”等服务。同时,基于智能AR互动屏以及背后的云,这一产品也将成为人机交互的一个入口,比如通过生物识别登录系统,继而进行试穿、付款等一连续的操作,亦或是通过云端将所有的设备连接在一起,达到“走到哪儿服务到哪儿”的效果。 原文发布时间: 2017-10-28 16:46 本文作者: 韩璐 本文来自云栖社区合作伙伴镁客网,了解相关信息可以关注镁客网。

优秀的个人博客,低调大师

SDN商业化之路开启,云杉网络坚持像VMware一样只卖软件

SDN源于2006年的Openflow技术,但在过去的时间里一直还停留在研究层面,在商业化道路上并没有进展,直到云计算技术进入快速发展阶段。在云计算技术将计算和存储都虚拟化之后,若网络不能虚拟化,那传统网络设备不够开放、可拓展程度不高、敏捷性不足等缺点便会影响企业的业务创新和服务上线速度。 而SDN技术便是网络虚拟化的一种实现方式,将网络设备的流量控制和转发分开,设备只做流量转发的工作,让控制工作交由SDN控制器来完成。36氪此前报道过的云杉网络目前的核心产品便是一款运用在数据中心网络的DeepFlow SDN控制器。据悉,DeepFlow SDN控制器的作用主要体现在三方面: 网络虚拟化,SDN最基本的功能,即在物理网络上建立多个逻辑网络,并建立不同服务器之间流量交互通道。 网络功能虚拟化(NFV),则是指SDN控制器对流量进行调度,串联不同单独的网络功能,使得企业获得一个可组合、可弹性拓展的服务链。 云计算网络监控与运维,云计算环境内数据情况非常复杂,既有南北流量也有租户的数据,这也就给云计算内的网络监测、运维带来了一定的困难。而因为SDN控制器能获取每个交换节点的流量信息,监测其流量状态和行为,所以发生网络问题时,SDN控制器能够对问题进行快速定位,提升问题解决效率。 在云杉网络CEO亓亚烜看来,流量控制和转发的分开,其实也是一种硬件和软件的分离,通过软件编程,企业的业务可以随意跑在数据中心内部的任意机器上。DeepFlow SDN控制器的目的便是将可自行编程来定义网络的能力开放给数据中心的使用者,从而为其业务提供一个动态的网络环境,提供灵活按需的服务。除了提供DeepFlow SDN控制器外,云杉还会提供相应的网络监控、安全、负载均衡软件。 当前,华为、新华三、思科也在研究和应用SDN技术,那么与他们相比,云杉的差异在何处呢?对此亓亚烜表示:“华为、华三、思科的SDN技术都依赖于自家的网络及安全等硬件设备,而云杉和VMware一样,我们提供的软件是能够跑在不同品牌的开放和通用化的硬件设备上。我们不做硬件,只专注于软件。” 在亓亚烜看来,他们所做的事情也可以看作是X86的网络协议栈,也就是做开放性网络设备的操作系统,而这种交互模式的变革会给网络设备带来很多新的可能。他说到:“Windows给PC带来蓬勃的软件开发生态,人们能够用到的应用也越来越多了。iOS和Android则直接将我们拉到了移动互联网时代。我认为SDN对于数据中心的意义是能够和Windows、iOS/Android进行类比的。” 目前,云杉的商业模式主要是靠售卖软件,根据不同的功能,分析、控制节点的数量来收费。公司主要客户为那些拥有数据中心的金融、电信、互联网大型企业。据介绍,云杉目前已有20多个客户,客单价在几十万元至几百万元之间。 此外,为了让自家的商业软件能够卖得更好,云杉还在硅谷设立了研发中心,做一些开源的事情。背后的目的便是想让全球的云计算系统升级他们的软件交换单元,使其能够与云杉软件分析、控制节点相匹配。“现在虚拟交换机Open vSwitch的流量采样功能还很差,但客户又不可能直接使用云杉提供的版本,那我们只有去影响整个开源社区了。通过这种力量来影响全球每一台服务器的网络协议栈,让它能够被SDN,让它能够和我们的分析节点合作。”亓亚烜向36氪表示。 云杉目前团队规模在50人左右,分布在北京、苏州、上海、成都、广州和硅谷等地。未来一年,公司会把北京、硅谷和苏州打造为三位一体的研发中心。今年10月,云杉也宣布完成1000万美元B轮融资,领投方为经纬中国。 本文转自d1net(转载)

优秀的个人博客,低调大师

Anthropic 拟以超 9000 亿美元估值开启新一轮 500 亿美元融资

外媒援引六位知情人士消息称,AI 助手 Claude 的开发商 Anthropic 已收到多份抢先融资要约,拟以 8500 亿美元至 9000 亿美元的估值筹集约 500 亿美元的新资金。 彭博社和《商业内幕》本月早些时候曾报道,收到了多份以 8000 亿美元估值提出的优先认购要约,但当时该公司尚未决定是否进行融资。 不过,消息人士称,Anthropic 难以抵挡住压力,急需在可能进行 IPO 前的最后一轮私募融资中获得更多资金。一位知情人士告诉 TechCrunch,该公司预计将在 5 月份的董事会会议上就此轮融资及其估值做出最终决定。 据知情人士透露,此轮融资预计总额在400亿至500亿美元之间。但鉴于该公司高速增长且势头不减,投资者的需求似乎远不止于此。投资者们正争相参与此轮融资。消息人士指出,有一家准备投入高达50亿美元的机构投资者,至今仍未能与 Anthropic 首席财务官 Krishna Rao 会面。 Anthropic 本月宣布,其年化营收已突破300亿美元,较2025年底的约90亿美元实现了大幅增长。一位了解该公司财务状况的人士表示,目前该公司的年化营收已接近400亿美元。 对此,Antrhopic 拒绝置评。 Anthropic 的大部分收入来自其 AI 编程能力,特别是其 Claude Code 和 Cowork 平台。许多投资者认为,鉴于该公司在金融、生命科学和医疗保健等新行业拥有巨大的拓展空间,其潜力远未得到充分发挥。 Anthropic 今年 2 月完成上一轮融资,估值达到 3800 亿美元。如果该公司按照消息人士透露的条款进行新一轮融资,其估值不仅将翻一番以上,还将与主要竞争对手持平甚至超越。同样在 2 月,OpenAI 完成了创纪录的 1220 亿美元融资,投后估值达到 8520 亿美元。

优秀的个人博客,低调大师

技嘉全新 27 寸 WOLED 电竞显示器 GO27Q24G 预售开启

全球电脑领导品牌 GIGABYTE 技嘉科技宣布旗下 GO27Q24G WOLED 电竞显示器正式上市。这款 27 寸 QHD 四边无边框荧幕具备 240Hz 高刷新率,并支持 NVIDIA® G-SYNC® Compatible 与 AMD FreeSync™ Premium 技术,为竞技类游戏提供无撕裂、极速反应的流畅体验。GO27Q24G 采用 MLA+ 技术与 RealBlack Glossy 光学层的 LG Display WOLED 面板,从硬体层面奠定深邃纯黑与亮度基础;同时结合技嘉独家 HyperNits 技术与战术型功能,将顶尖 WOLED 视觉表现带给更广泛的竞技玩家。 GO27Q24G 专为电竞玩家打造,即使在各种光源干扰下,仍能维持画面绝佳的清晰度。RealBlack Glossy 光学层能有效抑制环境反光以提升可视性,搭配 MLA+ 技术带来的 275 nits 标准亮度与高达 1300 nits 峰值亮度,确保画面在明亮环境下,依然保有清晰的对比层次与色彩张力。此机种更通过 VESA DisplayHDR™ True Black 400 认证,并具备 99% DCI-P3 广色域,无论是游戏或日常使用,皆能呈现深邃黑阶、精准暗部细节与生动色彩。 为满足不同使用场景需求,GO27Q24G 搭载技嘉独家 HyperNits 软件技术,在 1300 nits 峰值亮度模式下,能提升 HDR 内容 30% 整体亮度并精准保留高亮部细节,同时提供 HyperNits High 与 HyperNits Medium 两种模式,以适应不同的环境光源。在此视觉基础上,技嘉独家的战术型功能进一步将显示效能转化为实战控制力,在分秒必争的 FPS 与 MOBA 竞技游戏中发挥关键作用,包含 Tactical Switch 2.0 可一键切换分辨率及画面比例;Ultra Clear 有效减少动态模糊,而黑平衡(Black Equalizer) 则能展现暗部细节,提升玩家的反应速度,并在竞技对战中做出精准决策。 GO27Q24G 搭载技嘉独家 AI OLED Care 技术,透过 AI 演展现主动降低荧幕烧屏风险,能长期维持面板品质与稳定性。此外,获 UL 认证的护眼技术能大幅减轻长时游戏的视觉负担,配合 OLED VRR Anti-Flicker 可在帧率波动下动态调整更新率范围,有效消除画面闪烁,全方位兼顾产品耐用性与使用舒适度。GO27Q24G 2月14日正式上市请参考电商链接:https://item.jd.com/100241383865.html

优秀的个人博客,低调大师

字节跳动正推进与多家厂商的 AI 手机合作:免收 Token 分成、开启“让利换入口”

根据界面新闻的独家报道,字节跳动正推进与 vivo、联想、传音等硬件厂商的 AI 手机合作,在设备中预装 AIGC 插件以获取用户入口、改善其在执行层面的被动局面。多位 vivo 员工证实双方已确认合作、正在讨论具体细节。 联想内部人士称,联想集团与「豆包」、火山引擎等字节系业务一直保持紧密合作,目前在智能终端领域与「豆包」的合作也保持密切沟通。另据媒体报道,联想与字节系在相关业务上确有密切往来。 知情人士透露,字节跳动此举并非单纯追求业务增长,而在于构建新的流量变现路径,让手机厂商参与流量分发与会员订阅等收益。讨论中的模式包括不收取定制化开发费或 Token 销售分成,并给予手机厂商二次流量的分成收益,方案仍处早期。 该项目拟先对 2000 元以上中端机型进行「投量」,与手机厂商发布新机,随后通过 OTA 覆盖更多机型;规模达到 1.5–2 亿后,再与其他互联网厂商竞争。 消息人士称,字节跳动在海外渠道具优势,AI 手机投放大概率也会优先布局海外;内部对该项目高度重视,系统与标注部门各自超过 500 人。此前,字节跳动曾就相关合作与 OPPO 沟通,但遭拒绝。 「豆包手机助手」于 12 月 1 日正式推出技术预览版,并与中兴通讯联合推出 nubia M153 工程样机。该产品支持在用户指令下跨应用调用服务,如点外卖、订机票、比价购物、回复微信消息及操作小程序游戏等。 问世不久后,微信、淘宝、大众点评、拼多多等 App 相继禁止在「豆包手机」上使用,引发对 AI 终端商业生态走向的讨论。 同期,IDC 数据显示,联想旗下摩托罗拉在 2025 年第三季度出货量为 1600 万台、全球份额 4.9%,位列全球智能手机市场第八。 字节跳动先前回应称,「豆包」正在与多家手机厂商洽谈助手合作,且没有自行开发手机的计划;官方披露的手机合作方仅有中兴手机。值得注意的是,魅族科技曾在微博发文表达合作意向,期待「进一步探索更好用的 AI 手机」。

优秀的个人博客,低调大师

记忆张量携手商汤大装置开启国产 GPGPU 的下一代推理新范式

记忆张量联合商汤大装置宣布,在国产 GPGPU 上率先跑通业内首个以“记忆 - 计算 - 调度”一体化为核心的 PD 分离商用推理集群。相比传统仅依赖硬件隔离的方案,本次落地将 PD 分离与记忆张量旗下核心产品 MemOS 的激活记忆体系深度耦合,使 Prefill 批量化可调度、Decode 前台低抖动成为可能。 集群在真实 C 端负载下实现单卡并发效率提升 20%、吞吐提升 75%,综合推理性价比达到同代 NVIDIAA100 的 150%。这一成果标志着国产算力体系在大模型商业化路径上首次具备“体系级”竞争力,为高性能模型的大规模落地打开了全新的降本增效空间。 为什么是 MemOS? 解决大模型长期记忆和 Agent 协作的五大痛点 过去一年中,“PD 分离”几乎成了大模型推理优化里最热的技术关键词之一,但一个被反复忽略的现实是:如果只在算力层面做 PD 分离,而不对上层业务路径重构,能带来的收益是天然有上限的。 Prefill(计算密集)与 Decode(访存密集)在真实生产环境中的比例、触发频率和负载形态取决于业务本身——是长对话还是短问答,是高并发 C 端应用还是低频 B 端调用?在这些问题没有被重新建模之前,通过“算存拆分”,往往只能做局部吞吐的改善,却很难真正突破天花板。 随着 DeepSeek-R1 等高性能模型从 B 端试水走向 C 端大规模落地,局面发生了根本性变化:“记忆”不再只是一个锦上添花的高级能力,已经开始成为 C 端产品体验与成本结构的核心变量。 超长上下文、跨轮次的上下文复用、基于先验的影子预测、针对热门场景的 KV Cache 批量生成……这些能力正在把 Prefill 从原本一次性的“首字计算”,放大成一个高占比、可预测、可调度的批量任务集;而 Decode 则越来越像一个必须始终保持低抖动、低延迟、强稳定的“前台交互引擎”。 在这样的应用形态下,PD 分离的角色被彻底改写: 只有当 PD 分离与记忆结构深度耦合,变成一套围绕“记忆—计算—调度”重构的整体体系时,它才有机会真正超越传统意义上的性能上限。 MemOS 作为业内唯一一个以记忆为中心,覆盖从底层推理、到记忆模型,再到应用工程进行系统设计的记忆基础设施,它将大模型的认知结构划分为三类记忆: 参数记忆:承载长期稳定知识,对应模型本身的参数空间; 激活记忆:承载短期动态状态,包括 KVCache、隐藏层激活、注意力权重等; 明文记忆:承载可检索、可审计的外部知识与用户信息。 这三类记忆形成了一条跨时间尺度的调度链路,使得 MemOS 不再只是“一个向量库外挂”,可以进行精细地决策: 哪些计算应该前移到 Prefill,哪些必须留在 Decode; 哪些状态值得长期保留,哪些可以在一定条件下降级或淘汰; 哪些上下文可以复用,哪些需要重新计算。 PD 分离 × 业务路径在这里第一次被真正打通,而不是被割裂成两条平行的优化线。 相比传统的只做“长上下文拼接”的纯明文记忆系统,或只在参数空间做一些长期偏好固化的简单参数记忆模型,MemOS 更适合和 PD 分离进行结合——它拥有一整套可以“决定如何用这条通道”的调度逻辑,从而把 PD 分离原本有限的收益空间尽可能压榨到极致。 正因此,本次记忆张量与商汤大装置在某国产 GPGPU 上的解决方案,真正跑出一版带完整业务语境的 R1 满血推理集群—— 不仅在单机和小规模集群实验中有效,而且在严格 SLA 约束下,可以在 12 台 4P8D 架构的商用集群上稳定运行,将 PD 分离从“好主意”变成“可以被商业化复现的工程范式”。 结构共振:PD 分离第一次有了“落点” 在本次合作的方案中,商汤大装置提供了让 MemOS 三层记忆结构拥有物理载体的顶层系统级基础设施**。依托大装置 IaaS ** 的高效算力池、智能算力调度等为模型推理提供稳定的基础设施支撑;并借助Ignite 框架提供多后端推理适配、KV Cache 管理优化、关键算子加速、跨节点通信调优等性能增强,形成体系化的推理优化链路;同时,商汤万象 MaaS 平台​的统一调度策略确保 Prefill 与 Decode 服务在高并发场景下始终稳定运行。 集群的底层算力方面,则由算丰信息提供核心支撑,算丰信息在此次集群中承接管理了所有高性 GPGPU 计算资源、大规模文件对象存储以及高速互联网络服务,为 PD 分离架构的高效稳定运行提供了不可或缺的鼎力支持。 在商汤大装置的某国产 GPGPU 集群上,MemOS 的记忆结构被映射成了非常清晰的物理分工: P 域(Prefill Domain)变成真正的“记忆工厂”,集中承载影子上下文的预测与 KV Cache 的批量预生成,这些任务通常对吞吐敏感、对时延容忍度高,因此可以在 P 域以高并行、高利用率的方式被源源不断地消化掉,而不再与前台交互抢占资源; D 域(Decode Domain)则被打造为纯粹的“实时交互前台”,专注处理真实用户请求的解码过程,在保持超低 TTFT 的前提下,承担起 R1 这一类大模型在 C 端场景的连续输出与稳定响应; 跨节点 KV Cache 则通过高带宽互联与零拷路径实现“即产即用”,MemOS 的激活记忆机制与商汤在某国产 GPGPU 上打磨出的通信能力形成天然互补,使 Prefill 产生的 KV Cache 不再成为传输瓶颈,而是以极低开销进入 D 域的解码流程中。 这次合作是一次体系级的结构共振: PD 分离为 MemOS 打开了一条真正意义上的高速算力通道,而 MemOS 则为 PD 分离提供了精细到记忆单元级别的调度逻辑和业务上下文,让两者不再是孤立的“优化点”,而是共同长在同一棵体系树上的“结构分支”。 正因为有了这样的结构落点,PD 分离才第一次从一个工程团队内部的“性能小技巧”,变成一套可以被完整描述、完整度量、并在生产环境中长期运行的​新推理范式​。 数据验证:国产 GPGPU 第一次跑出 R1 的“完整形态” 在严格的生产级评测口径下——包括 ​2k 输入、1k 输出、TTFT<2s 的 SLA 约束、72 小时以上稳态运行、统一的限流与负载生成策略​——记忆张量与商汤大装置联合打造的国产 GPGPU 集群交出了这样一张答卷: 集群整体吞吐量提升 75+%,从 Naive 部署下的 107.85 tokens/s 提升到 189.23 tokens/s,不是因为“卡更强了”,而是 Prefill 与 Decode 真正做到了算/存解耦,流水线气泡被有效压缩,影子上下文的批量预计算也不再造成资源浪费; 单卡并发能力提升约 20%,从 25.00 并发/卡提升至 29.42 并发/卡,在 C 端场景下十分关键,这意味着在同等硬件规模下,集群能稳态承载更高的实时会话数,高峰期排队与溢出的风险明显降低; TTFT 全程稳定小于 2 秒,得益于 Prefill 全量前移和 D 域职责的“单一化”,Decode 不再被一些突发的重 Prefill 任务抢占资源,首字延迟因此从系统层面得到了保障; KV Cache 在热门场景中的命中率显著提升,可达 70%+,这使得诸如 MemOS-Chat 这一类需要高频、多轮交互的 C 端应用,在热点话题和常见任务上具备了极高的预计算复用率,推理成本被进一步摊薄; 在统一财务与技术口径下,综合推理性价比达到同代 NVIDIA A100 的 150% 左右,在严格 SLA 与相同负载结构下,某国产 GPGPU 在这一套“记忆原生 × PD 分离 × 业务调度”的框架中,第一次实现了对 A100 的体系级正面超越。 这些数字代表着: “国产 GPU 不再只是一个“可以跑大模型”的选项,而是真正具备了承载 R1 级 C 端业务的体系能力。“ 行业意义:下一代推理范式被点亮 从行业视角来看,这次联合实践更重要的价值在于清晰地描绘出了一条​未来大模型推理架构的可行路线​。 首先,PD 分离从“硬件层的算存优化”,升级为“围绕记忆的推理范式设计”。 在记忆缺位的系统里,PD 分离往往只能作用于算子级、节点级的小局部;而在 MemOS 这样以记忆为核心组织推理流程的系统里,PD 分离可以延伸到行为预测、上下文规划、激活记忆布局等更高维度,从而变成整体架构的一部分,而不再是孤立的工程优化。 其次,C 端场景将逐步从 Token 推理走向 Memory 推理。 过去我们习惯从“生成了多少 Token”、“延迟是多少”来评价系统,现在我们越来越需要思考的是:系统在多长时间尺度内能保持一致的人设、风格和偏好;它是否能记住用户的历史行为,并以此给出更智慧、更个性化的反应。在这个意义上,记忆不再是推理链路的外挂,而正在成为推理本身的中心。 未来,国产 GPU 不必也不应该只是在“算力参数”上做对标,而是有机会在体系结构上形成差异化领先。 通过记忆张量和商汤大装置的联合探索,我们可以看到:当底层架构与上层系统“共同为记忆和 Agent 这种新形态服务”时,国产生态已经可以定义自己的技术话语体系。 很多长期困扰工程团队的问题:“为什么 PD 分离在实验室里很好看、一到生产就塌方”,“为什么集群越扩越容易失控”,“为什么 C 端体验总会莫名其妙波动”——在这套框架下都有了同一个答案: 不是技术选型不对,而是体系结构不对。 当“记忆原生 × PD 分离”两件事同时准备好,这些瓶颈不再是孤立的 bug,而成为了可以被系统性地松动和重构的变量。 展望:记忆原生时代的国产算力新起点 未来,记忆张量与商汤将在这一范式之上继续深化合作: 一方面,围绕更大规模的国产 GPGPU 集群,构建真正意义上的记忆驱动流水线推理底座,让“影子上下文 - 激活记忆 - PD 分离 - 多级缓存 - AIOps ”成为一套可观测、可回滚、可演进的基础设施能力; 另一方面,在 Prefill 行为预测自治化、多级激活记忆管理、跨任务长时记忆一致性、面向 Agent 的轨迹记忆等方向上持续打磨,让这套范式不仅能支撑今天的聊天与问答,还能承载未来的伴随式 AI、具身智能体以及更复杂的长周期任务编排。 从更长远的视角看,这次联合实践带来的最大改变,也许不是某一个模型跑得更快、某一类集群利用率更高,而是—— 国产算力体系第一次拥有了另一条面向未来智能形态的可能“结构性路线”: 从参数计算走向记忆计算,从静态推理走向动态流水线,从模型中心走向记忆中心。 在这条路上,国产 GPGPU 不再只是“跟上来”的参与者,而完全有机会成为下一代推理范式的定义者之一。 而这一次,记忆张量与商汤大装置把这条路上的第一盏路灯点亮了。 关于 MemOS MemOS 为 AGI 构建统一的记忆管理平台,让智能系统如大脑般拥有灵活、可迁移、可共享的长期记忆和即时记忆。 作为记忆张量首次提出“记忆调度”架构的 AI 记忆操作系统,我们希望通过 MemOS 全面重构模型记忆资源的生命周期管理,为智能系统提供高效且灵活的记忆管理能力。

优秀的个人博客,低调大师

🔥 AI + 低代码:历史记录功能革新,开启低代码开发智能协作新纪元

开源AI低代码引擎VTJ.PRO再次突破,用智能历史管理让开发者的每次创作都有迹可循、有版可溯。 近日,领先的开源AI低代码引擎VTJ.PRO正式发布0.13.22版本,重点增强了历史记录功能,支持自动与手动保存、标记管理和版本对比等实用特性。 这标志着VTJ.PRO在提升开发者体验和团队协作效率方面再次迈出重要一步,进一步巩固了其“降低复杂度,不降低自由度”的核心理念。 VTJ.PRO 官网 01 产品背景与使命 VTJ.PRO作为一个基于Vue3和TypeScript构建的开源AI低代码引擎,自推出以来就致力于为企业提供全方位、一站式应用开发与交付解决方案。 该平台旨在为企业的数字化转型提供更强大、更可靠、更安全的技术后盾,同时保持开发过程的灵活性和自由度。 此次发布的0.13.22版本是基于VTJ.PRO核心开源引擎v0.13.0的又一次进化,特别针对企业级客户在复杂业务场景下的严苛需求进行了优化。 历史记录版本对比 02 历史记录功能全面升级 VTJ.PRO 0.13.22版本的历史记录功能得到了全面增强,这些新功能将显著提升团队协作效率和开发体验。 智能保存模式:新版本支持自动与手动双保存模式。自动保存功能确保开发者的每一个操作都不会丢失,而手动保存则允许开发者在重要节点上有意识地创建里程碑。 标记管理系统:开发者现在可以为重要版本添加标记说明,快速识别关键更新节点。这项功能让团队能够更高效地回顾项目演进历程,便于新成员快速理解项目历史。 可视化版本对比:新加入的版本对比功能允许开发者直观比较不同版本之间的差异,清晰了解每一次修改的内容和影响范围,大大降低了代码回顾和审查的难度。 历史记录对比 03 解决开发者痛点 在日常开发过程中,版本管理往往成为困扰开发团队的难题。 VTJ.PRO 0.13.22版本的历史记录功能增强直接针对这些痛点: 避免意外丢失:自动保存功能确保了即使发生意外情况,如系统崩溃或网络问题,工作进度也能得到有效保护。 协作效率提升:团队成员可以通过标记和版本对比快速了解项目进展和变更内容,减少了沟通成本。 回溯与审计:企业级开发往往需要符合审计要求,完善的版本历史记录满足了这一需求,使每一次变更都有据可查。 04 应用增强与灵活性 VTJ.PRO一直强调不仅提供强大的开箱即用功能,同时保持高度的灵活性。此次更新进一步完善了这一理念。 应用增强功能允许开发者给低代码应用扩展功能,如增加全局状态、样式、配置等应用级功能。 开发者可以配置Vue Plugin,实现全局样式、网络请求拦截、接入Pinia等功能。 AI 图生代码 05 多平台支持与工程化优势 VTJ.PRO支持多平台应用开发,包括Web、H5和UniApp。项目使用@vtj/cli搭建,基于Vite + Vue3 + TypeScript技术栈,采用多平台应用页面入口设计,实现环境隔离和优化打包体积。 在vite.config.ts中配置了多入口打包,包括平台主应用(包含应用管理和设计器)、Web应用预览、H5应用预览和UniApp应用预览。 这种工程化设计使得VTJ.PRO既适合快速原型开发,也能满足企业级应用的复杂需求。 VTJ.PRO 0.13.22版本的发布,再次证明了其在低代码领域的创新实力——它不仅仅是在做功能迭代,更是在重新定义开发流程。 智能历史记录功能的加入,让开发者的每一个创意、每一次修改都被完整记录和有序组织,真正实现了“降低复杂度,不降低自由度”的承诺。 现在就访问AI 驱动的 Vue3 低代码开发平台 | VTJ.PRO体验全新升级的VTJ.PRO,用智能历史管理赋能你的开发团队。

资源下载

更多资源
Mario

Mario

马里奥是站在游戏界顶峰的超人气多面角色。马里奥靠吃蘑菇成长,特征是大鼻子、头戴帽子、身穿背带裤,还留着胡子。与他的双胞胎兄弟路易基一起,长年担任任天堂的招牌角色。

腾讯云软件源

腾讯云软件源

为解决软件依赖安装时官方源访问速度慢的问题,腾讯云为一些软件搭建了缓存服务。您可以通过使用腾讯云软件源站来提升依赖包的安装速度。为了方便用户自由搭建服务架构,目前腾讯云软件源站支持公网访问和内网访问。

Spring

Spring

Spring框架(Spring Framework)是由Rod Johnson于2002年提出的开源Java企业级应用框架,旨在通过使用JavaBean替代传统EJB实现方式降低企业级编程开发的复杂性。该框架基于简单性、可测试性和松耦合性设计理念,提供核心容器、应用上下文、数据访问集成等模块,支持整合Hibernate、Struts等第三方框架,其适用范围不仅限于服务器端开发,绝大多数Java应用均可从中受益。

WebStorm

WebStorm

WebStorm 是jetbrains公司旗下一款JavaScript 开发工具。目前已经被广大中国JS开发者誉为“Web前端开发神器”、“最强大的HTML5编辑器”、“最智能的JavaScript IDE”等。与IntelliJ IDEA同源,继承了IntelliJ IDEA强大的JS部分的功能。

用户登录
用户注册