Proxyless Mesh 在 Dubbo 中的实践
背景
随着 Dubbo 3.1 的 release,Dubbo 在云原生的路上又迈出了重要的一步。在这个版本中添加了 Proxyless Mesh 的新特性,Dubbo Proxyless Mesh 直接实现 xDS 协议解析, 实现 Dubbo 与 Control Plane 的直接通信,进而实现控制面对流量管控、服务治理、可观测性、安全等的统一管控,规避 Sidecar 模式带来的性能损耗与部署架构复杂性。
什么是Service Mesh
Service Mesh 又译作 “服务网格”,作为服务间通信的基础设施层。Buoyant 公司的 CEO Willian Morgan 在他的这篇文章 WHAT’S A Service Mesh? AND WHY DO I NEED ONE? 中解释了什么是 Service Mesh,为什么云原生应用需要 Service Mesh。
下面是 Willian Morgan 对 Service Mesh 的解释。
A Service Mesh is a dedicated infrastructure layer for handling service-to-service communication. It’s responsible for the reliable delivery of requests through the complex topology of services that comprise a modern, cloud native application. In practice, the Service Mesh is typically implemented as an array of lightweight network proxies that are deployed alongside application code, without the application needing to be aware.
翻译成中文
服务网格(Service Mesh)是处理服务间通信的基础设施层。它负责构成现代云原生应用程序的复杂服务拓扑来可靠地交付请求。 在实践中,Service Mesh 通常以轻量级网络代理阵列的形式实现,这些代理与应用程序代码部署在一起,对应用程序来说无需感知代理的存在。
说到 Service Mesh 一定离不开 Sidecar 经典架构模式。它通过在业务 Pod 中注入 Sidecar 容器,接管业务容器的通信流量,同时 Sidecar 容器与网格平台的控制平面对接, 基于控制平面下发的策略,对代理流量实施治理和管控,将原有服务框架的治理能力下层到 Sidecar 容器中,从而实现了基础框架能力的下沉,与业务系统解耦。
经典的 Sidecar Mesh 部署架构有很多优势,如平滑升级、多语言、业务侵入小等,但也带来了一些额外的问题,比如:
- Proxy 带来的性能损耗,在复杂拓扑的网络调用中将变得尤其明显
- 流量拦截带来的架构复杂性
- Sidecar 生命周期管理
- 部署环境受限,并不是所有环境都满足 Sidecar 流量拦截条件
针对 Sidecar Mesh 模型的问题,Dubbo 社区自很早之前就做了 Dubbo 直接对接到控制面的设想与思考,并在国内开源社区率先提出了 Proxyless Mesh 的概念,当然就 Proxyless 概念的说法而言,最开始是谷歌提出来的。
Dubbo Proxyless Mesh
Dubbo Proxyless 模式是指 Dubbo 直接与 Istiod通信,通过 xDS协议实现服务发现和服务治理等能力。
Proxyless 模式使得微服务又回到了 2.x 时代的部署架构,同 Dubbo 经典服务治理模式非常相似,所以说这个模式并不新鲜, Dubbo 从最开始就是这样的设计模式。 这样做可以极大的提升应用性能,降低网络延迟。有人说这种做法又回到了原始的基于 SDK 的微服务模式,其实非也,它依然使用了 Envoy 的 xDS API, 但是因为不再需要向应用程序中注入 Sidecar 代理,因此可以减少应用程序性能的损耗。
但相比于 Mesh 架构,Dubbo 经典服务治理模式并没有强调控制面的统一管控,而这点恰好是 Service Mesh 所强调的,强调对流量、可观测性、证书等的标准化管控与治理,也是 Mesh 理念先进的地方。
在 Dubbo Proxyless 架构模式下,Dubbo 进程将直接与控制面通信,Dubbo 进程之间也继续保持直连通信模式,我们可以看出 Proxyless 架构的优势:
- 没有额外的 Proxy 中转损耗,因此更适用于性能敏感应用
- 更有利于遗留系统的平滑迁移
- 架构简单,容易运维部署
- 适用于几乎所有的部署环境
服务发现
xDS 接入以注册中心的模式对接,节点发现同其他注册中心的服务自省模型一样,对于 xDS 的负载均衡和路由配置通过 ServiceInstance 的动态运行时配置传出, 在构建 Invoker 的时候将配置参数传入配置地址。
证书管理
零信任架构下,需要严格区分工作负载的识别和信任,而签发 X.509 证书是推荐的一种认证方式。在 Kubernetes 集群中,服务间是通过 DNS 名称互相访问的,而网络流量可能被 DNS 欺骗、BGP/路由劫持、ARP 欺骗等手段劫持,为了将服务名称(DNS 名称)与服务身份强关联起来,Istio 使用置于 X.509 证书中的安全命名机制。SPIFFE是 Istio 所采用的安全命名的规范,它也是云原生定义的一种标准化的、可移植的工作负载身份规范。
Secure Production Identity Framework For Everyone (SPIFFE) 是一套服务之间相互进行身份识别的标准,主要包含以下内容:
- SPIFFE ID 标准,SPIFFE ID 是服务的唯一标识,具体实现使用 URI 资源标识符
- SPIFFE Verifiable Identity Document (SVID) 标准,将 SPIFFE ID 编码到一个加密的可验证的数据格式中
- 颁发与撤销 SVID 的 API 标准(SVID 是 SPIFFE ID 的识别凭证)
SPIFFE ID 规定了形如 spiffe://<trust domain>/<workload identifier>
的 URI 格式,作为工作负载(Workload)的唯一标识。 而 Istio 在自身的生态中只使用到了 SPIFFE ID 作为安全命名,其数据格式由自己实现,通信格式采用 CNCF 支持的 xDS 协议规范(证书认证通信更具体来说是 xDS 的 SDS)。
Istio 使用形如 spiffe://<trust_domain>/ns/<namespace>/sa/<service_account>
格式的 SPIFFE ID 作为安全命名,注入到 X.509 证书的 subjectAltName 扩展中。 其中"trust_domain"参数通过 Istiod 环境变量TRUST_DOMAIN 注入,用于在多集群环境中交互。
以下是 Dubbo Proxyless Mesh 证书颁发的过程
- 创建 RSA 私钥(Istio 还不支持 ECDSA 私钥)
- 构建 CSR(Certificate signing request)模板
- 自签名 CSR 生成证书
- 创建 Kubernetes Secret 资源储存 CA 证书和私钥(CA Service处理)
案例实践
接下来我将带领大家通过一个例子使已有的项目快速跑在 Proxyless Mesh 模式下。
环境准备
安装docker
安装minikube
墙裂推荐:https://kubernetes.io/zh-cn/docs/tutorials/hello-minikube/
安装istio
https://istio.io/latest/docs/setup/getting-started/
❗❗❗ 安装 Istio 的时候需要开启 first-party-jwt 支持(使用 istioctl 工具安装的时候加上 --set values.global.jwtPolicy=first-party-jwt 参数),否则将导致客户端认证失败的问题。 参考命令如下:
curl -L https://istio.io/downloadIstio | sh - cd istio-1.xx.x export PATH=$PWD/bin:$PATH istioctl install --set profile=demo --set values.global.jwtPolicy=first-party-jwt -y
代码准备
xds-provider
定义一个接口
public interface GreetingService { String sayHello(String name); }
实现对应的接口
@DubboService(version = "1.0.0") public class AnnotatedGreetingService implements GreetingService { @Override public String sayHello(String name) { System.out.println("greeting service received: " + name); return "hello, " + name + "! from host: " + NetUtils.getLocalHost(); } }
编写启动类
public class ProviderBootstrap { public static void main(String[] args) throws Exception { AnnotationConfigApplicationContext context = new AnnotationConfigApplicationContext(ProviderConfiguration.class); context.start(); System.out.println("dubbo service started"); new CountDownLatch(1).await(); } @Configuration @EnableDubbo(scanBasePackages = "org.apache.dubbo.samples.impl") @PropertySource("classpath:/spring/dubbo-provider.properties") static class ProviderConfiguration { } }
编写配置信息
dubbo.application.name=dubbo-samples-xds-provider # 由于 Dubbo 3 应用级服务发现的元数据无法从 istio 中获取,需要走服务自省模式。 # 这要求了 Dubbo MetadataService 的端口在全集群的是统一的。 dubbo.application.metadataServicePort=20885 # 走xds协议 dubbo.registry.address=xds://istiod.istio-system.svc:15012 dubbo.protocol.name=tri dubbo.protocol.port=50051 # 对齐k8s pod生命周期,由于 Kubernetes probe 探活机制的工作原理限制, # 探活请求的发起方不是 localhost,所以需要配置 qosAcceptForeignIp 参数开启允许全局访问 dubbo.application.qosEnable=true dubbo.application.qosAcceptForeignIp=true
编写Deployment.yml和Service.yml
apiVersion: apps/v1 kind: Deployment metadata: name: dubbo-samples-xds-provider namespace: dubbo-demo spec: replicas: 3 selector: matchLabels: app: dubbo-samples-xds-provider template: metadata: labels: app: dubbo-samples-xds-provider spec: containers: - name: server image: apache/dubbo-demo:dubbo-samples-xds-provider_0.0.1 livenessProbe: httpGet: path: /live port: 22222 initialDelaySeconds: 5 periodSeconds: 5 readinessProbe: httpGet: path: /ready port: 22222 initialDelaySeconds: 5 periodSeconds: 5 startupProbe: httpGet: path: /startup port: 22222 failureThreshold: 30 periodSeconds: 10
apiVersion: v1 kind: Service metadata: name: dubbo-samples-xds-provider namespace: dubbo-demo spec: clusterIP: None selector: app: dubbo-samples-xds-provider ports: - name: grpc protocol: TCP port: 50051 targetPort: 50051
编写Dockerfile
FROM openjdk:8-jdk ADD ./target/dubbo-samples-xds-provider-1.0-SNAPSHOT.jar dubbo-samples-xds-provider-1.0-SNAPSHOT.jar CMD java -jar -agentlib:jdwp=transport=dt_socket,server=y,suspend=n,address=31000 /dubbo-samples-xds-provider-1.0-SNAPSHOT.jar
xds-consumer
定义一个接口
public interface GreetingService { String sayHello(String name); }
实现对应的接口
@Component("annotatedConsumer") public class GreetingServiceConsumer { // 这里特别注意的是、由于当前 Dubbo 版本受限于 istio 的通信模型无法获取接口所对应的应用名, // 因此需要配置 providedBy 参数来标记此服务来自哪个应用。 @DubboReference(version = "1.0.0", providedBy = "dubbo-samples-xds-provider") private GreetingService greetingService; public String doSayHello(String name) { return greetingService.sayHello(name); } }
编写启动类
public class ConsumerBootstrap { public static void main(String[] args) { AnnotationConfigApplicationContext context = new AnnotationConfigApplicationContext(ConsumerConfiguration.class); context.start(); GreetingServiceConsumer greetingServiceConsumer = context.getBean(GreetingServiceConsumer.class); while (true) { try { String hello = greetingServiceConsumer.doSayHello("xDS Consumer"); System.out.println("result: " + hello); Thread.sleep(100); } catch (Throwable t) { t.printStackTrace(); } } } @Configuration @EnableDubbo(scanBasePackages = "org.apache.dubbo.samples.action") @PropertySource("classpath:/spring/dubbo-consumer.properties") @ComponentScan(value = {"org.apache.dubbo.samples.action"}) static class ConsumerConfiguration { } }
编写配置信息
dubbo.application.name=dubbo-samples-xds-consumer dubbo.application.metadataServicePort=20885 dubbo.registry.address=xds://istiod.istio-system.svc:15012 dubbo.consumer.timeout=3000 dubbo.consumer.check=false dubbo.application.qosEnable=true dubbo.application.qosAcceptForeignIp=true
编写Deployment.yml和Service.yml
apiVersion: apps/v1 kind: Deployment metadata: name: dubbo-samples-xds-consumer namespace: dubbo-demo spec: replicas: 2 selector: matchLabels: app: dubbo-samples-xds-consumer template: metadata: labels: app: dubbo-samples-xds-consumer spec: containers: - name: server image: apache/dubbo-demo:dubbo-samples-xds-consumer_0.0.1 livenessProbe: httpGet: path: /live port: 22222 initialDelaySeconds: 5 periodSeconds: 5 readinessProbe: httpGet: path: /ready port: 22222 initialDelaySeconds: 5 periodSeconds: 5 startupProbe: httpGet: path: /startup port: 22222 failureThreshold: 30 periodSeconds: 10
apiVersion: v1 kind: Service metadata: name: dubbo-samples-xds-consumer namespace: dubbo-demo spec: clusterIP: None selector: app: dubbo-samples-xds-consumer ports: - name: grpc protocol: TCP port: 50051 targetPort: 50051
编写Dockerfile
FROM openjdk:8-jdk ADD ./target/dubbo-samples-xds-consumer-1.0-SNAPSHOT.jar dubbo-samples-xds-consumer-1.0-SNAPSHOT.jar CMD java -jar -agentlib:jdwp=transport=dt_socket,server=y,suspend=n,address=31000 /dubbo-samples-xds-consumer-1.0-SNAPSHOT.jar
✅ 到目前为止我们的环境和代码就全都准备完毕了!
构建镜像
1、启动docker
2、启动minikube
因为minikube是一个本地的k8s,他启动需要一个虚拟引擎,这里我们用docker来管理。我们通过如下命令启动
minikube start
我们可以在docker里看到minikube
3、检查istio的状态
4、构建镜像
在本地找到代码所在位置、依次执行以下命令
# 找到provider所在路径 cd ./dubbo-samples-xds-provider/ # 构建provider的镜像 docker build -t apache/dubbo-demo:dubbo-samples-xds-provider_0.0.1 .
# 找到consumer所在路径 cd ../dubbo-samples-xds-consumer/ # 构建consumer的镜像 docker build -t apache/dubbo-demo:dubbo-samples-xds-consumer_0.0.1 .
5、检查本地镜像
6、创建namespace
# 初始化命名空间 kubectl apply -f https://raw.githubusercontent.com/apache/dubbo-samples/master/dubbo-samples-xds/deploy/Namespace.yml # 切换命名空间 kubens dubbo-demo
如果不创建namespace,那么会看到如下错误
部署容器
# 找到provider所在路径 cd ./dubbo-samples-xds-provider/src/main/resources/k8s # dubbo-samples-xds/dubbo-samples-xds-provider/src/main/resources/k8s/Deployment.yml # dubbo-samples-xds/dubbo-samples-xds-provider/src/main/resources/k8s/Service.yml # 部署provider的Deployment和Service kubectl apply -f Deployment.yml kubectl apply -f Service.yml
# 找到consumer所在路径 cd ../../../../../dubbo-samples-xds-consumer/src/main/resources/k8s # dubbo-samples-xds/dubbo-samples-xds-consumer/src/main/resources/k8s/Deployment.yml # 部署consumer的Deployment kubectl apply -f Deployment.yml
在minikube dashboard看到我们已经部署的pod
观察consumer效果
kubectl logs xxx result: hello, xDS Consumer! from host: 172.17.0.5 result: hello, xDS Consumer! from host: 172.17.0.5 result: hello, xDS Consumer! from host: 172.17.0.6 result: hello, xDS Consumer! from host: 172.17.0.6
总结&展望
本文主要剖析了 Dubbo Proxyless Mesh 的架构、服务发现以及证书管理等核心流程,最后通过示例给大家演示了如何使用 Dubbo Proxyless。
随着 Dubbo 3.1 的 release,Dubbo 在云原生的路上又迈出了重要的一步。在今年年底,Dubbo Mesh 将发布具有服务发现能力的版本, 届时将面向所有 Dubbo 用户提供从低版本平滑迁移到 Mesh 架构的能力;在明年年初春季的时候将发布带有治理能力的版本;在明年年底前发布带热插件更新能力的版本, 希望有兴趣见证 Dubbo 云原生之路的同学可以积极参与社区贡献! </service_account></namespace></trust_domain></workload></trust>

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
隐私计算技术开源的整体现状
作者:京东科技隐私计算产品部 杨博 随着政策鼓励与技术成熟,开源作为一种新型的生产方式、创新的协作方式,正逐渐渗入到千行百业,并在国家战略层面的得到了肯定和支持: •2021年3月,开源首次纳入国家《“十四五”规划和2035年远景目标纲要》,提出:支持数字技术开源社区等创新联合体发展,完善开源知识产权和法律体系,鼓励企业开放软件源代码、硬件设“计和应用服务。” •2021年10月,中国人民银行等五部门发布《关于规范金融业开源技术应用与发展意见》强调:“加强开源技术及应用标准化建设,瞄准急需、重点领域加快标准制定与实施。加快推进开源技术应用和标准研究制定一体化。加强开源技术标准建设与信息化规划的衔接配套,推动金融业开源技术及应用高质量发展。” •2021年11月,工业和信息化部发布《“十四五”软件和信息技术服务业发展规划》指出:开源正在重塑软件发展新生态,要大力发展国内开源基金会等开源组织,加速孵化一批具有影响力的开源项目,完善开源软件治理规则,普及开源软件文化。 近年来,国内外隐私计算开源框架不断涌现,可追溯到2017年OpenMined开源了其自家产品,到2022年国内外已有许多知名...
- 下一篇
百万并发场景中倒排索引与位图计算的实践
作者:京东物流 郎元辉 背景 Promise时效控单系统作为时效域的控制系统,在用户下单前、下单后等多个节点均提供服务,是用户下单黄金链路上的重要节点;控单系统主要逻辑是针对用户请求从规则库中找出符合条件的最优规则,并将该规则的时效控制结果返回客户端,比如因为临时疫情等原因针对仓、配、商家、客户四级地址等不同维度进行精细粒度的时效控制。 该系统也是Promise侧并发量最大的系统,双11高峰集群流量TPS在百万级别,对系统的性能要求非常高,SLA要求在5ms以内,因此对海量请求在规则库(几十万)中如何快速正确匹配规则是该系统的技术挑战点。 朴素的解决方案 按照朴素的思想,在工程建设上,通过异步方式将规则库逐行缓存到Redis,Key为规则条件,Value为规则对应结果;当用户请求过来时,对请求Request(a,b,c,d..)中的参数做全组合,根据全组合出的Key尝试找出所有可能命中的规则,再从中筛选出最优的规则。如下图所示 该方案面临的问题是全组合的时间复杂度是2**n,n≈12;算法的时间复杂度高且算法稳定性差,最差情况一次请求需要4096次计算和读取操作。当然在工程上我们...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- Springboot2将连接池hikari替换为druid,体验最强大的数据库连接池
- CentOS8安装MyCat,轻松搞定数据库的读写分离、垂直分库、水平分库
- CentOS8编译安装MySQL8.0.19
- CentOS6,CentOS7官方镜像安装Oracle11G
- CentOS7,8上快速安装Gitea,搭建Git服务器
- SpringBoot2整合Thymeleaf,官方推荐html解决方案
- MySQL8.0.19开启GTID主从同步CentOS8
- SpringBoot2更换Tomcat为Jetty,小型站点的福音
- Red5直播服务器,属于Java语言的直播服务器
- CentOS6,7,8上安装Nginx,支持https2.0的开启