使用 DeepFlow 开启 DNS 可观测性
目前针对 DNS 监控的 Grafana Dashboard 并不多,使用率较高的 Grafana CoreDNS 只适用于 K8s 环境,对于云服务器、物理硬件模式下的 DNS 监控也并不通用;同时,对于应用研发人员想定位 DNS 查询异常或者时延问题时,CoreDNS 的 Dashboard 仅提供 DNS 服务端视角,无法从应用视角出发来分析问题,只能依赖自身代码增加了 DNS 日志。
明确这些问题后,我们基于 DeepFlow 构建了对一个高效、可配置、无侵入、面向应用的 DNS 监控面板,可监控 DNS 服务的网络异常、吞吐、时延,以及访问日志,以快速定位性能瓶颈和排查故障原因。部署了 DeepFlow 之后,deepflow-agent 会自动采集所在节点上的可观测数据,我们基于这些数据构建了一个 Dashboard,内容包括:
- Overview
- Delay
- Error
- Request
- Log Analysis
前往我们的在线 Demo 也可快速体验 Dashboard。
同时,欢迎大家预约 “原力释放 云原生可观测性分享会” 直播。
直播活动由云原生社区主办,云杉网络发起,并联合OPPO联合举办,本期聚焦 “浅谈可观测性生态的优化和丰富” 主题。将分享OPPO自研时序数据库在业务高基数、持久化存储、乱序写入、多租户隔离等场景下的思考及实战演进,以及 DeepFlow 对 Grafana 插件做详细解析,讲解如何从零开始开发一个 Grafana 的 Datasource。
- 直播时间:12 月 8 日 (周四) 20:00~21:00
- 直播平台:云原生社区视频号&B 站、云杉网络视频号、开源江湖、GrafanaFans
- 活动链接:https://www.slidestalk.com/m/1336
- 扫描海报二维码预约直播
0x0: Dashboard 介绍
接下来,详细介绍下 Dashboard 的使用
进入 Dashboard 后,可通过变量来控制需要分析的 DNS 服务端,下面详细说下变量的使用方式:
- ①:DNS 服务端部署在 K8s 环境中,例如 CoreDNS,使用
cluster
/dns_service
/dns_wildcard
变量- cluster:选择 DNS 服务端所部署的 K8s 集群
- dns_service:选择 DNS 服务端对应的 K8s 服务名
- dns_wildcard:通过通配符的形式筛选 dns_service
- ②:DNS 服务端部署在云服务器环境中,使用
dns_chost
变量- 特别说明:此时需要将
cluster
/dns_service
设置为Disabled
- 特别说明:此时需要将
- ③:使用外部的 DNS 服务端,例如使用运营商提供的
114.114.114.114
,则在dns_ip
变量输入对应的 IP 即可- 特别说明:此时需要将
cluster
/dns_service
/dns_chost
设置为Disabled
- 特别说明:此时需要将
- ④:DeepFlow 可在多个位置采集数据,可通过
tap_side
来控制需要查看的数据统计位置,位置点的详细说明,可参考文档
模板变量说明
设置好变量后,接下来就可以利用 Dashboard 来分析 DNS 了,通过 Overview 可快速了解 DNS 请求总量
、有无异常存在
、应用的 DNS 访问拓扑
、DNS 响应时延的整体分布情况
,得到大概总览情况后,可以结合 Error
、Delay
、Request
模块中的曲线快速分析问题发生的时间点,然后利用 client
分组,可快速得到触发问题发生的客户端服务
Overview
Error
Delay + Request
接下来可以利用 Log_Analysis
模块来详细分析发生问题的客户端服务的 DNS 请求,分析之前,需要先设置 client_for_Log_Analysis
和 status_for_Log_Analysis
变量
- ⑤ client_for_Log_Analysis:输入在前面模块得到的客户端服务
- ⑥ status_for_Log_Analysis:确定需要分析的 DNS 请求的状态
- ⑦ domain_for_Log_Analysis:输入需要分析的 DNS 请求的域名
模板变量说明
通过 Log_Analysis
模块,可快速得到存在问题的 TOP N Client
、Request Domain
、Request Type
、 Response Desc
以及客户端服务访问 DNS 的整个时延分布
Log_Analysis
接下来,让我们结合实际案例,来体验一下 DNS Dashboard 给我们带来的高效分析能力。
0x1: 案例1 - 无效内部域名解析
现象:
我们的集群里的应用规模不大,理论上 DNS 请求不会太多,但我们打开 DNS Dashboard 后,发现有大量 DNS 查询请求,且有访问异常:
Client Request Log Error
其中有较多 DNS 客户端异常,响应码为 0x3,错误描述是:Non-Existent Domain,意味着应用访问了不存在的域名。(更多的异常定义可见 DeepFlow-数据库字段定义)
我们通过异常排序,查看访问无效 Top10 域名,发现大量 DNS 请求后缀包含了 cluster.local
,而这是 k8s 自动填充的搜索域:
Client Request Domain TopN Error
原因分析:
我们结合 k8s 的 DNS 原理来分析问题原因。首先,一个典型的 k8s Pod 中 resolv.conf 文件的内容如下:
1 2 3 | search default.svc.cluster.local svc.cluster.local cluster.local nameserver 10.96.0.10 options ndots:5 |
这里有三个配置,search
是域名检索的搜索域,nameserver
是集群内的 DNS 服务地址,options
是自定义选项,其中 ndots=5,意味着当一个域名中包含.
的数量小于 5 时,会优先解析为内部域名,并按照 search 的顺序依次添加搜索域后缀来检索,如果它依然无法被解析,才会把这个域名当作外部域名来解析。
那为什么 k8s 的 ndots 默认配置是 5 呢?Issue#33554 也做出了解释,简单来说:
- 同命名空间下,形如
$service
的域名要被优先解析为内部域名,所以 ndots>=1,并在搜索域 $namespace.svc.$zone 下搜索。 - 跨命名空间下,形如
$service.$namespace
的域名要被优先解析为内部域名,所以 ndots>=2,并在搜索域 svc.$zone 下搜索。 - 访问非 Service Name 时,形如
$name.$namespace.svc
的域名要被优先解析为内部域名,所以 ndots>=3,并在搜索域 $zone 下搜索。 - 对于 StatefulSet 类型的应用,由于需要支持形如
$name-0.service.$namespace.svc
的域名内部解析,所以 ndots>=4。 - 对于形如
_$port._$proto.$service.$namespace.svc
的 SRV Record 要被优先解析为内部域名,所以 ndots>=5。
综上,k8s 的 resolv.conf 中 ndots 默认值是 5 。但这符合我们的使用场景吗?我们要访问的域名是一个.
小于 5 的外部域名,但它被解析为内部域名,并尝试通过 $url.default.svc.cluster.local / $url.svc.cluster.local / $url.cluster.local 的顺序来解析,最后才去访问 $url 本身,所以产生了大量的异常记录。
修复建议:
要解决这个问题,有几个可选的方案:
- k8s 文档中 Pod DNS 配置一节,只需要修改 Pod 的 DNS 策略,定义 ndots=2,这样就可以优先将域名解析为外部域名,弊端在于这样反而会使得内部域名的解析变慢。
- 把访问的外部域名修改为 FQDN,比如我们要访问的是
vpc.tencentcloudapi.com
,修改为vpc.tencentcloudapi.com.
,这样可以直接访问域名,不会依次检索搜索域。 - CoreDNS 使用 autopath 插件,减少搜索次数,但这依赖于 API Watch 机制,会使得 CoreDNS 增加内存消耗。
- 使用 Node LocalDNS,增加 DNS 解析性能,减少 CoreDNS 压力,但同样的,它需要使用内存来做 DNS 缓存查询,增加了内存消耗。
经过权衡,方案(2)对集群的侵入性和修改难度是最低的,效果也比较理想,所以我们采用方案(2)达成了目标。
0x2: 案例2 - 对已失效服务的依赖
现象:
同样通过 DNS Request Log 分析,我们发现还有大量的 Non-Existent Domain 异常,且它不是访问外部域名:
Client Request Domain TopN
原因分析:
集群里没有 zipkin 的 Service,按照上述的 k8s 的 DNS 原理分析,在访问域名的时候同样会尝试按搜索域顺序依次访问,造成了不小的 CoreDNS 压力,这说明应用的配置有错误,尝试访问无效的服务,导致冗余的开销。
修复建议:
检查代码或配置中是否还在访问失效的服务,去掉配置后恢复正常。
0x3: 后续规划
我们目前在制作一批 Dashboard,包括:Nginx、MySQL/PostgreSQL、HTTP、Dubbo/gRPC、Kafka/MQTT、TCP/UDP/IP 等,希望能带来社区高度自动化、高精度的可观测性体验,期待有社区的小伙伴能加入一起。
0x4: 什么是 DeepFlow
DeepFlow 是一款开源的高度自动化的可观测性平台,是为云原生应用开发者建设可观测性能力而量身打造的全栈、全链路、高性能数据引擎。DeepFlow 使用 eBPF、WASM、OpenTelemetry 等新技术,创新的实现了 AutoTracing、AutoMetrics、AutoTagging、SmartEncoding 等核心机制,帮助开发者提升埋点插码的自动化水平,降低可观测性平台的运维复杂度。利用 DeepFlow 的可编程能力和开放接口,开发者可以快速将其融入到自己的可观测性技术栈中。
GitHub 地址:https://github.com/deepflowys/deepflow
访问 DeepFlow Demo,体验高度自动化的可观测性新时代。

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
使用 Grafana 统一监控展示-对接 Zabbix
概述 在某些情况下,Metrics 监控的 2 大顶流: Zabbix: 用于非容器的虚拟机环境 Prometheus: 用于容器的云原生环境 是共存的。但是在这种情况下,统一监控展示就不太方便,本文介绍利用 Grafana 对接 Zabbix, 来作为统一监控展示端。Let's go! 在这里,主要是用到了 alexanderzobnin/grafana-zabbix 开源项目。 Grafana-Zabbix 功能亮点 Grafana-Zabbix 是 Grafana 的一个插件,允许可视化来自 Zabbix 的监控数据,并创建用于分析指标和实时监控的仪表板。 该项目的主要目标是扩展 Zabbix 的监控数据可视化功能,并提供快速、强大的方法来创建仪表板。 Grafana 与 Grafana-Zabbix 插件相结合,可以创建很棒的仪表板。 Grafana-Zabbix 有如下的功能亮点: 丰富的绘图功能; 使用 Regex 选择多个指标; 使用模板 (template) 变量 (variableds) 创建交互式和可重用的仪表板; 在带有注释 (Annotations) 的图形上显...
- 下一篇
StoneDB 首席架构师李浩:如何选择一款 HTAP 产品?
作者:李浩 责编:宇亭 当我们选择一款 HTAP 数据库时,总是先被其相关文档里所描述的优异性能所吸引。卓越的性能是我们选择一款产品的出发点,因为我们希望该款产品能够解决我们业务中的痛点。而大家使用 HTAP 产品的出发点就是希望该款数据库能够解决我们在事务处理过程中的实时分析痛点。不过,性能优势只能算作我们选择一款产品的考量因素之一,实际上,公司层级去选择一款HTAP产品时,还需要额外考量一些其他的因素,本篇文章,StoneDB首席架构师李浩给大家分享一下选择 HTAP 产品的六大关键考量因素。 在 TP 产品非常成熟的今天,各类 TP 类型数据库早已在各行各业中支撑着业务系统的高速发展。随着业务系统越来越复杂,所产生的数据量也在飞速增长。同时,对于这些数据的实时分析需求也日益迫切。然而,当前的解决方案却无法满足实时分析的需求。例如:如果直接在TP数据库上进行分析,虽然可以满足实时性要求,但其分析的性能基本无法满足要求,并且在进行分析时会占用大量的计算资源和 IO 资源,从而影响到 TP 性能。因此,传统的做法是将分析任务放在业务低峰时候(通常是半夜进行,因此大家经常会看见 T+1的...
相关文章
文章评论
共有0条评论来说两句吧...