新书上线 | 《使用 NGINX 部署和保护 Kubernetes Ingress Controller》中文版
原文作者:Amir Rawdat
原文链接:新书上线 | 《使用 NGINX 部署和保护 Kubernetes Ingress Controller》中文版
转载来源:NGINX 开源社区
NGINX 唯一中文官方社区 ,尽在 nginx.org.cn
Kubernetes 是一种容器编排平台,旨在简化大规模容器化应用的编排与管理。然而,在混合或多云的生产环境中运行 Kubernetes 可能是一项复杂的任务。
而 NGINX 通过一套统一的且与基础设施无关的 Kubernetes 原生工具,提供企业级的性能、可用性、安全性和可视化,帮助简化应用和 API 互联。
《使用 NGINX 部署和保护 Kubernetes Ingress Controller》一书由 NGINX 专家团队亲自编写校对,提供了有关 NGINX Ingress Controller、NGINX Service Mesh 和 NGINX App Protect 的实践指南,旨在通过详尽的解释、图表和代码示例,帮助用户为部署和管理企业级 Kubernetes 环境做好准备。
这本超过 180 页的实践指南适用于平台工程、应用开发以及基础设施和运营团队。它通过提供有关安装和配置、四层和七层负载均衡、流量精分技术、分布式跟踪和监控、单点登录等方面信息,展示了如何将 NGINX Ingress Controller、NGINX Service Mesh 和 NGINX App Protect 等工具集成到您的环境中,以简化 Kubernetes 应用互联。
通过阅读本书,您将会了解到:
-
如何安装和使用 NGINX Ingress Controller 来实现包括负载均衡、API 网关、安全防护、合规要求以及监控和可视化在内的用例
-
何时配置速率限制、断路、蓝绿部署、灰度部署、A/B 测试和调试路由
-
使用 Grafana、Jaeger、Prometheus 和 AWS CloudWatch 等第三方可视化、跟踪和监控工具集成
-
如何通过身份验证、授权、访问控制、加密、NGINX App Protect 和零信任技术来保护 Kubernetes 应用免受网络安全威胁
立即下载
本指南对任何设置、运行和使用 Kubernetes 环境的团队来说都大有裨益,无论您是 Kubernetes 资深用户还是新手,希望这本电子书能助您顺利开启 Kubernetes 之旅。
点击此处,立即前往 NGINX 中文官网免费下载电子版全本。
NGINX 唯一中文官方社区 ,尽在 nginx.org.cn

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
前谷歌 TensorFlow 核心创始成员潘欣加入零一万物
根据「甲子光年」的独家报道,前谷歌TensorFlow核心创始成员潘欣已于去年加入「零一万物」,担任首席架构师,负责多模态研发。 潘欣毕业于北京邮电大学与滑铁卢大学计算机系,与深度学习框架打交道多年,曾任职于谷歌、百度、腾讯、字节跳动,在CVPR,ICCV,SoCC等会议发表论文。 在谷歌期间,潘欣先在Core Infra从事大数据系统开发,后在2015年底加入谷歌大脑团队(Google Brain),与谷歌大脑的联合创始人杰夫·迪恩(Jeff Dean)、萨米·本吉奥(Samy Bengio)等合作,为TensorFlow和Brain Research的核心创始成员之一,对Eager、TPU、Profiling和Model Zoo等技术做出重要贡献。 2017年底,潘欣带着“打造国产第一框架”的理想受邀加入百度,担任深度学习技术平台部架构师,负责PaddlePaddle框架开发。2019年,潘欣加入腾讯担任平台与内容事业群(PCG) AI平台技术负责人,打造了深度学习框架“无量”。 在加入零一万物之前,潘欣在字节跳动担任AIGC和视觉大模型AI平台负责人。 零一万物是李开复博士在20...
- 下一篇
三个方面浅析数据对大语言模型的影响
本文分享自华为云社区《浅谈如何处理大语言模型训练数据之二数据影响分析》,作者:码上开花_Lancer。 由于大语言模型的训练需要巨大的计算资源,通常不可能多次迭代大语言模型预训练。千亿级参数量的大语言模型每次预训练的计算需要花费数百万元人民币。因此,在训练大语言模型之前,构建一个准备充分的预训练语料库尤为重要。 本篇文章中,将从数据规模、数量质量以及数据多样性三个方面分析数据对大语言模型的性能的影响。需要特别的说明的是,由于在千亿参数规模的大语言模型上进行实验的成本非常高,很多结论是在100 亿甚至是10 亿规模的语言模型上进行的实验,其结果并不能完整的反映数据对大语言模型的影响。此外,一些观点仍处于猜想阶段,需要进一步验证。需要各位读者甄别判断。 1.数据规模影响 随着大语言模型参数规模的增加,为了有效地训练模型,需要收集足够数量的高质量数据,在文献 针对模型参数规模、训练数据量以及总计算量与模型效果之间关系的研究之前,大部分大语言模型训练所采用的训练数据量相较于LLaMA 等最新的大语言模型模型都少很多。 表1给出了模型参数量和预训练数据量对比。在Chinchilla 模型提出之前...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- CentOS7编译安装Gcc9.2.0,解决mysql等软件编译问题
- CentOS7,8上快速安装Gitea,搭建Git服务器
- SpringBoot2配置默认Tomcat设置,开启更多高级功能
- Docker使用Oracle官方镜像安装(12C,18C,19C)
- SpringBoot2整合Thymeleaf,官方推荐html解决方案
- CentOS6,7,8上安装Nginx,支持https2.0的开启
- Docker快速安装Oracle11G,搭建oracle11g学习环境
- Windows10,CentOS7,CentOS8安装Nodejs环境
- CentOS7编译安装Cmake3.16.3,解决mysql等软件编译问题
- Springboot2将连接池hikari替换为druid,体验最强大的数据库连接池