vsphere数据中心网络规划实践
使用vsphere也有几年时间了,基本保持每年一次大版本升级,从5.0版升级到5.5、6.0,最近开始部署6.5,最头疼的问题就是网络规划,这也是vsphere部署的重点。
从传统数据中心转型时,只有4台HP机架式服务器,压根没考虑过网络规划的事,跟原来的服务器混用一个vlan,一个C类地址。这也就造成了以后的各种麻烦,随着服务器的增加,IP不够用,安全性没有保障。
虽然数据中心可以正常运转,但是不合理,趁着规模小,又赶上升级6.5,正好重新规划一下网络。
根据最佳实践做法,Management、vMotion、vSphereFT、iSCSI等的网络相互隔离,从而提高安全性和性能。同时每个网络建议配置2块物理网卡用作冗余和负载均衡,根据最佳实践可能至少需要6块网卡,多则十几块网卡,这对标配4块网卡的机架式服务器是不现实的。
我的标准配置是4块网卡,vMotion、Management和vSphereFT网络共用2块网卡,生产网络用2块网卡。vSwitch使用access端口,vSphere Distributed Switch使用trunk模式。
vlan20 172.20.20.1/24 HP oa、vc、ilo、FC SAN存储等硬件管理地址
vlan21 172.20.21.1/24 vcenter、vsphere、vcops、vdp等VMware地址
172.20.0.1/24 vmotion地址
172.20.1.1/24 vSphere FT地址
vlan100 x.x.x.x/24 对外web服务地址
vlan200 x.x.x.x/24 对内业务运维平台地址
vMotion和vSphereFT走二层即可,无需配置路由,在vsphere6.5版本中可为vMotion配置独立的TCP/IP堆栈。
在vMotion网络配置上犯过一个错误,以前都为vMotion网络配置独立的VMkernel,升级到6.0的时候发现做到Management里也没问题,就不再为vMotion配置独立地址,在双物理网卡的情况下一般是不会出现问题的,但是当一块物理网卡出现故障时做vMotion操作就会导致单播泛洪。
安全策略:
1. 通过三层交换的acl或端口隔离阻止互相访问
2. 防火墙上的策略只允许管理员访问管理地址
最佳实践网络拓扑图如下,建议上行端口分布到两台交换机上实现冗余。

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
oracle系列(五)高级DBA必知的Oracle的备份与恢复(全录收集)
博主QQ:819594300 博客地址:http://zpf666.blog.51cto.com/ 有什么疑问的朋友可以联系博主,博主会帮你们解答,谢谢支持! 数据库备份与恢复是数据库管理员必须掌握的。没有任何系统能免遭硬盘物理损坏、粗心用户的错误操作、或一些可能会威胁到存储数据的潜在灾难的侵袭。为了能够最大限度地恢复数据库数据,保证数据库的安全运行,应该选择最合理的备份方法来防止各种故障所导致的用户数据丢失,本次主要介绍三种备份恢复技术,即RMAN技术、数据泵技术及闪回技术。 一、备份与恢复概述 1、需要备份的原因 现实工作中有很多情况都可能造成数据丢失,造成数据丢失的主要因素如下。 介质故障:磁盘损坏、磁头碰撞,瞬时强磁场干扰 用户的错误操作 服务器的彻底崩溃 计算机病毒 不可预料的因素:自然灾害、电源故障、盗窃 上面是一些可能的故障原因,根据原因可以将oracle中的故障分为以下4种类型。 1)语句故障 语句故障时在执行sql语句过程中发生的逻辑故障。例如:向表中插入违反约束的无效数据,或者表空间没有空间了导致无法插入数据等。这时,应用人员或者DBA根据情况进行相应处理及可。 2...
- 下一篇
记一次服务器IO过高处理过程
记一次服务器IO过高处理过程 一、背景 在一次上线升级后,发现两台tomcat服务器的IOwait一直超过100ms,高峰时甚至超过300ms,检查服务器发现CPU负载,内存的使用率都不高。问题可能出现在硬盘读写,而且那块硬盘除了写日志外,没有其他的IO操作。最后发现是应用打印的日志信息太多,导致磁盘IO负载过高。 二、寻求解决过程 通过查找资料发现,Linux是用pdflush进程把数据从缓存页写入硬盘的,那么通过修改pdflush的一些参数应该可以改善IO负载问题。 pdflush的行为受/proc/sys/vm中的参数的控制 pdflush写入硬盘看两个参数: 1 数据在页缓存中是否超出30秒,如果是,标记为脏页缓存,写入磁盘; 2 脏页缓存是否达到工作内存的10%; pdflush的第一件事是读取 /proc/sys/vm/dirty_expire_centiseconds(default3000) 声明Linux内核写缓冲区里面的数据多“旧”了之后,pdflush进程就开始考虑写到磁盘中去。单位是 1/100秒。缺省是 30000,也就是 30 秒的数据就算旧了...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- CentOS8编译安装MySQL8.0.19
- Linux系统CentOS6、CentOS7手动修改IP地址
- CentOS8,CentOS7,CentOS6编译安装Redis5.0.7
- Docker快速安装Oracle11G,搭建oracle11g学习环境
- Windows10,CentOS7,CentOS8安装MongoDB4.0.16
- Windows10,CentOS7,CentOS8安装Nodejs环境
- Red5直播服务器,属于Java语言的直播服务器
- SpringBoot2全家桶,快速入门学习开发网站教程
- 2048小游戏-低调大师作品
- CentOS7安装Docker,走上虚拟化容器引擎之路