Nginx负载均衡
在大型网站中,负载均衡是有想当必要的。尤其是在同一时间访问量比较大的大型网站,例如网上商城,新闻等CMS系统,为了减轻单个服务器的处理压力,我们引进了负载均衡这一个概念,将一个服务器的压力分摊到几个服务器上,一方面减轻了宕机的几率,另一方面也使得宕机后还要其他服务器可以继续稳定运行,提高了系统的健壮性。
这篇文章将要介绍的主要内容如下:
- 配置三台服务器
- 分别在三台服务器上部署同样的服务代码
- 使用Nginx实现负载均衡
开发及部署环境
VisualStudio 2017
部署环境:阿里云 ECS实例 windows server 2012 x64
IIS 7.0
所需技术
实现过程
public IHttpActionResult GetTest(){
//throw new Exception_DG_Internationalization(1001);
string ip = Request.GetIpAddressFromRequest();
return OK("Test Api . Client Ip Address is -> "+ip+" The Server is ===== 333 =====");
}我部署的三台服务器后面的数字分别是 111,222,333
注:return OK是本人自定义的返回格式,具体简单代码可以直接return Json();Request.GetIpAddressFromRequest();是本人扩展的获取ip地址的方法,具体实现请按自身情况实现。
系统测试
为了保密服务器信息,以下我的所有ip地址都将以ip_A,ip_B,ip_C来标识。
部署好后,我们进行Nginx的配置:
下载Nginx http://nginx.org/en/download.html
然后解压到ip_C服务器,并打开conf文件夹下的nginx.conf
编辑内容如下
然后我们启动服务:
cmd命令切换到nginx的根目录下
这样,服务就算启动了... 吐槽一句,为什么不提示一句服务启动成功呢..欸,不人性化!
然后我们打开任意一个接口测试工具,分别执行三次相同的请求:
请求一、
请求二、
请求三、
可以发现,我们每一次的请求,调用的后台服务接口都不是同一个,这样就保证了在大量客户访问同一个服务器地址时候,可以将一个服务器的压力分别分摊到几个服务器上,达到了负载均衡的目的。