NIO究竟牛X在哪?
在进入NIO之前,先回顾一下Java标准IO方式实现的网络server端:
public class IOServerThreadPool { private static final Logger LOGGER = LoggerFactory.getLogger(IOServerThreadPool.class); public static void main(String[] args) { ExecutorService executorService = Executors.newFixedThreadPool(Runtime.getRuntime().availableProcessors()); ServerSocket serverSocket = null; try { serverSocket = new ServerSocket(); serverSocket.bind(new InetSocketAddress(2345)); } catch (IOException ex) { LOGGER.error("Listen failed", ex); return; } try{ while(true) { Socket socket = serverSocket.accept(); executorService.submit(() -> { try{ InputStream inputstream = socket.getInputStream(); LOGGER.info("Received message {}", IOUtils.toString(new InputStreamReader(inputstream))); } catch (IOException ex) { LOGGER.error("Read message failed", ex); } }); } } catch(IOException ex) { try { serverSocket.close(); } catch (IOException e) { } LOGGER.error("Accept connection failed", ex); } } }
这是一个经典的每连接每线程的模型,之所以使用多线程,主要原因在于socket.accept()、socket.read()、socket.write()三个主要函数都是同步阻塞的,当一个连接在处理I/O的时候,系统是阻塞的,如果是单线程的话必然就挂死在那里;但CPU是被释放出来的,开启多线程,就可以让CPU去处理更多的事情。其实这也是所有使用多线程的本质:
- 利用多核。
- 当I/O阻塞系统,但CPU空闲的时候,可以利用多线程使用CPU资源。
现在的多线程一般都使用线程池,可以让线程的创建和回收成本相对较低。在活动连接数不是特别高(小于单机1000)的情况下,这种模型是比较不错的,可以让每一个连接专注于自己的I/O并且编程模型简单,也不用过多考虑系统的过载、限流等问题。线程池本身就是一个天然的漏斗,可以缓冲一些系统处理不了的连接或请求。
不过,这个模型最本质的问题在于,严重依赖于线程。但线程是很"贵"的资源,主要表现在:
- 线程的创建和销毁成本很高,在Linux这样的操作系统中,线程本质上就是一个进程。创建和销毁都是重量级的系统函数。
- 线程本身占用较大内存,像Java的线程栈,一般至少分配512K~1M的空间,如果系统中的线程数过千,恐怕整个JVM的内存都会被吃掉一半。
- 线程的切换成本是很高的。操作系统发生线程切换的时候,需要保留线程的上下文,然后执行系统调用。如果线程数过高,可能执行线程切换的时间甚至会大于线程执行的时间,这时候带来的表现往往是系统load偏高、CPU sy使用率特别高(超过20%以上),导致系统几乎陷入不可用的状态。
- 容易造成锯齿状的系统负载。因为系统负载是用活动线程数或CPU核心数,一旦线程数量高但外部网络环境不是很稳定,就很容易造成大量请求的结果同时返回,激活大量阻塞线程从而使系统负载压力过大。
所以,当面对十万甚至百万级连接的时候,传统的BIO模型是无能为力的。随着移动端应用的兴起和各种网络游戏的盛行,百万级长连接日趋普遍,此时,必然需要一种更高效的I/O处理模型。
BIO弱在哪里?
都说NIO更高效,那BIO怎么就弱了呢?弱在哪里呢?现在通过上面BIO方式编写的server一探究竟。
场景:假设客户端在与server建立连接后,请求传输200M数据。
server端运行在某服务器操作系统上,JVM在该服务器操作系统内核(OS kernel)之上,而BIO方式编写的server程序(Java application)则是跑在JVM上。
将经历以下步骤:
1、client请求发送数据
2、server端的Java application并不能直接开始接收数据,而是需要等待 OS kernel 接收网络数据传输的网卡准备就绪,网卡是专门负责网络数据传输的。
3、网卡就绪,执行接收数据到OS kernel,此时数据需要完整地copy到操作系统内核缓冲区中。这是第一次copy数据,传输的时间取决于传输数据的大小和网络带宽。(传输时间=数据大小/带宽)
4、运行在JVM上的Java应用程序,在接收客户端发送到数据时调用getInputStream(),但并不是立马就能get到,需要等待操作系统内核(网卡)已经把数据接收(copy)完毕,且内核准备就绪。
5、内核准备就绪,会通过管道将数据全部复制到JVM中,这一次是将内核缓冲区中的数据copy到JVM中(JVM运行时数据区)。
6、这时数据已全部存在在JVM中,server端应用程序才能通过InputStream将数据传输到Java application业务处理处,此时真正拿到client传来的数据(也就是getInputStream()里面的内容),执行具体的业务逻辑处理。
还需要注意的是:java.io.inputstream 传输数据时,数据必须是完整的。也就是说,上例中传输200M数据,操作系统内核必须全部接收好,一次性给我(JVM)。
看似简单的serverSocket.accept()后,开启子线程,执行socket.getInputStream()拿client传过来的数据,其实经历上面的步骤,Java application需要借助OS kernel 完成2次copy。这也是为什么这种方式通常是一个连接一个线程,2次copy受到网络拥塞、网络波动等因素的影响。
基于事件、通知模型的NIO
提到事件、通知,大家自然会想到——观察者模式,简单描述如下:
观察者模式中三个组成角色,观察者、被观察者(服务提供者)、观察的主题,也就是事件。观察者首先需要订阅感兴趣的事件,然后当事件发生时,被观察者会进行通知。
基于事件、通知模型的NIO,就是基于此实现的。此实现非常巧妙,观察者是JVM,被观察者是OS kernel 。
JVM作为观察者,它可以向OS kernel 订阅连接事件、数据可读事件、数据可写事件。Java NIO提供了事件池Keys,当订阅的事件发生时,OS kernel 就会通知JVM,并将该事件放入事件池当中,而运行在JVM上的Java application可以用NIO提供的selector从事件池中轮询就绪的消息;轮询到就绪的事件后即可直接执行。
在JVM注册事件后,只需要selector事件池就好了,select到就绪的事件就处理,整个过程就无其他需要阻塞等待执行的地方。通常selector是一个单独的线程。
还是以上面传输200M数据的场景,梳理下NIO的工作方式:
1、首先server端需要绑定IP+port,并向OS kernel 注册连接事件,等待客户端的连接请求。
2、client客户端请求server地址,请求建立连接。
3、OS kernel 得知client网络连接请求,并通知JVM,将连接事件放入事件池。操作系统内核OS kernel 有专门负责网络数据传输的网卡,对于即将发生的网络传输事件,操作系统内核会早于JVM得知;可读可写事件也类似。
4、运行在JVM上的Java application,selector线程select到连接事件,server端执行建立连接(ssc.accept())。
5、client完成三次握手。建立连接完成,也有一个对应的事件OP_CONNECT,OS kernel 也会把它放入事件池。
6、Java application的selector线程select到连接完成事件。
7、server端订阅可读事件(准备接收数据),告诉OS kernel 等数据准备好来通知我。
8、client发送200M数据,数据由OS kernel 网卡接收到内核缓冲区。
9、接收完成后,OS kernel 会通知JVM数据准备就绪,将数据可读事件放入事件池。此时数据在内核缓冲区,不在JVM中。
10、Java application的selector线程select到可读事件,通过NIO提供的channel将200M数据(从内核缓冲区)接收到JVM运行时数据区。此时server端接收client发送的数据完毕。
Java application通过NIO提供的channel copy数据,channel有网络套接字/文件Chanel等多种类型,channel是类似于Linux系统里面的管道,是双向通道。在使用channel时,Java application还会用到buffer,buffer也有多种类型。
Tomcat优化配置
Tomcat 默认单机配置下QPS 100-150
QPS150以上 延迟200ms
QPS300以上 延迟500ms 并有丢失连接。
Tomcat 可以配置成nio方式
config/server.xml中 将connector节点的protocol改成protocol="org.apache.coyote.http11.Http11NioProtocol"。
更高效的方式:
APR:通过JNI,用c语言实现的更高效的网络数据交换方式。APR 是tomcat特有的。
AIO:和底层联系更密切,selector都给省略了。
转载请联系原作者 https://www.jianshu.com/u/dd8907cc9fa5

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
点击一百万次(详解)——bugku
刚刚做了bugku的题目,现在整理一下 写出解题思路,希望能够帮助到那些需要帮助的人 所有的wp都是以一题一篇的形式写出 主要是为了能够让读者更好的阅读以及查找, 希望你们不要责怪!!共勉!!! Challenge 1208 Solves 点击一百万次 80 http://120.24.86.145:9001/test/ hints:JavaScript 解题思路:查看源代码就会得到: <body> <h1 id="goal">Goal: <span id="clickcount">0</span>/1000000</h1> <img id="cookie" src="cookie.png"> <span id="flag"></span> </body> <script> var clicks=0 $(function() { $("#cookie") .mousedown(function() { $(this).width('350px').height...
- 下一篇
基于JDK命令行工具的监控
JVM的参数类型 JVM参数类型大体分为三种: 标准参数,基本每个版本的JVM都有的参数,比较稳定不变 X参数,非标准化的参数,每个JVM版本的都有些不一样,但是变化较小 XX参数,非标准化的参数,相对不稳定,每个JVM版本的变化都比较大,主要用于JVM调优和Debug 常见的标准参数: -help -server -client -version -showversion -cp -classpath 常见的X参数: -Xint : 解释执行 -Xcomp : 第一次使用就编译成本地代码 -Xmixed : 混合模式,JVM自己来决定是否编译成本地代码,这是默认的模式 XX参数又分为两大类,一种是Boolean类型,如下: 另一种则是key/value类型的,如下: 要说最常见的JVM参数应该是 -Xmx 与 -Xms 这两个参数,前者用于指定初始化堆的大小,而后者用于指定堆的最大值。然后就是-Xss参数,它用于指定线程的堆栈大小。可以看到这三个参数都是以-X开头的,它们是-X参数吗?实际上不是的,它们是XX参数,是属于一种缩写形式: 查看JVM运行时参数 查看JVM运行时的参数是很...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- CentOS7编译安装Cmake3.16.3,解决mysql等软件编译问题
- Windows10,CentOS7,CentOS8安装Nodejs环境
- 设置Eclipse缩进为4个空格,增强代码规范
- Eclipse初始化配置,告别卡顿、闪退、编译时间过长
- Springboot2将连接池hikari替换为druid,体验最强大的数据库连接池
- SpringBoot2全家桶,快速入门学习开发网站教程
- CentOS8编译安装MySQL8.0.19
- CentOS8,CentOS7,CentOS6编译安装Redis5.0.7
- SpringBoot2整合Thymeleaf,官方推荐html解决方案
- CentOS8安装Docker,最新的服务器搭配容器使用