Java NIO框架Netty教程(十二)-并发访问测试(中)
写在前面:对Netty并发问题的测试和解决完全超出了我的预期,想说的东西越来越多。所以才出现这个中篇,也就是说,一定会有下篇。至于问题点的发现,OneCoder也在努力验证中。
继续并发的问题。在《Java NIO框架Netty教程(十一)-并发访问测试(上)》中,我们测试的其实是一种伪并发的情景。底层实际只有一个Channel在运作,不会出现什么无响应的问题。而实际的并发不是这个意思的,独立的客户端,自然就会有独立的channel。也就是一个服务端很可能和很多的客户端建立关系,就有很多的Channel,进行了多次的绑定。下面我们来模拟一下这种场景。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
/**
* Netty并发,多connection,socket并发测试
*
* @author lihzh(OneCoder)
* @alia OneCoder
* @Blog http://www.coderli.com
* @date 2012-8-13 下午10:47:28
*/
public class ConcurrencyNettyMultiConnection {
public static void main(String args[]) {
final ClientBootstrap bootstrap = new ClientBootstrap(
new NioClientSocketChannelFactory(
Executors.newCachedThreadPool(),
Executors.newCachedThreadPool()));
// 设置一个处理服务端消息和各种消息事件的类(Handler)
bootstrap.setPipelineFactory(new ChannelPipelineFactory() {
@Override
public ChannelPipeline getPipeline() throws Exception {
return Channels.pipeline(new ObjectEncoder(),
new ObjectClientHandler()
);
}
});
for (int i = 0; i < 3; i++) {
bootstrap.connect(new InetSocketAddress("127.0.0.1", 8000));
}
}
}
看到这段代码,你可能会疑问,这是在做什么。这个验证是基于酷壳的文章《Java NIO类库Selector机制解析(上)》。他是基于Java Selector直接进行的验证,Netty是在此之上封装了一层。其实OneCoder也做了Selector层的验证。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
/**
* Selector打开端口数量测试
*
* @author lihzh
* @alia OneCoder
* @blog http://www.coderli.com
*/
public class ConcurrencySelectorOpen {
/**
* @author lihzh
* @alia OneCoder
* @throws IOException
* @throws InterruptedException
* @date 2012-8-15 下午1:57:56
*/
public static void main(String[] args) throws IOException, InterruptedException {
for (int i = 0; i < 3; i++) {
Selector selector = Selector.open();
SocketChannel channel = SocketChannel.open();
channel.configureBlocking(false);
channel.connect(new InetSocketAddress("127.0.0.1", 8000));
channel.register(selector, SelectionKey.OP_READ);
}
Thread.sleep(300000);
}
}
同样,通过Process Explorer去观察端口占用情况,开始跟酷壳大哥的观察到的效果一样。当不启动Server端,也就是不实际跟Server端建立链接的时候,3次selector open,占用了6个端口。
当启动Server端,进行绑定的时候,占用了9个端口
其实,多的三个,就是实际绑定的8000端口。其余就是酷壳大哥说的内部Loop链接。也就是说,对于我们实际场景,一次链接需要的端口数是3个。操作系统的端口数和资源当然有有限的,也就是说当我们增大这个链接的时候,错误必然会发生了。OneCoder尝试一下3000次的场景,并没有出现错误,不过这么下去出错肯定是必然的。
再看看服务端的情况
这个还是直接通过Selector连接的时候的服务端的情况,除了两个内部回环端口以外,都是通过监听的8000的端口与外界通信,所以,服务端不会有端口限制的问题。不过,也可以看到,如果对链接不控制,服务端也维持大量的连接耗费系统资源!所以,良好的编码是多么的重要。
回到我们的主题,Netty的场景。先使用跟Selector测试一样的场景,单线程,一个bootstrap,连续多次connect看看错误和端口占用的情况。代码也就是开头提供的那段代码。
看看测试结果,
同样连接后还是占用9个端口。如果手动调用了channle.close()方法,则会释放与8000链接的端口,也就是变成6个端口占用。 增大连续连接数到10000。
首先没有报错,在每次close channel情况下,客户端端口占用情况如图(服务端情况类似)。
可见,并没有像selector那样无限的增加下去。这正是Netty中worker的巨大作用,帮我们管理这些琐碎的链接。具体分析,我们留待下章,您也可以自己研究一下。(OneCoder注:如果没关闭channel,会发现对8000端口的占用,会迅速增加。系统会很卡。)
调整测试代码,用一个线程来模拟一个客户端的请求。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
/**
* Netty并发,多connection,socket并发测试
*
* @author lihzh(OneCoder)
* @alia OneCoder
* @Blog http://www.coderli.com
* @date 2012-8-13 下午10:47:28
*/
public class ConcurrencyNettyMultiConnection {
public static void main(String args[]) {
final ClientBootstrap bootstrap = new ClientBootstrap(
new NioClientSocketChannelFactory(
Executors.newCachedThreadPool(),
Executors.newCachedThreadPool()));
// 设置一个处理服务端消息和各种消息事件的类(Handler)
bootstrap.setPipelineFactory(new ChannelPipelineFactory() {
@Override
public ChannelPipeline getPipeline() throws Exception {
return Channels.pipeline(new ObjectEncoder(),
new ObjectClientHandler()
);
}
});
for (int i = 0; i < 1000; i++) {
// 连接到本地的8000端口的服务端
Thread t = new Thread(new Runnable() {
@Override
public void run() {
bootstrap.connect(new InetSocketAddress("127.0.0.1", 8000));
try {
Thread.sleep(300000);
} catch (InterruptedException e) {
e.printStackTrace();
}
}
});
t.start();
}
}
}
不出所料,跟微博上问我问题的朋友出现的问题应该是一样的:
1
2
3
4
5
Write: 973
Write: 974
八月 17, 2012 9:57:28 下午 org.jboss.netty.channel.SimpleChannelHandler
警告: EXCEPTION, please implement one.coder.netty.chapter.eight.ObjectClientHandler.exceptionCaught() for proper handling.
java.net.ConnectException: Connection refused: no further information
这个问题,笔者确实尚未分析出原因,仅从端口占用情况来看,跟前面的测试用例跑出的效果基本类似。应该说明不是端口不足导致的,不过OneCoder尚不敢妄下结论。待研究后,我们下回分解吧:)您有任何想法,也可以提供给我,我来进行验证。