Dubbo中的連接控制,你真的理解嗎?
本文轉(zhuǎn)載自微信公眾號「Kirito的技術分享」,作者kiritomoe。轉(zhuǎn)載本文請聯(lián)系Kirito的技術分享公眾號。
前言
剛發(fā)現(xiàn)微信公眾號有了標簽功能,于是乎,我將我 Dubbo 相關的文章都打上了標簽,仔細一統(tǒng)計,這已經(jīng)是我第 41 篇原創(chuàng)的 Dubbo 文章了,如果你希望看到我其他的 Dubbo 文章,可以從話題標簽點擊進入。
這是一篇很久之前就想動筆寫的文章,最近正好看到群里有小伙伴分享了 Dubbo 連接相關的文章,才又讓我想起了這個話題。今天想跟大家聊的便是 Dubbo 中的連接控制這一話題。說到“連接控制”,可能有讀者還沒反應過來,但你對下面的配置可能不會感到陌生:
- <dubbo:reference interface="com.foo.BarService" connections="10" />
 
如果你還不了解 Dubbo 中連接控制的用法,可以參考官方文檔:https://dubbo.apache.org/zh/docs/advanced/config-connections/ ,話說最近 Dubbo 官方文檔來了一次大換血,好多熟悉的文檔差點都沒找到在哪兒 Orz。
眾所周知,dubbo 協(xié)議通信默認是長連接,連接配置功能用于決定消費者與提供者建立的長連接數(shù)。但官方文檔只給出了該功能的使用方法,卻并沒有說明什么時候應該配置連接控制,本文將主要圍繞該話題進行探討。
本文也會涉及長連接相關的一些知識點。
##使用方式
先來看一個 Dubbo 構(gòu)建的簡單 demo,啟動一個消費者(192.168.4.226)和一個提供者(192.168.4.224),配置他們的直連。
消費者:
- <dubbo:reference id="userService" check="false"
 - interface="org.apache.dubbo.benchmark.service.UserService"
 - url="dubbo://192.168.4.224:20880"/>
 
提供者:
- <dubbo:service interface="org.apache.dubbo.benchmark.service.UserService" ref="userService" />
 - <bean id="userService" class="org.apache.dubbo.benchmark.service.UserServiceServerImpl"/>
 
長連接是看不見摸不著的東西,我們需要一個觀測性工作來”看到“它。啟動提供者和消費者之后,可以使用如下的命令查看 tcp 連接情況
- Mac 下可使用:lsof -i:20880
 - Linux 下可使用:netstat -ano | grep 20880
 
提供者:
- [root ~]# netstat -ano | grep 20880
 - tcp6 0 0 192.168.4.224:20880 :::* LISTEN off (0.00/0/0)
 - tcp6 2502 0 192.168.4.224:20880 192.168.4.226:59100 ESTABLISHED off (0.00/0/0)
 
消費者:
- [root@ ~]# netstat -ano | grep 20880
 - tcp6 320 720 192.168.4.226:59110 192.168.4.224:20880 ESTABLISHED on (0.00/0/0)
 
通過上述觀察到的現(xiàn)象我們可以發(fā)現(xiàn)幾個事實。
僅僅是啟動了提供者和消費者,上述的 TCP 連接就已經(jīng)了存在,要知道我并沒有觸發(fā)調(diào)用。也就是說,Dubbo 建連的默認策略是在地址發(fā)現(xiàn)時,而不是在調(diào)用時。當然,你也可以通過延遲加載 lazy="true" 來修改這一行為,這樣可以將建聯(lián)延遲到調(diào)用時。
- <dubbo:reference id="userService" check="false"
 - interface="org.apache.dubbo.benchmark.service.UserService"
 - url="dubbo://${server.host}:${server.port}"
 - lazy="true"/>
 
除此之外,還可以發(fā)現(xiàn)消費者和提供者之間只有一條長連接,20880 是 Dubbo 提供者默認開放的端口,就跟 tomcat 默認開放的 8080 一個地位,而 59110 是消費者隨機生成的一個端口。(我之前跟一些朋友交流過,發(fā)現(xiàn)很多人不知道消費者也是需要占用一個端口的)
而今天的主角”連接控制“便可以控制長連接的數(shù)量,例如我們可以進行如下的配置
- <dubbo:reference id="userService" check="false"
 - interface="org.apache.dubbo.benchmark.service.UserService"
 - url="dubbo://192.168.4.224:20880"
 - connections="2" />
 
再啟動一次消費者,觀察長連接情況
提供者:
- [root@ ~]# netstat -ano | grep 20880
 - tcp6 0 0 192.168.4.224:20880 :::* LISTEN off (0.00/0/0)
 - tcp6 2508 96 192.168.4.224:20880 192.168.4.226:59436 ESTABLISHED on (0.00/0/0)
 - tcp6 5016 256 192.168.4.224:20880 192.168.4.226:59434 ESTABLISHED on (0.00/0/0)
 
消費者:
- [root@ ~]# netstat -ano | grep 20880
 - tcp6 0 2520 192.168.4.226:59436 192.168.4.224:20880 ESTABLISHED on (0.00/0/0)
 - tcp6 48 1680 192.168.4.226:59434 192.168.4.224:20880 ESTABLISHED on (0.00/0/0)
 
可以看到,這里已經(jīng)變成了兩條長連接了。
什么時候需要配置多條長連接
現(xiàn)在我們知道了如何進行連接控制,但什么時候我們應該配置多少條長連接呢?這個時候我可以跟你說,具體視生產(chǎn)情況而定,但你如果你經(jīng)常看我的公眾號,肯定會知道這不是我的風格,我的風格是什么?benchmark!
寫作之前,我跟幾個同事和網(wǎng)友對這個話題進行了簡單的討論,其實也沒有什么定論,無非是對單連接和多連接吞吐量高低不同的論調(diào)。參考既往 Dubbo github 中的 issue,例如:https://github.com/apache/dubbo/pull/2457,我也參與了這個 pr 的討論,講道理,我是持懷疑態(tài)度的,我當時的觀點是多連接不一定能夠提升服務的吞吐量(還是挺保守的,沒有這么絕對)。
那接下來,還是用 benchmark 來說話吧,測試工程還是我們的老朋友,使用 Dubbo 官方提供的 dubbo-benchmark 工程。
- 測試工程地址:https://github.com/apache/dubbo-benchmark.git
 - 測試環(huán)境:2 臺阿里云 Linux 4c8g ECS
 
測試工程在之前的文章介紹過,這里就不過多贅述了,測試方案也非常簡單,兩輪 benchmark,分別測試 connections=1 和 connections=2 時,觀察測試方法的吞吐量。
說干就干,省略一堆測試步驟,直接給出測試結(jié)果。
- Benchmark Mode Cnt Score Error Units
 - Client.createUser thrpt 3 22265.286 ± 3060.319 ops/s
 - Client.existUser thrpt 3 33129.331 ± 1488.404 ops/s
 - Client.getUser thrpt 3 19916.133 ± 1745.249 ops/s
 - Client.listUser thrpt 3 3523.905 ± 590.250 ops/s
 
connections=2
- Benchmark Mode Cnt Score Error Units
 - Client.createUser thrpt 3 31111.698 ± 3039.052 ops/s
 - Client.existUser thrpt 3 42449.230 ± 2964.239 ops/s
 - Client.getUser thrpt 3 30647.173 ± 2551.448 ops/s
 - Client.listUser thrpt 3 6581.876 ± 469.831 ops/s
 
從測試結(jié)果來看,似乎單連接和多連接的差距是非常大的,近乎可以看做是 2 倍了!看起來連接控制的效果真是好呀,那么事實真的如此嗎?
按照這種方案第一次測試下來之后,我也不太相信這個結(jié)果,因為我之前按照其他方式做過多連接的測試,并且我也參加過第三屆中間件挑戰(zhàn)賽,使得我對長連接的認知是:大多數(shù)時候,單連接往往能發(fā)揮出最優(yōu)的性能。即使由于硬件原因,這個差距也不應該是兩倍。懷著這樣的疑問,我開始研究,是不是我的測試場景出了什么問題呢?
發(fā)現(xiàn)測試方案的問題
經(jīng)過和閃電俠的討論,他的一席話最終讓我定位到了問題的所在。
不知道大家看完我和閃電俠的對話,有沒有立刻定位到問題所在。
之前測試方案最大的問題便是沒有控制好變量,殊不知:在連接數(shù)變化的同時,實際使用的 IO 線程數(shù)實際也發(fā)生了變化。
Dubbo 使用 Netty 來實現(xiàn)長連接通信,提到長連接和 IO 線程的關系,這里就要介紹到 Netty 的連接模型了。一言以蔽之,Netty 的設置 IO worker 線程和 channel 是一對多的綁定關系,即一個 channel 在建連之后,便會完全由一個 IO 線程來負責全部的 IO 操作。再來看看 Dubbo 是如何設置 NettyClient 和 NettyServer 的 worker 線程組的:
客戶端 org.apache.dubbo.remoting.transport.netty4.NettyClient:
- private static final EventLoopGroup NIO_EVENT_LOOP_GROUP = eventLoopGroup(Constants.DEFAULT_IO_THREADS, "NettyClientWorker");
 - @Override
 - protected void doOpen() throws Throwable {
 - final NettyClientHandler nettyClientHandler = new NettyClientHandler(getUrl(), this);
 - bootstrap = new Bootstrap();
 - bootstrap.group(NIO_EVENT_LOOP_GROUP)
 - .option(ChannelOption.SO_KEEPALIVE, true)
 - .option(ChannelOption.TCP_NODELAY, true)
 - .option(ChannelOption.ALLOCATOR, PooledByteBufAllocator.DEFAULT);
 - ...
 - }
 
Constants.DEFAULT_IO_THREADS 在 org.apache.dubbo.remoting.Constants 中被寫死了
- int DEFAULT_IO_THREADS = Math.min(Runtime.getRuntime().availableProcessors() + 1, 32);
 
在我的 4c8g 的機器上,默認等于 5。
服務端 org.apache.dubbo.remoting.transport.netty4.NettyServer:
- protected void doOpen() throws Throwable {
 - bootstrap = new ServerBootstrap();
 - bossGroup = NettyEventLoopFactory.eventLoopGroup(1, "NettyServerBoss");
 - workerGroup = NettyEventLoopFactory.eventLoopGroup(
 - getUrl().getPositiveParameter(IO_THREADS_KEY, Constants.DEFAULT_IO_THREADS),
 - "NettyServerWorker");
 - final NettyServerHandler nettyServerHandler = new NettyServerHandler(getUrl(), this);
 - channels = nettyServerHandler.getChannels();
 - ServerBootstrap serverBootstrap = bootstrap.group(bossGroup, workerGroup)
 - .channel(NettyEventLoopFactory.serverSocketChannelClass());
 - .option(ChannelOption.SO_REUSEADDR, Boolean.TRUE)
 - .childOption(ChannelOption.TCP_NODELAY, Boolean.TRUE)
 - .childOption(ChannelOption.ALLOCATOR, PooledByteBufAllocator.DEFAULT);
 - }
 
服務端倒是可以配置,例如我們可以通過 protocol 來控制服務端的 IO 線程數(shù):
- <dubbo:protocol name="dubbo" host="${server.host}" server="netty4" port="${server.port}" iothreads="5"/>
 
如果不設置,則跟客戶端邏輯一致,是 core + 1 個線程。
好了,問題就在這兒,由于我并沒有進行任何 IO 線程的設置,所以客戶端和服務端都會默認開啟 5 個 IO 線程。當 connections=1 時,Netty 會將 channel1 綁定到一個 IO 線程上,而當 connections=2 時,Netty 會將 channel1 和 channel2 按照順序綁定到 NettyWorkerThread-1和 NettyWorkerThread-2 上,這樣就會有兩個 IO 線程在工作,這樣的測試結(jié)果當然是不公平的。
這里需要考慮實際情況,在實際生產(chǎn)中,大多數(shù)時候都是分布式場景,連接數(shù)一定都是大于 IO 線程數(shù)的,所以基本不會出現(xiàn)測試場景中的 channel 數(shù)少于 IO 線程數(shù)的場景。
解決方案也很簡單,我們需要控制變量,讓 IO 線程數(shù)一致,僅僅觀察連接數(shù)對吞吐量的影響。針對服務端,可以在 protocol 層配置 iothreads=1;針對客戶端,由于源碼被寫死了,這里我只能通過修改源碼的方式,重新本地打了一個包,使得客戶端 IO 線程數(shù)也可以通過 -D 參數(shù)指定。
改造之后的,我們得到了如下的測試結(jié)果:
1 IO 線程 1 連接
- Benchmark Mode Cnt Score Error Units
 - Client.createUser thrpt 3 22265.286 ± 3060.319 ops/s
 - Client.existUser thrpt 3 33129.331 ± 1488.404 ops/s
 - Client.getUser thrpt 3 19916.133 ± 1745.249 ops/s
 - Client.listUser thrpt 3 3523.905 ± 590.250 ops/s
 
1 IO 線程 2 連接
- Benchmark Mode Cnt Score Error Units
 - Client.createUser thrpt 3 21776.436 ± 1888.845 ops/s
 - Client.existUser thrpt 3 31826.320 ± 1350.434 ops/s
 - Client.getUser thrpt 3 19354.470 ± 369.486 ops/s
 - Client.listUser thrpt 3 3506.714 ± 18.924 ops/s
 
可以發(fā)現(xiàn),單純提升連接數(shù)并不會提升服務的吞吐量,這樣的測試結(jié)果也更加符合我認知的預期。
總結(jié)
從上述測試的結(jié)果來看,一些配置參數(shù)并不是越大就代表了越好,類似的例子我也在多線程寫文件等場景分析過,唯有理論分析+實際測試才能得出值得信服的結(jié)論。當然個人的測試,也可能會因為局部性關鍵信息的遺漏,導致誤差,例如,如果我最終沒有發(fā)現(xiàn) IO 線程數(shù)和連接數(shù)之間的隱性關聯(lián),很容易就得出連接數(shù)和吞吐量成正比的錯誤結(jié)論了。當然,也不一定就代表本文最終的結(jié)論是靠譜的,說不定還是不夠完善的,也歡迎大家留言,提出意見和建議。
最終回到最初的問題,我們什么時候應該配置 Dubbo 的連接控制呢?按照我個人的經(jīng)驗,大多數(shù)時候,生產(chǎn)環(huán)境下連接數(shù)是非常多的,你可以挑選一臺線上的主機,通過 netstat -ano| grep 20880| wc -l 來大概統(tǒng)計下,一般是遠超 IO 線程數(shù)的,沒必要再多配置成倍的連接數(shù),連接數(shù)和吞吐量并不是一個線性增長的關系。
Dubbo 框架有這個能力和大家真的需要用這個能力完全是兩碼事,我相信大多數(shù)讀者應該已經(jīng)過了技術新鮮感驅(qū)動項目的階段了吧?如果有一天你需要控制連接數(shù),去達到一定特殊的用途,你就會真心感嘆,Dubbo 真是強呀,這個擴展點都有。
Dubbo 的連接控制真的完全沒有用嗎?也不盡然,我的測試場景還是非常有限的,可能在不同硬件上會跑出不一樣的效果,例如我在第三屆中間件性能挑戰(zhàn)賽中,就是用 2 連接跑出了最好的成績,并非單連接。
最后,你如果僅僅使用 Dubbo 去維系你們的微服務架構(gòu),大部分情況不需要關注到連接控制這個特性,多花點時間搬磚吧,就醬,我也去搬磚了。
















 
 
 











 
 
 
 