偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

全面了解TCP/IP知識體系結構總結

網(wǎng)絡 通信技術
我們從三個維度去分析服務器開發(fā)的TCP知識體系,分別為性能法則、設計法則和避坑法則。

一、TCP知識體系

我們從三個維度去分析服務器開發(fā)的TCP知識體系,分別為性能法則、設計法則和避坑法則。

全面了解TCP/IP知識體系結構總結(干貨)

二、性能法則

性能法則大致總結如下:

全面了解TCP/IP知識體系結構總結(干貨)

1. 減少數(shù)據(jù)傳遞

下面引用了左耳朵的"程序員如何用技術變現(xiàn)"文章中的一部分:

全面了解TCP/IP知識體系結構總結(干貨)

從上面我們可以看出減少數(shù)據(jù)傳遞對于性能是非常重要的。

2. 根據(jù)場景設置MTU

如果是內(nèi)網(wǎng)應用,通過合理設置MTU來提升性能是不能忽視的一種手段;對于移動應用,一般可以設置MTU為1492;對于外網(wǎng)應用,則設置通用的1500。

3. 利用TCP offload

帶寬消耗高的應用,可以考慮利用TCP offload來提升性能。

4. TCP NODELAY

目前服務器程序一般建議設置NODELAY為true,如果需要對小數(shù)據(jù)包合并,則可以考慮在應用層做數(shù)據(jù)合并(參考下圖Wikipedia中內(nèi)容)。

全面了解TCP/IP知識體系結構總結(干貨)

詳細內(nèi)容請參考:"https://en.wikipedia.org/wiki/Nagle%27s_algorithm"

5. 采用合適的擁塞控制算法

下圖展示了數(shù)據(jù)包經(jīng)過路由器Queue的場景。

全面了解TCP/IP知識體系結構總結(干貨)

第一種是最理想的情況,數(shù)據(jù)包到達路由器,無需等待就能直接轉發(fā)出去;第二種是等待一段時間,才能發(fā)送出去;第三種是因為路由器queue滿,數(shù)據(jù)包被路由器丟掉。

發(fā)送數(shù)據(jù)過猛可能導致第三種情況發(fā)生。

下面展示了Linux默認算法CUBIC和BBR算法在丟包情況下的吞吐量對比:

全面了解TCP/IP知識體系結構總結(干貨)

從上圖可以看出,BBR擁塞控制算法可以在20%丟包率以下保持吞吐量,因此BBR的抗網(wǎng)絡抖動性比CUBIC要好。

BBR算法優(yōu)異的根本原因如下:

  • 在有一定丟包率的網(wǎng)絡鏈路上充分利用帶寬
  • 降低路由器的queue占用率,從而降低延遲

一般建議在非網(wǎng)絡擁塞導致丟包的場合使用BBR算法,例如移動應用。

對于帶寬比較大,RTT時間比較長的應用場景,可以參考。

6. 使用REUSEPORT

針對短連接應用(例如PHP應用),為防止服務器應用來不及接收連接請求,可以采用Linux REUSEPORT機制。我們開發(fā)的數(shù)據(jù)庫中間件Cetus利用REUSEPORT機制成功避開了應用短連接的沖擊。

三、設計法則

1. 規(guī)避TCP HOL問題

盡量采用多連接,不要采用單個連接來傳遞大量數(shù)據(jù)。

2. 傳輸盡量平穩(wěn),不抖動

如果數(shù)據(jù)傳輸比較抖動,那么容易導致如下問題:

  • 內(nèi)存膨脹
  • 性能不穩(wěn)定
  • 壓縮算法效率低下

在開發(fā)數(shù)據(jù)庫中間件Cetus的時候,我們控制了每次數(shù)據(jù)傳輸?shù)膫鬏斄?,在采用同樣壓縮算法的情況下,cetus壓縮比遠遠好于MySQL的壓縮比。

3. TCP stream流式傳輸

TCP stream主要用在中間件服務。

下圖是沒有采用TCP stream的交互圖。中間件接收完Server端的響應后,才開始發(fā)送給客戶端。不少數(shù)據(jù)庫中間件采用這樣的工作方式,導致中間件內(nèi)存消耗巨大。

全面了解TCP/IP知識體系結構總結(干貨)

下圖采用了TCP stream方式后,不僅降低了延遲,也降低了內(nèi)存消耗(因為無需保留所有響應)。

全面了解TCP/IP知識體系結構總結(干貨)

服務器中間件程序最好實現(xiàn)TCP stream,否則易發(fā)生內(nèi)存炸裂等問題。

4. 上層應用pipeline機制

TCP本身并不具備pipeline機制,但上層應用可以利用pineline機制來提升服務器應用的吞吐量。

下圖是沒有采用pipeline的交互圖,客戶端需接收到服務器響應后才能發(fā)送下一個請求。

全面了解TCP/IP知識體系結構總結(干貨)

下圖是采用pipeline的交互圖??蛻舳藷o需等待響應就可以連續(xù)發(fā)送多個請求。

對于TCP來說,請求1、請求2和請求3看成一個請求,響應1、響應2和響應3看成一個響應;對于上層應用來說,則是3個請求,3個響應。

全面了解TCP/IP知識體系結構總結(干貨)

目前,很多協(xié)議或者軟件采用pipeline機制來提升應用的吞吐量,例如HTTP v2協(xié)議支持pipeline發(fā)送請求,Redis采用pipeline機制來提升應用的吞吐量。

5. 合并小數(shù)據(jù)

運行TCPCopy的時候,intercept返回響應包的TCP/IP header給tcpcopy。一般TCP/IP header只有幾十字節(jié),如果每次write操作只傳輸一個響應包的TCP/IP header,那么效率就會非常低。為了提升傳輸效率,intercept合并若干個響應包的TCP/IP header信息一起發(fā)送。

四、避坑法則4.1 加上keepalive機制

TCP keepalive機制可以用來檢測連接是否還存活,具體可以參考"對付Reset流氓干擾:TCP keepalive"。

1. MTU

參考:"https://wiki.archlinux.org/index.php/Jumbo_frames"

2. 確保網(wǎng)絡通暢

云環(huán)境、中途設備程序、TCP offload和負載均衡器或多或少存在一些問題,而這些問題如果不及時解決,會極大影響程序的性能和問題排查。

這方面一般可以通過抓包的方式去查明問題。

下面展示了負載均衡器自身bug導致了網(wǎng)絡不通暢。

由于負載均衡器沒有嚴格按照TCP session的方式進行負載均衡,有些TCP session的數(shù)據(jù)包跑到了不同的機器,進而導致應用端報請求超時。

最初連接的數(shù)據(jù)包跑到了180機器。

全面了解TCP/IP知識體系結構總結(干貨)

后來這個連接的數(shù)據(jù)包跑到了176機器(參考下圖)。

全面了解TCP/IP知識體系結構總結(干貨)

負載均衡器出現(xiàn)這種bug,會造成用戶的極大困擾,很難查明問題原因。

這時要么更換負載均衡器,要么找廠商解決負載均衡器的bug,否則上層應用會一直報網(wǎng)絡超時等問題。

五、總結

對于服務器開發(fā)人員,只有了解了TCP知識體系后,開發(fā)起來才能夠得心應手,同時可以規(guī)避一些潛在的坑。

 

責任編輯:趙寧寧 來源: 今日頭條
相關推薦

2010-04-23 09:13:05

Oracle體系結構

2019-09-02 10:20:27

TCPIP協(xié)議

2017-03-21 14:16:43

編程體系結構

2020-03-09 10:31:58

vue前端開發(fā)

2015-07-16 10:15:44

web前端知識體系

2015-07-28 17:52:36

IOS知識體系

2017-07-25 17:34:54

大數(shù)據(jù)機器學習數(shù)據(jù)

2010-04-20 10:23:06

Oracle入門

2010-06-12 15:49:54

TCP IP協(xié)議基礎知

2012-03-08 11:13:23

企業(yè)架構

2017-06-22 13:07:21

2017-02-27 16:42:23

Spark識體系

2017-04-03 15:35:13

知識體系架構

2009-06-26 15:58:28

EJB

2009-09-11 10:38:03

LINQ體系結構

2012-02-06 17:22:44

MySQL

2009-07-15 13:46:26

Swing體系結構

2014-07-23 09:33:52

2018-06-11 08:46:01

高性能Lustre體系

2016-03-02 15:09:57

Java虛擬機體系結構
點贊
收藏

51CTO技術棧公眾號