閱讀66 返回首頁    go 阿裏雲 go 技術社區[雲棲]


關於TCP 半連接隊列和全連接隊列

關於TCP 半連接隊列和全連接隊列

最近碰到一個client端連接異常問題,然後定位分析並查閱各種資料文章,對TCP連接隊列有個深入的理解

查資料過程中發現沒有文章把這兩個隊列以及怎麼觀察他們的指標說清楚,希望通過這篇文章能把他們說清楚一點

問題描述

JAVA的client和server,使用socket通信。server使用NIO。
1.間歇性的出現client向server建立連接三次握手已經完成,但server的selector沒有響應到這連接。
2.出問題的時間點,會同時有很多連接出現這個問題。
3.selector沒有銷毀重建,一直用的都是一個。
4.程序剛啟動的時候必會出現一些,之後會間歇性出現。

分析問題

正常TCP建連接三次握手過程:

image.png

  • 第一步:client 發送 syn 到server 發起握手;
  • 第二步:server 收到 syn後回複syn+ack給client;
  • 第三步:client 收到syn+ack後,回複server一個ack表示收到了server的syn+ack(此時client的56911端口的連接已經是established)

從問題的描述來看,有點像TCP建連接的時候全連接隊列(accept隊列)滿了,尤其是症狀2、4. 為了證明是這個原因,馬上通過 ss -s 去看隊列的溢出統計數據:

667399 times the listen queue of a socket overflowed

反複看了幾次之後發現這個overflowed 一直在增加,那麼可以明確的是server上全連接隊列一定溢出了

接著查看溢出後,OS怎麼處理:

# cat /proc/sys/net/ipv4/tcp_abort_on_overflow
0

tcp_abort_on_overflow 為0表示如果三次握手第三步的時候全連接隊列滿了那麼server扔掉client 發過來的ack(在server端認為連接還沒建立起來)

為了證明客戶端應用代碼的異常跟全連接隊列滿有關係,我先把tcp_abort_on_overflow修改成 1,1表示第三步的時候如果全連接隊列滿了,server發送一個reset包給client,表示廢掉這個握手過程和這個連接(本來在server端這個連接就還沒建立起來)。

接著測試然後在客戶端異常中可以看到很多connection reset by peer的錯誤,到此證明客戶端錯誤是這個原因導致的。

於是開發同學翻看java 源代碼發現socket 默認的backlog(這個值控製全連接隊列的大小,後麵再詳述)是50,於是改大重新跑,經過12個小時以上的壓測,這個錯誤一次都沒出現過,同時 overflowed 也不再增加了。

到此問題解決,簡單來說TCP三次握手後有個accept隊列,進到這個隊列才能從Listen變成accept,默認backlog 值是50,很容易就滿了。滿了之後握手第三步的時候server就忽略了client發過來的ack包(隔一段時間server重發握手第二步的syn+ack包給client),如果這個連接一直排不上隊就異常了。

深入理解TCP握手過程中建連接的流程和隊列


(圖片來源:https://www.cnxct.com/something-about-phpfpm-s-backlog/)

如上圖所示,這裏有兩個隊列:syns queue(半連接隊列);accept queue(全連接隊列)

三次握手中,在第一步server收到client的syn後,把相關信息放到半連接隊列中,同時回複syn+ack給client(第二步);

比如syn floods 攻擊就是針對半連接隊列的,攻擊方不停地建連接,但是建連接的時候隻做第一步,第二步中攻擊方收到server的syn+ack後故意扔掉什麼也不做,導致server上這個隊列滿其它正常請求無法進來

第三步的時候server收到client的ack,如果這時全連接隊列沒滿,那麼從半連接隊列拿出相關信息放入到全連接隊列中,否則按tcp_abort_on_overflow指示的執行。

這時如果全連接隊列滿了並且tcp_abort_on_overflow是0的話,server過一段時間再次發送syn+ack給client(也就是重新走握手的第二步),如果client超時等待比較短,就很容易異常了。

在我們的os中retry 第二步的默認次數是2(centos默認是5次):

net.ipv4.tcp_synack_retries = 2

如果TCP連接隊列溢出,有哪些指標可以看呢?

上述解決過程有點繞,那麼下次再出現類似問題有什麼更快更明確的手段來確認這個問題呢?

netstat -s

[root@server ~]#  netstat -s | egrep "listen|LISTEN" 
667399 times the listen queue of a socket overflowed
667399 SYNs to LISTEN sockets ignored

比如上麵看到的 667399 times ,表示全連接隊列溢出的次數,隔幾秒鍾執行下,如果這個數字一直在增加的話肯定全連接隊列偶爾滿了。

ss 命令

[root@server ~]# ss -lnt
Recv-Q Send-Q Local Address:Port  Peer Address:Port 
0        50               *:3306             *:* 

上麵看到的第二列Send-Q 表示第三列的listen端口上的全連接隊列最大為50,第一列Recv-Q為全連接隊列當前使用了多少

全連接隊列的大小取決於:min(backlog, somaxconn) . backlog是在socket創建的時候傳入的,somaxconn是一個os級別的係統參數

半連接隊列的大小取決於:max(64, /proc/sys/net/ipv4/tcp_max_syn_backlog)。 不同版本的os會有些差異

實踐驗證下上麵的理解

把java中backlog改成10(越小越容易溢出),繼續跑壓力,這個時候client又開始報異常了,然後在server上通過 ss 命令觀察到:

Fri May  5 13:50:23 CST 2017
Recv-Q Send-QLocal Address:Port  Peer Address:Port
11         10         *:3306               *:*

按照前麵的理解,這個時候我們能看到3306這個端口上的服務全連接隊列最大是10,但是現在有11個在隊列中和等待進隊列的,肯定有一個連接進不去隊列要overflow掉

進一步思考

如果client走完第三步在client看來連接已經建立好了,但是server上的對應連接實際沒有準備好,這個時候如果client發數據給server,server會怎麼處理呢?(有同學說會reset,還是實踐看看)

先來看一個例子:

image.png
(圖片來自:https://blog.chinaunix.net/uid-20662820-id-4154399.html)

如上圖,150166號包是三次握手中的第三步client發送ack給server,然後150167號包中client發送了一個長度為816的包給server,因為在這個時候client認為連接建立成功,但是server上這個連接實際沒有ready,所以server沒有回複,一段時間後client認為丟包了然後重傳這816個字節的包,一直到超時,client主動發fin包斷開該連接。

這個問題也叫client fooling,可以看這裏:https://github.com/torvalds/linux/commit/5ea8ea2cb7f1d0db15762c9b0bb9e7330425a071 (感謝 @劉歡(淺奕(16:00後答疑) 的提示)

**從上麵的實際抓包來看不是reset,而是server忽略這些包,然後client重傳,一定次數後client認為異常,然後斷開連接。
**

過程中發現的一個奇怪問題

[root@server ~]# date; netstat -s | egrep "listen|LISTEN" 
Fri May  5 15:39:58 CST 2017
1641685 times the listen queue of a socket overflowed
1641685 SYNs to LISTEN sockets ignored

[root@server ~]# date; netstat -s | egrep "listen|LISTEN" 
Fri May  5 15:39:59 CST 2017
1641906 times the listen queue of a socket overflowed
1641906 SYNs to LISTEN sockets ignored

如上所示:
overflowed和ignored居然總是一樣多,並且都是同步增加,overflowed表示全連接隊列溢出次數,socket ignored表示半連接隊列溢出次數,沒這麼巧吧。

翻看內核源代碼(https://elixir.free-electrons.com/linux/v3.18/source/net/ipv4/tcp_ipv4.c):

image.png

可以看到overflow的時候一定會drop++(socket ignored),也就是drop一定大於等於overflow。

同時我也查看了另外幾台server的這兩個值來證明drop一定大於等於overflow:

server1
150 SYNs to LISTEN sockets dropped

server2
193 SYNs to LISTEN sockets dropped

server3
16329 times the listen queue of a socket overflowed
16422 SYNs to LISTEN sockets dropped

server4
20 times the listen queue of a socket overflowed
51 SYNs to LISTEN sockets dropped

server5
984932 times the listen queue of a socket overflowed
988003 SYNs to LISTEN sockets dropped

那麼全連接隊列滿了會影響半連接隊列嗎?

來看三次握手第一步的源代碼(https://elixir.free-electrons.com/linux/v2.6.33/source/net/ipv4/tcp_ipv4.c#L1249):

image.png

TCP三次握手第一步的時候如果全連接隊列滿了會影響第一步drop 半連接的發生。大概流程的如下:

tcp_v4_do_rcv->tcp_rcv_state_process->tcp_v4_conn_request
//如果accept backlog隊列已滿,且未超時的request socket的數量大於1,則丟棄當前請求  
  if(sk_acceptq_is_full(sk) && inet_csk_reqsk_queue_yong(sk)>1)
      goto drop;

總結

全連接隊列、半連接隊列溢出這種問題很容易被忽視,但是又很關鍵,特別是對於一些短連接應用(比如Nginx、PHP,當然他們也是支持長連接的)更容易爆發。 一旦溢出,從cpu、線程狀態看起來都比較正常,但是壓力上不去,在client看來rt也比較高(rt=網絡+排隊+真正服務時間),但是從server日誌記錄的真正服務時間來看rt又很短。

另外就是jdk、netty等一些框架默認backlog比較小,可能有些情況下導致性能上不去,比如 @畢玄 碰到的這個 《netty新建連接並發數很小的case》
都是類似原因

希望通過本文能夠幫大家理解TCP連接過程中的半連接隊列和全連接隊列的概念、原理和作用,更關鍵的是有哪些指標可以明確看到這些問題。

另外每個具體問題都是最好學習的機會,光看書理解肯定是不夠深刻的,請珍惜每個具體問題,碰到後能夠把來龍去脈弄清楚。


我的其他幾篇跟網絡問題相關的文章,也很有趣,借著案例來理解好概念和原理,希望對大家也有點幫助

https://www.atatech.org/articles/76138

https://www.atatech.org/articles/60633

https://www.atatech.org/articles/73174

https://www.atatech.org/articles/73289

最後感謝 @夢實 在這個過程中提供的幫助


參考文章:

https://veithen.github.io/2014/01/01/how-tcp-backlog-works-in-linux.html

https://www.cnblogs.com/zengkefu/p/5606696.html

https://www.cnxct.com/something-about-phpfpm-s-backlog/

https://jaseywang.me/2014/07/20/tcp-queue-%E7%9A%84%E4%B8%80%E4%BA%9B%E9%97%AE%E9%A2%98/

https://jin-yang.github.io/blog/network-synack-queue.html

https://blog.chinaunix.net/uid-20662820-id-4154399.html

https://www.atatech.org/articles/12919

最後更新:2017-05-11 12:01:46

  上一篇:go  八年數據庫轉型之路:技術易改,匠心永存
  下一篇:go  死鎖監控四步走,從此性能不再愁!