聊聊 TCP 長連線和心跳那些事
1 前言
可能很多 Java 程式設計師對 TCP 的理解只有一個三次握手,四次揮手的認識,我覺得這樣的原因主要在於 TCP 協議本身稍微有點抽象(相比較於應用層的 HTTP 協議);其次,非框架開發者不太需要接觸到 TCP 的一些細節。其實我個人對 TCP 的很多細節也並沒有完全理解,這篇文章主要針對微信交流群裡有人提出的長連線,心跳的問題,做一個統一的整理。
在 Java 中,使用 TCP 通訊,大機率會涉及到 Socket、Netty,本文會借用它們的一些 API 和設定引數來輔助介紹。
2 長連線與短連線
TCP 本身並沒有長短連線的區別,長短與否,完全取決於我們怎麼用它。
短連線:每次通訊時,建立 Socket;一次通訊結束,呼叫 socket.close()。這就是一般意義上的短連線,短連線的好處是管理起來比較簡單,存在的連線都是可用的連線,不需要額外的控制手段。
長連線:每次通訊完畢後,不會關閉連線,這樣就可以做到連線的複用。長連線的好處便是省去了建立連線的耗時。
短連線和長連線的優勢,分別是對方的劣勢。想要圖簡單,不追求高效能,使用短連線合適,這樣我們就不需要操心連線狀態的管理;想要追求效能,使用長連線,我們就需要擔心各種問題:比如端對端連線的維護,連線的保活。
長連線還常常被用來做資料的推送,我們大多數時候對通訊的認知還是 request/response 模型,但 TCP 雙工通訊的性質決定了它還可以被用來做雙向通訊。在長連線之下,可以很方便的實現 push 模型。
短連線沒有太多東西可以講,所以下文我們將目光聚焦在長連線的一些問題上。純講理論未免有些過於單調,所以下文我藉助 Dubbo 這個 RPC 框架的一些實踐來展開 TCP 的相關討論。
3 服務治理框架中的長連線
前面已經提到過,追求效能的時候,必然會選擇使用長連線,所以藉助 Dubbo 可以很好的來理解 TCP。我們開啟兩個 Dubbo 應用,一個 server 負責監聽本地 20880(眾所周知,這是 Dubbo 協議預設的埠),一個 client 負責迴圈傳送請求。執行 lsof-i:20880
命令可以檢視埠的相關使用情況:
*:20880(LISTEN)
說明了 Dubbo 正在監聽本地的 20880 埠,處理傳送到本地 20880 埠的請求後兩條資訊說明請求的傳送情況,驗證了 TCP 是一個雙向的通訊過程,由於我是在同一個機器開啟了兩個 Dubbo 應用,所以你能夠看到是本地的 53078 埠與 20880 埠在通訊。我們並沒有手動設定 53078 這個客戶端埠,他是隨機的,但也闡釋了一個道理:即使是傳送請求的一方,也需要佔用一個埠。
稍微說一下 FD 這個引數,他代表了檔案控制程式碼,每新增一條連線都會佔用新的檔案控制程式碼,如果你在使用 TCP 通訊的過程中出現了
open too many files
的異常,那就應該檢查一下,你是不是建立了太多的連線,而沒有關閉。細心的讀者也會聯想到長連線的另一個好處,那就是會佔用較少的檔案控制程式碼。
4 長連線的維護
因為客戶端請求的服務可能分佈在多個伺服器上,客戶端端自然需要跟對端建立多條長連線,使用長連線,我們遇到的第一個問題就是要如何維護長連線。
//客戶端
public class NettyHandler extends SimpleChannelHandler {
private final Map<String, Channel> channels = new ConcurrentHashMap<String, Channel>(); // <ip:port, channel>
}
//服務端
public class NettyServer extends AbstractServer implements Server {
private Map<String, Channel> channels; // <ip:port, channel>
}
在 Dubbo 中,客戶端和服務端都使用 ip:port
維護了端對端的長連線,Channel 便是對連線的抽象。我們主要關注 NettyHandler 中的長連線,服務端同時維護一個長連線的集合是 Dubbo 的設計,我們將在後面提到。
5 連線的保活
這個話題就有的聊了,會牽扯到比較多的知識點。首先需要明確一點,為什麼需要連線的報活?當雙方已經建立了連線,但因為網路問題,鏈路不通,這樣長連線就不能使用了。需要明確的一點是,透過 netstat,lsof 等指令檢視到連線的狀態處於 ESTABLISHED
狀態並不是一件非常靠譜的事,因為連線可能已死,但沒有被系統感知到,更不用提假死這種疑難雜症了。如果保證長連線可用是一件技術活。
6 連線的保活:KeepAlive
首先想到的是 TCP 中的 KeepAlive 機制。KeepAlive 並不是 TCP 協議的一部分,但是大多數作業系統都實現了這個機制。KeepAlive 機制開啟後,在一定時間內(一般時間為 7200s,引數 tcp_keepalive_time
)在鏈路上沒有資料傳送的情況下,TCP 層將傳送相應的KeepAlive探針以確定連線可用性,探測失敗後重試 10(引數 tcp_keepalive_probes
)次,每次間隔時間 75s(引數 tcp_keepalive_intvl
),所有探測失敗後,才認為當前連線已經不可用。
在 Netty 中開啟 KeepAlive:
bootstrap.option(ChannelOption.TCP_NODELAY, true)
Linux 作業系統中設定 KeepAlive 相關引數,修改 /etc/sysctl.conf
檔案:
net.ipv4.tcp_keepalive_time=90net.ipv4.tcp_keepalive_intvl=15net.ipv4.tcp_keepalive_probes=2
KeepAlive 機制是在網路層面保證了連線的可用性,但站在應用框架層面我們認為這還不夠。主要體現在兩個方面:
KeepAlive 的開關是在應用層開啟的,但是具體引數(如重試測試,重試間隔時間)的設定卻是作業系統級別的,位於作業系統的
/etc/sysctl.conf
配置中,這對於應用來說不夠靈活。KeepAlive 的保活機制只在鏈路空閒的情況下才會起到作用,假如此時有資料傳送,且物理鏈路已經不通,作業系統這邊的鏈路狀態還是 ESTABLISHED,這時會發生什麼?自然會走 TCP 重傳機制,要知道預設的 TCP 超時重傳,指數退避演算法也是一個相當長的過程。
KeepAlive 本身是面向網路的,並不是面向於應用的,當連線不可用時,可能是由於應用本身 GC 問題,系統 load 高等情況,但網路仍然是通的,此時,應用已經失去了活性,所以連線自然應該認為是不可用的。
看來,應用層面的連線保活還是必須要做的。
7 連線的保活:應用層心跳
終於點題了,文題中提到的心跳便是一個本文想要重點強調的另一個 TCP 相關的知識點。上一節我們已經解釋過了,網路層面的 KeepAlive 不足以支撐應用級別的連線可用性,本節就來聊聊應用層的心跳機制是實現連線保活的。
如何理解應用層的心跳?簡單來說,就是客戶端會開啟一個定時任務,定時對已經建立連線的對端應用傳送請求(這裡的請求是特殊的心跳請求),服務端則需要特殊處理該請求,返回響應。如果心跳持續多次沒有收到響應,客戶端會認為連線不可用,主動斷開連線。不同的服務治理框架對心跳,建連,斷連,拉黑的機制有不同的策略,但大多數的服務治理框架都會在應用層做心跳,Dubbo 也不例外。
8 應用層心跳的設計細節
以 Dubbo 為例,支援應用層的心跳,客戶端和服務端都會開啟一個 HeartBeatTask
,客戶端在 HeaderExchangeClient
中開啟,服務端將在 HeaderExchangeServer
開啟。文章開頭埋了一個坑:Dubbo 為什麼在服務端同時維護 Map<String,Channel>
呢?主要就是為了給心跳做貢獻,心跳定時任務在發現連線不可用時,會根據當前是客戶端還是服務端走不同的分支,客戶端發現不可用,是重連;服務端發現不可用,是直接 close。
// HeartBeatTaskif (channel instanceof Client) { ((Client) channel).reconnect();} else { channel.close();}
熟悉其他 RPC 框架的同學會發現,不同框架的心跳機制真的是差距非常大。心跳設計還跟連線建立,重連機制,黑名單連線相關,還需要具體框架具體分析。
除了定時任務的設計,還需要在協議層面支援心跳。最簡單的例子可以參考 nginx 的健康檢查,而針對 Dubbo 協議,自然也需要做心跳的支援,如果將心跳請求識別為正常流量,會造成服務端的壓力問題,干擾限流等諸多問題。
其中 Flag 代表了 Dubbo 協議的標誌位,一共 8 個地址位。低四位用來表示訊息體資料用的序列化工具的型別(預設 hessian),高四位中,第一位為1表示是 request 請求,第二位為 1 表示雙向傳輸(即有返回response),第三位為 1 表示是心跳事件。
心跳請求應當和普通請求區別對待。
9 注意和 HTTP 的 KeepAlive 區別對待
HTTP 協議的 KeepAlive 意圖在於連線複用,同一個連線上序列方式傳遞請求-響應資料
TCP 的 KeepAlive 機制意圖在於保活、心跳,檢測連線錯誤。
這壓根是兩個概念。
10 KeepAlive 常見異常
啟用 TCP KeepAlive 的應用程式,一般可以捕獲到下面幾種型別錯誤
ETIMEOUT 超時錯誤,在傳送一個探測保護包經過 (tcpkeepalivetime + tcpkeepaliveintvl * tcpkeepaliveprobes)時間後仍然沒有接收到 ACK 確認情況下觸發的異常,套接字被關閉
java java.io.IOException:Connectiontimedout
EHOSTUNREACH host unreachable(主機不可達)錯誤,這個應該是 ICMP 彙報給上層應用的。
java java.io.IOException:Noroute to host
連結被重置,終端可能崩潰當機重啟之後,接收到來自伺服器的報文,然物是人非,前朝往事,只能報以無奈重置宣告之。
java java.io.IOException:Connectionresetbypeer
11 總結
有三種使用 KeepAlive 的實踐方案:
預設情況下使用 KeepAlive 週期為 2 個小時,如不選擇更改,屬於誤用範疇,造成資源浪費:核心會為每一個連線都開啟一個保活計時器,N 個連線會開啟 N 個保活計時器。 優勢很明顯:
TCP 協議層面保活探測機制,系統核心完全替上層應用自動給做好了
核心層面計時器相比上層應用,更為高效
上層應用只需要處理資料收發、連線異常通知即可
資料包將更為緊湊
關閉 TCP 的 KeepAlive,完全使用應用層心跳保活機制。由應用掌管心跳,更靈活可控,比如可以在應用級別設定心跳週期,適配私有協議。
業務心跳 + TCP KeepAlive 一起使用,互相作為補充,但 TCP 保活探測週期和應用的心跳週期要協調,以互補方可,不能夠差距過大,否則將達不到設想的效果。
各個框架的設計都有所不同,例如 Dubbo 使用的是方案三,但阿里內部的 HSF 框架則沒有設定 TCP 的 KeepAlive,僅僅由應用心跳保活。和心跳策略一樣,這和框架整體的設計相關
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/31556476/viewspace-2375225/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- JAVA之長連線、短連線和心跳包Java
- 12、Swoole 中 TCP、UDP 和長連線、短連線TCPUDP
- 長連線的心跳保持設計
- 長連線的心跳及重連設計
- TCP連線注意事項TCP
- Http 和TCP的關係,TCP長連線和短連線有什麼區別?HTTPTCP
- 【Socket】關於socket長連線的心跳包
- 聊聊viewport那些事兒View
- TCP、HTTP和Node.js的那些事TCPHTTPNode.js
- Socket程式設計-長連線與短連線,心跳(keep-alive)程式設計Keep-Alive
- 聊聊java就業那些事Java就業
- 聊聊web快取那些事!Web快取
- 聊聊網路的那些事
- 聊聊前端排序的那些事前端排序
- 區分socket連線和tcp/ip連線TCP
- TCP 的那些事兒(下)TCP
- TCP 的那些事兒(上)TCP
- 後端那些破事(TCP)後端TCP
- 長連線和短連線
- Java 資料庫連線的那些事Java資料庫
- 我們來聊聊Cookie、Session和Storage的那些事CookieSession
- Netty(一) SpringBoot 整合長連線心跳機制NettySpring Boot
- 聊聊蘋果證書的那些事蘋果
- tcp的半連線攻擊和全連線攻擊--TCP DEFER ACCEPTTCP
- tcp 連線TCP
- 聊聊Django應用的部署和效能的那些事兒Django
- 長連線和短連線的使用
- http的長連線和短連線HTTP
- 聊聊瀏覽器的那些事兒瀏覽器
- 聊聊 QianKun JS 沙箱的那些事JS
- Socket和TCP連線過程解析TCP
- TCP 連線管理TCP
- TCP 三次握手原理以及半連線和全連線TCP
- 聊聊 SVG 基本形狀轉換那些事SVG
- 聊聊心跳機制及netty心跳實現Netty
- 統計TCP連線數和狀態TCP
- pythonsocket程式設計之三:長連線、短連線以及心跳(轉藥師Aric的文章)Python程式設計
- HTTP長連線和短連線原理淺析HTTP