「跬步千里」詳解 Java 記憶體模型與原子性、可見性、有序性

飛天小牛肉發表於2021-05-06

文題 “跬步千里” 主要是為了凸顯這篇文章的基礎性與重要性(狗頭),併發程式設計這塊的知識也確實主要圍繞著 JMM 和三大性質來展開。

全文脈絡如下:

1)為什麼要學習併發程式設計?

2)為什麼需要併發程式設計?

3)介紹 Java 記憶體模型

4)詳解 Java 記憶體模型的三大性質(原子性、可見性、有序性),這也是判斷執行緒安全的三個重要指標。以原子性為例,大致行文邏輯如下:

  • 什麼是原子性
  • 不滿足原子性會導致什麼問題
  • 如何保證原子性

為什麼要學習併發程式設計

對於 “我們為什麼要學習併發程式設計?” 這個問題,就好比 “我們為什麼要學習政治?” 一樣,我們(至少作為學生黨是這樣)平常很少接觸到,然後背了一堆 “正確且偉大無比的廢話”,最終淪為八股被快速遺忘。

直到我開始去深入瞭解這塊知識而不是盲目背誦的時候,我才明白,它正確且偉大無比,但不是廢話

儘管併發程式設計的各種底層原理以及其龐大的知識體系容易讓人心生畏懼,但是 Java 語言和 Java 虛擬機器都提供了相當多的併發工具,替我們隱藏了很多的執行緒併發細節,使得我們在編碼時能更關注業務邏輯,把併發程式設計的門檻降低了不少。

但是無論語言、中介軟體和框架再如何先進,我們都不應該完全依賴於它們完成併發處理的所有事情,瞭解併發的內幕並學習其中的思想,仍然是成為一個高階程式設計師的必經之路。

我想,上面這段話大概可以回答 “我們為什麼要學習併發程式設計?” 這個問題了。

為什麼需要併發程式設計

不知道各位有沒有聽說過被譽為計算機第一定律的摩爾定律,它是英特爾創始人之一戈登 · 摩爾長期觀察總結出來的經驗,雖然不是嚴格推匯出來的真理,但最起碼迄今為止仍然是令人深信不疑的。其核心內容通俗來說就是 處理器的效能每隔兩年就會翻一倍。看起來像個廢話(狗頭)。

而事實上,當今多核 CPU 的發展速度也確實正在支撐著摩爾定律的有效性。在時代的大背景下,併發程式設計已成燎原之勢,通過併發程式設計的形式將多核 CPU 的計算能力發揮到極致,效能得到提升

舉個例子,在當今諸神黃昏的影像處理領域,很多影像處理演算法,在程式碼初步編寫完畢並除錯正確後,其實仍然需要進行一個漫長的優化過程。因為儘管有些演算法的處理效果很棒,但是如果運算太過耗時,還是無法整合進產品給使用者使用的。

對於一副 1000 x 800 解析度的影像,我們最原始的處理思路就是從第 1 個畫素開始,一直遍歷計算到最後一個畫素。那麼面對如此龐大且複雜的計算量,為了提高演算法的效能,最直接也最容易實現的想法就是基於多執行緒充分利用多核 CPU 的計算能力。

可以將整個影像分成若干塊,比如我們的 CPU 是 8 核的,那麼可以分成 8 塊,每塊影像大小為 1000 * 100 畫素,我們可以建立 8 個執行緒,每個執行緒處理一個影像塊,每個 CPU 分配執行一個執行緒。這樣,運算速度將得到明顯的提升。

當然了,這樣操作後,運算速度並不會恐怖的提升 4 倍,因為執行緒建立和釋放以及上下文切換都有一定的損耗。

這裡摘錄《Java 併發程式設計的藝術》書中的一段話來回答這個問題,我們為什麼需要併發執行緒

多核 CPU 時代的到來打破了單核 CPU 對多執行緒效能的限制。多個 CPU 意味著每個執行緒可以使用自己的 CPU 執行,這減少了執行緒上下文切換的開銷,但隨著對應用系統效能和吞吐量要求的提高,出現了處理海量資料和請求的要求,這些都對高併發程式設計有著迫切的需求。

而至於多核 CPU 盛行的原因,《深入理解 Java 虛擬機器 - 第 3 版》一書中也有所涉及,這裡我略作修改摘錄如下:

多工處理在現代計算機作業系統中幾乎已是一項必備的功能了。在許多場景下,讓計算機同時去做幾件事情,不僅是因為計算機的運算能力強大了,更重要的原因是計算機的運算速度與它的儲存和通訊子系統速度的差距太大,這樣 CPU 不得不花費大量的時間等待其他資源,比如磁碟 I/O、網路通訊或者資料庫訪問等。

為此,我們就必須使用一些手段去把處理器的運算能力“壓榨”出來,否則就會造成很大的效能浪費,而讓計算機同時處理幾項任務則是最容易想到,也被證明是非常有效的“壓榨”手段。

另外,除了充分利用計算機處理器的能力外,一個服務端要同時對多個客戶端提供服務,則是另一個更具體的併發應用場景。

從物理機中得到啟發

事實上,物理機遇到的併發問題與虛擬機器中的情況有很多相似之處,物理機對併發的處理方案對虛擬機器的實現也有相當大的參考意義,因此,我們有必要學習下物理機中處理問題的方法。

上文說過可以使用併發程式設計來充分利用 CPU 的資源,其中一個主要原因就是計算機的儲存裝置與 CPU 的運算速度有著幾個數量級的差距,這樣 CPU 不得不花費大量的時間去等待其他資源。

這是軟體層面,而在硬體層面上,現代計算機系統都會在記憶體與 CPU 之間加入一層或多層讀寫速度儘可能接近 CPU 運算速度的快取記憶體來作為緩衝。

將運算需要使用的資料複製到快取中,讓運算能快速進行,當運算結束後再從快取同步回記憶體之中,這樣處理器就無須等待緩慢的記憶體讀寫了。

為此,這不可避免的帶來了一個新的問題:快取一致性(Cache Coherence)。

就是說當多個 CPU 的運算任務都涉及同一塊主記憶體區域時,將可能導致各自的快取資料不一致。如果真的發生這種情況,那同步回到主記憶體時該以誰的快取資料為準呢?

為了解決一致性的問題,需要各個 CPU 訪問快取時都遵循一些協議,在讀寫時要根據協議來進行操作。於是,我們引出了記憶體模型的概念。

在物理機層面,記憶體模型可以理解為在特定的操作協議下,對特定的記憶體或快取記憶體進行讀寫訪問的過程抽象。

顯然,不同架構的物理機器可以擁有不一樣的記憶體模型,而 Java 虛擬機器也擁有自己的記憶體模型,稱為 Java 記憶體模型(Java Memory Model,JMM),其目的就是為了遮蔽各種硬體和作業系統的記憶體訪問差異,以實現讓 Java 程式在各種平臺下都能達到一致的記憶體訪問效果

當然了,JMM 與這裡我們介紹的物理機的記憶體模型具有高度的可類比性。

Java 記憶體模型

JMM 規定了所有的變數都儲存在主記憶體(Main Memory)中,每條執行緒還有自己的工作記憶體(Working Memory)。

執行緒的工作記憶體中儲存了被該執行緒使用的變數的主記憶體副本,執行緒對變數的所有操作(讀取、賦值等)都必須在工作記憶體中進行,而不能直接讀寫主記憶體中的資料。

此處的主記憶體可以與前面所說的物理機的主記憶體類比,當然,實際上它僅是虛擬機器記憶體的一部分,工作記憶體可與前面講的快取記憶體類比。

《Java 併發程式設計的藝術》中把 “工作記憶體” 稱為 “本地記憶體”(Local Memory)。 “工作記憶體” 是《深入理解 Java 虛擬機器 - 第 3 版》這本書中的寫法。

多提一嘴,這裡的變數其實和我們日常程式設計中所說的變數不一樣,它包括了例項欄位、靜態欄位和構成陣列物件的元素,但是不包括區域性變數與方法引數,因為後面這倆是執行緒私有的,不會被共享,自然就不會存在競爭問題。各位知道就好,不必太過深究。

原子性

什麼是原子性

類比物理機,擁有快取一致性協議來規定主記憶體和快取記憶體之間的操作邏輯,那麼 JMM 中主記憶體與工作記憶體之間有沒有具體的互動協議呢?

Of Course!JMM 中定義了以下 8 種操作規範來完成一個變數從主記憶體拷貝到工作記憶體、以及從工作記憶體同步回主記憶體這一類的實現細節。Java 虛擬機器實現時必須保證下面提及的每一種操作都是原子的、不可再分的

暫時放下到底是哪 8 種操作,我們先談何為原子

原子(atomic)本意是 “不能被進一步分割的最小粒子”,而原子操作(atomic operation)意為 “不可被中斷的一個或一系列操作”。

舉個經典的簡單例子,銀行轉賬,A 像 B 轉賬 100 元。轉賬這個操作其實包含兩個離散的步驟:

  • 步驟 1:A 賬戶減去 100
  • 步驟 2:B 賬戶增加 100

我們要求轉賬這個操作是原子性的,也就是說步驟 1 和步驟 2 是順續執行且不可被打斷的,要麼全部執行成功、要麼執行失敗。

試想一下,如果轉賬操作不具備原子性會導致什麼問題呢?

比如說步驟 1 執行成功了,但是步驟 2 沒有執行或者執行失敗,就會導致 A 賬戶少了 100 但是 B 賬戶並沒有相應的多出 100。

對於上述這種情況,符合原子性的轉賬操作應該是如果步驟 2 執行失敗,那麼整個轉賬操作就會失敗,步驟 1 就會回滾,並不會將 A 賬戶減少 100。


OK,瞭解了原子性的概念後,我們再來看 JMM 定義的 8 種原子操作具體是啥,以下了解即可,沒必要死記:

  • lock(鎖定):作用於主記憶體的變數,它把一個變數標識為一條執行緒獨佔的狀態。
  • unlock(解鎖):作用於主記憶體的變數,它把一個處於鎖定狀態的變數釋放出來,釋放後的變數才可以被其他執行緒鎖定。
  • read(讀取):作用於主記憶體的變數,它把一個變數的值從主記憶體傳輸到執行緒的工作記憶體中,以便隨後的load動作使用。
  • load(載入):作用於工作記憶體的變數,它把read操作從主記憶體中得到的變數值放入工作記憶體的變數副本中。
  • use(使用):作用於工作記憶體的變數,它把工作記憶體中一個變數的值傳遞給執行引擎,每當虛擬機器遇到一個需要使用變數的值的位元組碼指令時將會執行這個操作。
  • assign(賦值):作用於工作記憶體的變數,它把一個從執行引擎接收的值賦給工作記憶體的變數,每當虛擬機器遇到一個給變數賦值的位元組碼指令時執行這個操作。
  • store(儲存):作用於工作記憶體的變數,它把工作記憶體中一個變數的值傳送到主記憶體中,以便隨後的write操作使用。
  • write(寫入):作用於主記憶體的變數,它把store操作從工作記憶體中得到的變數的值放入主記憶體的變數

事實上,對於 doublelong 型別的變數來說,load、store、read 和 write 操作在某些平臺上允許有例外,稱為 “long 和 double 的非原子性協定”,不過一般不需要我們特別注意,這裡就不再過多贅述了。

這 8 種操作當然不是可以隨便用的,為了保證 Java 程式中的記憶體訪問操作在併發下仍然是執行緒安全的,JMM 規定了在執行上述 8 種基本操作時必須滿足的一系列規則。

這我就不一一列舉了,多提這麼一嘴的原因就是下文會涉及一些這其中的規則,為了防止大家看的時候雲裡霧裡,所以先前說明白比較好。


上面我們舉了一個轉賬的例子,那麼,在具體的程式碼中,非原子性操作可能會導致什麼問題呢?

看下面這段程式碼,各位不妨考慮一個的問題,如果兩個執行緒對初始值為 0 的靜態變數一個做自增,一個做自減,各做 5000 次,結果一定是 0 嗎?

耳熟能詳的問題,我們無法保證這段程式碼執行結果的一定性(正確性),可能是正數、也可能是負數、當然也可能是 0。

那麼,我們就把這段程式碼稱為執行緒不安全的,就是說在單執行緒環境下正常執行的一段程式碼,在多執行緒環境中可能發生各種意外情況,導致無法得到正確的結果。

從執行緒安全的角度來反向理解執行緒不安全的概念可能更容易點,這裡參考《Java 併發程式設計實踐》上面的一句話:

一段程式碼在被多個執行緒訪問後,它仍然能夠進行正確的行為,那這段程式碼就是執行緒安全的

至於這段程式碼執行緒不安全的原因,就是 Java 中對靜態變數自增和自減操作並不是原子操作,它倆其實都包含三個離散的操作:

  • 步驟 1:讀取當前 i 的值
  • 步驟 2:將 i 的值加 1(減 1)
  • 步驟 3:寫回新值

可以看出來這是一個 讀 - 改 - 寫 的操作。

i ++ 操作為例,我們來看看它對應的位元組碼指令:

上方這段程式碼對應的位元組碼是這樣的:

簡單解釋下這些位元組碼指令的含義:

  • getstatic i:獲取靜態變數 i 的值
  • iconst_1:準備常量 1
  • iadd:自增(自減操作對應 isub)
  • putstatic i:將修改後的值存入靜態變數 i

如果是在單執行緒的環境下,先自增 5000 次,然後再自減 5000 次,那當然不會發生任何問題。

但是在多執行緒的環境下,由於 CPU 時間片排程的原因,可能 Thread1 正在執行自增操作著呢,CPU 剝奪了它的資源佔用,轉而分配給了 Thread2,也就是發生了執行緒上下文切換。這樣,就可能導致本該是一個連續的讀改寫動作(連續執行的三個步驟)被打斷了。

下圖出現的就是結果最終是負數的情況:

總結來說,如果多個 CPU 同時對某個共享變數進行讀-改-寫操作,那麼這個共享變數就會被多個 CPU 同時處理,由於 CPU 時間片排程等原因,某個執行緒的讀-改-寫操作可能會被其他執行緒打斷,導致操作完後共享變數的值和我們期望的不一致。

另外,多說一嘴,除了自增自減,我們常見的 i = j 這個操作也是非原子性的,它分為兩個離散的步驟:

  • 步驟 1:讀取 j 的值
  • 步驟 2:將 j 的值賦給 i

如何保證原子性

那麼,如何實現原子操作,也就是如何保證原子性呢

對於這個問題,其實在處理器和 Java 程式語言層面,它們都提供了一些有效的措施,比如處理器提供了匯流排鎖和快取鎖,Java 提供了鎖和迴圈 CAS 的方式,這裡我們簡單解釋下 Java 保證原子性的措施。

由 Java 記憶體模型來直接保證的原子性變數操作包括 readloadassignusestorewrite 這 6 個,我們大致可以認為,基本資料型別的訪問、讀寫都是具備原子性的(例外就是 long 和 double 的非原子性協定,各位只要知道這件事情就可以了,無須太過在意這些幾乎不會發生的例外情況)。

如果應用場景需要一個更大範圍的原子性保證,Java 記憶體模型還提供了 lockunlock 操作來滿足這種需求。

儘管 JVM 並沒有把 lockunlock 操作直接開放給使用者使用,但是卻提供了更高層次的位元組碼指令 monitorentermonitorexit 來隱式地使用這兩個操作。這兩個位元組碼指令反映到 Java 程式碼中就是同步塊 — synchronized 關鍵字,因此在 synchronized 塊之間的操作也具備原子性。

而除了 synchronized 關鍵字這種 Java 語言層面的鎖,juc 併發包中的 java.util.concurrent.locks.Lock 介面也提供了一些類庫層面的鎖,比如 ReentrantLock

另外,隨著硬體指令集的發展,在 JDK 5 之後,Java 類庫中開始使用基於 cmpxchg 指令的 CAS 操作(又來一個重點),該操作由 sun.misc.Unsafe 類裡面的 compareAndSwapInt()compareAndSwapLong() 等幾個方法包裝提供。不過在 JDK 9 之前 Unsafe 類是不開放給使用者使用的,只有 Java 類庫可以使用,譬如 juc 包裡面的整數原子類,其中的 compareAndSet()getAndIncrement() 等方法都使用了 Unsafe 類的 CAS 操作來實現。

使用這種 CAS 措施的程式碼也常被稱為無鎖程式設計(Lock-Free)。

可見性

什麼是可見性

回到物理機,前文說過,由於引入了快取記憶體,不可避免的帶來了一個新的問題:快取一致性。而同樣的,這個問題在 Java 虛擬機器中同樣存在,表現為工作記憶體與主記憶體的同步延遲,也就是記憶體可見性問題。

何為可見性?就是指當一個執行緒修改了共享變數的值時,其他執行緒能夠立即得知這個修改。

回顧下 Java 記憶體模型:

從上圖來看,如果執行緒 A 與執行緒 B 之間要通訊的話,必須要經歷下面 2 個步驟:

  • 1)執行緒 A 把工作記憶體 A 中更新過的共享變數重新整理到主記憶體中去
  • 2)執行緒 B 到主記憶體中去讀取執行緒 A 之前已更新過的共享變數

也就是說,執行緒 A 在向執行緒 B 的通訊過程必須要經過主記憶體

那麼,這就可能出現一個問題,舉個簡單的例子,看下面這段程式碼:

// 執行緒 1 執行的程式碼
int i = 0;
i = 1;
// 執行緒 2 執行的程式碼
j = i;

當執行緒 1 執行 i = 1 這句時,會先去主記憶體中讀取 i 的初始值,然後載入到執行緒 1 的的工作記憶體中,再賦值為1,至此,執行緒 1 的工作記憶體當中 i 的值變為 1 了,不過還沒有寫入到主記憶體當中。

如果線上程 1 準備把新的 i 值寫回主記憶體的時候,執行緒 2 執行了 j = i 這條語句,它會去主存讀取 i 的值並載入到執行緒 2 的工作記憶體當中,而此時主記憶體當中 i 的值還是 0,那麼就會使得 j 的值為 0,而不是 1。

這就是記憶體可見性問題,執行緒 1 修改了共享變數 i 的值,執行緒 2 並沒有立即得知這個修改。

如何保證可見性

各位可能脫口而出使用 volatile 關鍵字修飾共享變數,但除了這個,容易被大家忽略的是,其實 sunchronizedfinal 這倆關鍵字也能保證可見性

上面我提過一嘴,為了保證 Java 程式中的記憶體訪問操作在併發下仍然是執行緒安全的,JMM 規定了在執行 8 種基本原子操作時必須滿足的一系列規則,這其中有一條規則正是 sychronized 能夠保證原子性的理論支撐,如下:

  • 對一個變數執行 unlock 操作之前,必須先把此變數同步回主記憶體中(執行 store、write 操作)

也就是說 synchronized在修改了工作記憶體中的變數後,解鎖前會將工作記憶體修改的內容重新整理到主記憶體中,確保了共享變數的值是最新的,也就保證了可見性。

至於 final 關鍵字的可見性需要結合其記憶體語義深入來講,這裡就先簡單的概括下:被 final 修飾的欄位在構造器中一旦被初始化完成,並且構造器沒有把 this 的引用傳遞出去,那麼在其他執行緒中就能看見 final 欄位的值。

有序性

什麼是有序性

OK,說完了可見性,我們再回到物理機,其實除了增加快取記憶體之外,為了使 CPU 內部的運算單元能儘量被充分利用,CPU 可能會對輸入程式碼進行亂序執行優化,CPU 會在計算之後將亂序執行的結果重組,保證該結果與順序執行的結果是一致的,但並不保證程式中各個語句計算的先後順序與輸入程式碼中的順序一致,因此如果存在一個計算任務依賴另外一個計算任務的中間結果,那麼其順序性並不能靠程式碼的先後順序來保證。

與之類似的,Java 的編譯器也有這樣的一種優化手段:指令重排序(Instruction Reorder)。

那麼,既然能夠優化效能,重排序可以沒有限制的被使用嗎?

當然不,在重排序的時候,CPU 和編譯器都需要遵守一個規矩,這個規矩就是 as-if-serial 語義:不管怎麼重排序,單執行緒環境下程式的執行結果不能被改變。

為了遵守 as-if-serial 語義,CPU 和編譯器不會對存在資料依賴關係的操作做重排序,因為這種重排序會改變執行結果。

那麼這裡,我們又引出了 “資料依賴性” 的概念。

如果兩個操作訪問同一個變數,且這兩個操作中有一個為寫操作,此時這兩個操作之間就存在資料依賴性。

資料依賴性分為三種型別:寫後讀、寫後寫、讀後寫,看下圖

上面 3 種情況,只要重排序兩個操作的執行順序,程式的執行結果就會被改變。

其實考慮資料依賴關係的時候,各位可以通過畫圖來直觀的判斷。舉個例子:

int a = 1;		 // A
int b = 2;		 // B
int sum = a + b; // C

上面 3 個操作的資料依賴關係如下圖所示:

可以看出,A 和 C、B 和 C 之間存在資料依賴關係,因此在最終執行的指令序列中,C 不能被重排序到 A 或B 的前面。但 A 和 B 之間沒有資料依賴關係,所以 CPU 和處理器可以重排序 A 和 B 之間的執行順序。如下是程式的兩種執行順序:

看起來好像沒啥問題,重排序之後程式的結果並沒有發生改變,還提升了效能。

然而,很不幸的是,我們這裡所說的資料依賴性僅針對單個 CPU 中執行的指令序列和單個執行緒中執行的操作,不同 CPU 之間和不同執行緒之間的資料依賴性是不被 CPU 和編譯器考慮的

這就是為啥我在寫 as-if-serial 語義的時候把 “單執行緒” 加粗的目的了。

看下面這段程式碼:

假設有兩個執行緒 A 和 B,A 首先執行 writer() 方法,隨後 B 執行緒接著執行 reader() 方法。執行緒 B 在執行操作 4 時,能否看到執行緒 A 在操作 1 把共享變數 a 修改成了 1 呢?

答案是不一定。

由於操作 1 和操作 2 沒有資料依賴關係,CPU 和編譯器可以對這兩個操作重排序;同樣的,操作 3 和操作 4 沒有資料依賴關係,編譯器和處理器也可以對這兩個操作重排序。

以操作 1 和操作 2 重排序為例,可能會產生什麼效果呢?

如上圖右邊所示,程式執行時,執行緒 A 首先寫標記變數 flag,隨後執行緒 B 讀這個變數。由於條件判斷為真,執行緒 B 將讀取變數 a。此時,變數 a 還沒有被執行緒 A 寫入,因此執行緒 B 讀到的 a 值仍然是 0。也就是說在這裡多執行緒程式的語義被重排序破壞了

這樣,我們可以得出結論:CPU 和 Java 編譯器為了優化程式效能,會自發地對指令序列進行重新排序。在多執行緒的環境下,由於重排序的存在,就可能導致程式執行結果出現錯誤


瞭解了重排序的概念,我們可以這樣總結下 Java 程式天然的有序性:

  • 如果在本執行緒內觀察,所有的操作都是有序的(簡單來說就是執行緒內表現為序列)
  • 如果在一個執行緒中觀察另一個執行緒,所有的操作都是無序的(這個無序主要就是指 “指令重排序” 現象和 “工作記憶體與主記憶體同步延遲” 現象)

如何保證有序性

Java 語言提供了 volatilesynchronized 兩個關鍵字來保證執行緒之間操作的有序性。

volatile 本身除了保證可見性的語義外,還包含了禁止指令重排序的語義,所以天生就具有保證有序性的功能。

synchronized 保證有序性的理論支撐,仍然是 JMM 規定在執行 8 種基本原子操作時必須滿足的一系列規則中的某一個提供的:

  • 一個變數在同一個時刻只允許一條執行緒對其進行 lock 操作

這個規則決定了持有同一個鎖的兩個 synchronized 同步塊只能序列地進入。

不是很難理解吧,通俗來說,synchronized 通過排他鎖的方式保證了同一時間內,被 synchronized 修飾的程式碼是單執行緒執行的。所以,這就滿足了 as-if-serial 語義的一個關鍵前提,那就是單執行緒,這樣,有了 as-if-serial 語義的保證,單執行緒的有序性也就得到保障了。

Happens-before 原則

Happens-before 是 JMM 的靈魂,它是判斷資料是否存在競爭,執行緒是否安全的非常有用的手段。為了知識體系的完整性,這裡簡單提一下,後續文章會詳細解釋的。

如果 Java 記憶體模型中所有的有序性都僅靠 volatile 和 synchronized 來完成,那麼有很多操作都將會變得非常囉嗦,但是我們在編寫 Java 併發程式碼的時候並沒有察覺到這一點,這就歸功於 “先行發生”(Happens-Before)原則。

依賴這個原則,我們可以通過幾條簡單規則快速解決併發環境下兩個操作之間是否可能存在衝突的所有問題,而不需要陷入 Java 記憶體模型苦澀難懂的定義之中。

References

  • 《Java 併發程式設計的藝術》
  • 《深入理解 Java 虛擬機器 - 第 3 版》

? 關注公眾號 | 飛天小牛肉,即時獲取更新

  • 博主東南大學碩士在讀,攜程 Java 後臺開發暑期實習生,利用課餘時間運營一個公眾號『 飛天小牛肉 』,2020/12/29 日開通,專注分享計算機基礎(資料結構 + 演算法 + 計算機網路 + 資料庫 + 作業系統 + Linux)、Java 技術棧等相關原創技術好文。本公眾號的目的就是讓大家可以快速掌握重點知識,有的放矢。關注公眾號第一時間獲取文章更新,成長的路上我們一起進步
  • 並推薦個人維護的開源教程類專案: CS-Wiki(Gitee 推薦專案,現已累計 1.6k+ star), 致力打造完善的後端知識體系,在技術的路上少走彎路,歡迎各位小夥伴前來交流學習 ~ ?
  • 如果各位小夥伴春招秋招沒有拿得出手的專案的話,可以參考我寫的一個專案「開源社群系統 Echo」Gitee 官方推薦專案,目前已累計 700+ star,基於 SpringBoot + MyBatis + MySQL + Redis + Kafka + Elasticsearch + Spring Security + ... 並提供詳細的開發文件和配套教程。公眾號後臺回覆 Echo 可以獲取配套教程,目前尚在更新中。

相關文章