在並發編程中,我們需要處理兩個關鍵問題:線程之間如何通信及線程之間如何同步(這裡的線程是指並發執行的活動實體)。通信是指線程之間以何種機制來交換信息。在命令式編程中,線程之間的通信機制有兩種:共享內存和消息傳遞。
在共享內存的並發模型裡,線程之間共享程序的公共狀態,線程之間通過寫-讀內存中的公共狀態來隱式進行通信。在消息傳遞的並發模型裡,線程之間沒有公共狀態,線程之間必須通過明確的發送消息來顯式進行通信。
同步是指程序用於控制不同線程之間操作發生相對順序的機制。在共享內存並發模型裡,同步是顯式進行的。程序員必須顯式指定某個方法或某段代碼需要在線程之間互斥執行。在消息傳遞的並發模型裡,由於消息的發送必須在消息的接收之前,因此同步是隱式進行的。
Java 的並發采用的是共享內存模型,Java 線程之間的通信總是隱式進行,整個通信過程對程序員完全透明。如果編寫多線程程序的 Java 程序員不理解隱式進行的線程之間通信的工作機制,很可能會遇到各種奇怪的內存可見性問題。
在 java 中,所有實例域、靜態域和數組元素存儲在堆內存中,堆內存在線程之間共享(本文使用“共享變量”這個術語代指實例域,靜態域和數組元素)。局部變量(Local variables),方法定義參數(java 語言規范稱之為 formal method parameters)和異常處理器參數(exception handler parameters)不會在線程之間共享,它們不會有內存可見性問題,也不受內存模型的影響。
Java 線程之間的通信由 Java 內存模型(本文簡稱為 JMM)控制,JMM 決定一個線程對共享變量的寫入何時對另一個線程可見。從抽象的角度來看,JMM 定義了線程和主內存之間的抽象關系:線程之間的共享變量存儲在主內存(main memory)中,每個線程都有一個私有的本地內存(local memory),本地內存中存儲了該線程以讀/寫共享變量的副本。本地內存是 JMM 的一個抽象概念,並不真實存在。它涵蓋了緩存,寫緩沖區,寄存器以及其他的硬件和編譯器優化。Java 內存模型的抽象示意圖如下:
從上圖來看,線程A與線程B之間如要通信的話,必須要經歷下面2個步驟:
首先,線程A把本地內存A中更新過的共享變量刷新到主內存中去。
下面通過示意圖來說明這兩個步驟:
如上圖所示,本地內存 A 和 B 有主內存中共享變量 x 的副本。假設初始時,這三個內存中的 x 值都為0。線程A在執行時,把更新後的x值(假設值為1)臨時存放在自己的本地內存 A 中。當線程 A 和線程 B 需要通信時,線程 A 首先會把自己本地內存中修改後的 x 值刷新到主內存中,此時主內存中的 x 值變為了1。隨後,線程 B 到主內存中去讀取線程 A 更新後的 x 值,此時線程 B 的本地內存的 x 值也變為了1。
從整體來看,這兩個步驟實質上是線程 A 在向線程 B 發送消息,而且這個通信過程必須要經過主內存。JMM 通過控制主內存與每個線程的本地內存之間的交互,來為 java 程序員提供內存可見性保證。
在執行程序時為了提高性能,編譯器和處理器常常會對指令做重排序。重排序分三種類型:
編譯器優化的重排序。編譯器在不改變單線程程序語義的前提下,可以重新安排語句的執行順序。
指令級並行的重排序。現代處理器采用了指令級並行技術(Instruction-Level Parallelism, ILP)來將多條指令重疊執行。如果不存在數據依賴性,處理器可以改變語句對應機器指令的執行順序。
從 java 源代碼到最終實際執行的指令序列,會分別經歷下面三種重排序:
上述的1屬於編譯器重排序,2和3屬於處理器重排序。這些重排序都可能會導致多線程程序出現內存可見性問題。對於編譯器,JMM 的編譯器重排序規則會禁止特定類型的編譯器重排序(不是所有的編譯器重排序都要禁止)。對於處理器重排序,JMM 的處理器重排序規則會要求 java 編譯器在生成指令序列時,插入特定類型的內存屏障(memory barriers,intel 稱之為 memory fence)指令,通過內存屏障指令來禁止特定類型的處理器重排序(不是所有的處理器重排序都要禁止)。
JMM 屬於語言級的內存模型,它確保在不同的編譯器和不同的處理器平台之上,通過禁止特定類型的編譯器重排序和處理器重排序,為程序員提供一致的內存可見性保證。
現代的處理器使用寫緩沖區來臨時保存向內存寫入的數據。寫緩沖區可以保證指令流水線持續運行,它可以避免由於處理器停頓下來等待向內存寫入數據而產生的延遲。同時,通過以批處理的方式刷新寫緩沖區,以及合並寫緩沖區中對同一內存地址的多次寫,可以減少對內存總線的占用。雖然寫緩沖區有這麼多好處,但每個處理器上的寫緩沖區,僅僅對它所在的處理器可見。這個特性會對內存操作的執行順序產生重要的影響:處理器對內存的讀/寫操作的執行順序,不一定與內存實際發生的讀/寫操作順序一致!為了具體說明,請看下面示例:
假設處理器 A 和處理器 B 按程序的順序並行執行內存訪問,最終卻可能得到 x = y = 0 的結果。具體的原因如下圖所示:
這裡處理器 A 和處理器 B 可以同時把共享變量寫入自己的寫緩沖區(A1,B1),然後從內存中讀取另一個共享變量(A2,B2),最後才把自己寫緩存區中保存的髒數據刷新到內存中(A3,B3)。當以這種時序執行時,程序就可以得到 x = y = 0 的結果。
從內存操作實際發生的順序來看,直到處理器 A 執行 A3 來刷新自己的寫緩存區,寫操作 A1 才算真正執行了。雖然處理器 A 執行內存操作的順序為:A1->A2,但內存操作實際發生的順序卻是:A2->A1。此時,處理器 A 的內存操作順序被重排序了(處理器 B 的情況和處理器 A 一樣,這裡就不贅述了)。
這裡的關鍵是,由於寫緩沖區僅對自己的處理器可見,它會導致處理器執行內存操作的順序可能會與內存實際的操作執行順序不一致。由於現代的處理器都會使用寫緩沖區,因此現代的處理器都會允許對寫-讀操作重排序。
下面是常見處理器允許的重排序類型的列表:
Load-Load Load-Store Store-Store Store-Load 數據依賴 sparc-TSO N N N Y N x86 N N N Y N ia64 Y Y Y Y N PowerPC Y Y Y Y N上表單元格中的 “N” 表示處理器不允許兩個操作重排序,“Y” 表示允許重排序。
從上表我們可以看出:常見的處理器都允許 Store-Load 重排序;常見的處理器都不允許對存在數據依賴的操作做重排序。sparc-TSO 和 x86 擁有相對較強的處理器內存模型,它們僅允許對寫-讀操作做重排序(因為它們都使用了寫緩沖區)。
※注1:sparc-TSO 是指以 TSO(Total Store Order)內存模型運行時,sparc 處理器的特性。
※注2:上表中的 x86 包括 x64 及 AMD64。
※注3:由於 ARM 處理器的內存模型與 PowerPC 處理器的內存模型非常類似,本文將忽略它。
※注4:數據依賴性後文會專門說明。
為了保證內存可見性,java 編譯器在生成指令序列的適當位置會插入內存屏障指令來禁止特定類型的處理器重排序。JMM 把內存屏障指令分為下列四類:
屏障類型 指令示例 說明 LoadLoad Barriers Load1; LoadLoad; Load2 確保Load1數據的裝載,之前於Load2及所有後續裝載指令的裝載。 StoreStore Barriers Store1; StoreStore; Store2 確保Store1數據對其他處理器可見(刷新到內存),之前於Store2及所有後續存儲指令的存儲。 LoadStore Barriers Load1; LoadStore; Store2 確保Load1數據裝載,之前於Store2及所有後續的存儲指令刷新到內存。 StoreLoad Barriers Store1; StoreLoad; Load2 確保Store1數據對其他處理器變得可見(指刷新到內存),之前於Load2及所有後續裝載指令的裝載。StoreLoad Barriers會使該屏障之前的所有內存訪問指令(存儲和裝載指令)完成之後,才執行該屏障之後的內存訪問指令。StoreLoad Barriers 是一個“全能型”的屏障,它同時具有其他三個屏障的效果。現代的多處理器大都支持該屏障(其他類型的屏障不一定被所有處理器支持)。執行該屏障開銷會很昂貴,因為當前處理器通常要把寫緩沖區中的數據全部刷新到內存中(buffer fully flush)。
從 JDK5 開始,java 使用新的 JSR -133 內存模型(本文除非特別說明,針對的都是 JSR- 133 內存模型)。JSR-133 使用 happens-before 的概念來闡述操作之間的內存可見性。在 JMM 中,如果一個操作執行的結果需要對另一個操作可見,那麼這兩個操作之間必須要存在happens-before 關系。���裡提到的兩個操作既可以是在一個線程之內,也可以是在不同線程之間。
與程序員密切相關的 happens-before 規則如下:
注意,兩個操作之間具有 happens-before 關系,並不意味著前一個操作必須要在後一個操作之前執行!happens-before 僅僅要求前一個操作(執行的結果)對後一個操作可見,且前一個操作按順序排在第二個操作之前(the first is visible to and ordered before the second)。happens- before 的定義很微妙,後文會具體說明 happens-before 為什麼要這麼定義。
happens-before與JMM的關系如下圖所示:
如上圖所示,一個 happens-before 規則通常對應於多個編譯器和處理器重排序規則。對於 java 程序員來說,happens-before 規則簡單易懂,它避免 java 程序員為了理解 JMM 提供的內存可見性保證而去學習復雜的重排序規則以及這些規則的具體實現。