從Java String例項來理解ANSI、Unicode、BMP、UTF等編碼概念
一、前言
一切的謎都解開了!在寫這篇隨筆之前,我的心情只能用金田一每次破案後的這句臺詞來表達。
其實從開始寫Java程式碼以來,遇到過無數次亂碼與轉碼問題,比如從文字檔案讀入到String出現亂碼,JSP獲取HTTP請求引數出現亂碼等問題,由於這些問題很常見,遇到的時候隨手百度一下一般都可以順利解決。也曾嘗試過去把概念理清楚,但網上眾說紛紜,內容繁雜,又不願意花精力去看標準文件,所以問題擱置了很久。
前兩天同學與我談起一個Java原始檔的編碼問題(這問題在最後一個例項分析),從這個問題入手拉扯出了一連串的問題,然後我們一邊查資料一邊討論,直到深夜,終於在一篇部落格中找到了關鍵性線索,解決了所有的疑惑,以前沒有理解的語句都能解釋清楚了。因此我決定用這篇隨筆,記錄我對一些編碼問題的理解以及實驗的結果。
下面有些概念是我自己結合實際的理解,如果有誤,請一定不吝指正。
二、概念總結
早期,網際網路還沒有發展起來,計算機僅用於處理一些本地的資料,所以很多國家和地區針對本土的語言設計了編碼方案,這種與區域相關的編碼統稱為ANSI編碼(因為都是對ANSI-ASCII碼的擴充套件)。但是他們沒有事先商量好怎麼相互相容,而是自己搞自己的,這樣就埋下了編碼衝突的禍根,比如大陸使用的GB2312編碼與臺灣使用的Big5編碼就有衝突,同樣的兩個位元組,在兩種編碼方案裡表示的是不同的字元,隨著網際網路的興起,一個文件裡經常會包含多種語言,計算機在顯示的時候就遇到麻煩了,因為它不知道這兩個位元組到底屬於哪種編碼。
這樣的問題在世界上普遍存在,因此重新定義一個通用的字符集,為世界上所有字元進行統一編號的呼聲不斷高漲。
由此Unicode碼應運而生,它為世界上所有字元進行了統一編號,由於它可以唯一標識一個字元,所以字型也只需要針對Unicode碼進行設計就行了。但Unicode標準定義的是一個字符集,而沒有規定編碼方案,也就是說它僅僅定義了一個個抽象的數字與其對應的字元,而沒有規定具體怎麼儲存一串Unicode數字,真正規定怎麼儲存的是UTF-8、UTF-16、UTF-32等方案,所以帶有UTF開頭的編碼,都是可以直接通過計算和Unicode數值(Code Point,程式碼點)進行轉換的。顧名思義,UTF-8就是8位長度為基本單位編碼,它是變長編碼,用1~6個位元組來編碼一個字元(因為受Unicode範圍的約束,所以實際最大隻有4位元組);UTF-16是16位為基本單位編碼,也是變長編碼,要麼2個位元組要麼4個位元組;UTF-32則是定長的,固定4位元組儲存一個Unicode數。
其實我以前一直對Unicode有點誤解,在我的印象中Unicode碼最大隻能到0xFFFF,也就是最多隻能表示 2^16 個字元,在仔細看了維基百科之後才明白,早期的UCS-2編碼方案確實是這樣,UCS-2固定使用兩個位元組來編碼一個字元,因此它只能編碼BMP(基本多語言平面,即0×0000-0xFFFF,包含了世界上最常用的字元)範圍內的字元。為了要編碼Unicode大於0xFFFF的字元,人們對UCS-2編碼進行了擴充,創造了UTF-16編碼,它是變長的,在BMP範圍內,UTF-16與UCS-2完全一致,而BMP之外UTF-16則使用4個位元組來儲存。
為了方便下面的描述,先交代一下程式碼單元(Code Unit)的概念,某種編碼的基本組成單位就叫程式碼單元,比如UTF-8的程式碼單元為1個位元組,UTF-16的程式碼單元為2個位元組,不好解釋,但是很好理解。
為了相容各種語言以及更好的跨平臺,Java String儲存的就是字元的Unicode碼。它以前使用的是UCS-2編碼方案來儲存Unicode,後來發現BMP範圍內的字元不夠用了,但是出於記憶體消耗和相容性的考慮,並沒有升到UCS-4(即UTF-32,固定4位元組編碼),而是採用了上面所說的UTF-16,char型別可看作其程式碼單元。這個做法導致了一些麻煩,如果所有字元都在BMP範圍內還沒事,若有BMP外的字元,就不再是一個程式碼單元對應一個字元了,length方法返回的是程式碼單元的個數,而不是字元的個數,charAt方法返回的自然也是一個程式碼單元而不是一個字元,遍歷起來也變得麻煩,雖然提供了一些新的操作方法,總歸還是不方便,而且還不能隨機訪問。
此外,我發現Java在編譯的時候還不會處理大於0xFFFF的Unicode字面量,所以如果你敲不出某個非BMP字元來,但是你知道它的Unicode碼,得用一個比較笨的方法來讓String儲存它:手動計算出該字元的UTF-16編碼(四位元組),把前兩個位元組和後兩個位元組各作為一個Unicode數,然後賦值給String,示例程式碼如下所示。
public static void main(String[] args) { //String str = ""; //我們想賦值這樣一個字元,假設我輸入法打不出來 //但我知道它的Unicode是0x1D11E //String str = "\u1D11E"; //這樣寫不會識別 //於是通過計算得到其UTF-16編碼 D834 DD1E String str = "\uD834\uDD1E"; //然後這麼寫 System.out.println(str); //成功輸出了"" }
Windows系統自帶的記事本可以另存為Unicode編碼,實際上指的是UTF-16編碼。上面說了,主要使用的字元編碼都在BMP範圍內,而在BMP範圍內,每個字元的UTF-16編碼值與對應的Unicode數值是相等的,這大概就是微軟把它稱為Unicode的原因吧。舉個例子,我在記事本中輸入了”好a“兩個字元,然後另存為Unicode big endian(高位優先)編碼,用WinHex開啟檔案,內容如下圖,檔案開頭兩個位元組被稱為Byte Order Mark(位元組順序標記),(FE FF)標識位元組序為高位優先,然後(59 7D)正是”好“的Unicode碼,(00 61)正是”a“的Unicode碼。
有了Unicode碼,也還不能立即解決問題,因為首先世界上已經存在了大量的非Unicode標準的編碼資料,我們不可能丟棄它們,其次Unicode的編碼往往比ANSI編碼更佔空間,所以從節約資源的角度來說,ANSI編碼還是有存在的必要的。所以需要建立一個轉換機制,使得ANSI編碼可以轉換到Unicode進行統一處理,也可以把Unicode轉換到ANSI編碼以適應平臺的要求。
轉換方法說起來比較容易,對於UTF系列或者是ISO-8859-1這種被相容的編碼,可以通過計算和Unicode數值直接進行轉換(實際可能也是查表),而對於系統遺留下來的ANSI編碼,則只能通過查表的方式進行,微軟把這種對映表稱為Code Page(內碼表),並按編碼進行分類編號,比如我們常見的cp936就是GBK的內碼表,cp65001就是UTF-8的內碼表。下圖是微軟官網查到的GBK->Unicode對映表(目測不全),同理還應有反向的Unicode->GBK對映表。
有了內碼表,就可以很方便的進行各種編碼轉換了,比如從GBK轉換到UTF-8,只需要先按照GBK的編碼規則對資料按字元劃分,用每個字元的編碼資料去查GBK內碼表,得到其Unicode數值,再用該Unicode去查UTF-8的內碼表(或直接計算),就可以得到對應的UTF-8編碼。反過來同理。注意:UTF-8是Unicode的標準實現,它的內碼表中包含了所有的Unicode取值,所以任意編碼轉換到UTF-8,再轉換回去都不會有任何丟失。至此,我們可以得出一個結論就是,要完成編碼轉換工作,最重要的是第一步要成功的轉換到Unicode,所以正確選擇字符集(內碼表)是關鍵。
理解了轉碼丟失問題的本質後,我才突然明白JSP的框架為什麼要以ISO-8859-1去解碼HTTP請求引數,導致我們獲取中文引數的時候不得不寫這樣的語句:
String param = new String(s.getBytes("iso-8859-1"), "UTF-8");
因為JSP框架接收到的是引數編碼的二進位制位元組流,它不知道這究竟是什麼編碼(或者不關心),也就不知道該查哪個內碼表去轉換到Unicode。然後它就選擇了一種絕對不會產生丟失的方案,它假設這是ISO-8859-1編碼的資料,然後查ISO-8859-1的內碼表,得到Unicode序列,因為ISO-8859-1是按位元組編碼的,而且不同於ASCII的是,它對0 ~ 255空間的每一位都進行了編碼,所以任意一個位元組都能在它的內碼表中找到對應的Unicode,若再從Unicode轉回原始位元組流的話也就不會有任何丟失。它這樣做,對於不考慮其他語言的歐美程式設計師來說,可以直接用JSP框架解碼好的String,而要相容其他語言的話也只需要轉回原始位元組流,再以實際的內碼表去解碼一下就好。
我對Unicode以及字元編碼的相關概念闡述完畢,接下來用Java例項來感受一下。
三、例項分析
1.轉換到Unicode——String構造方法
String的構造方法就是把各種編碼資料轉換到Unicode序列(以UTF-16編碼儲存),下面這段測試程式碼,用來展示Java String構造方法的應用,例項中都不涉及非BMP字元,所以就不用codePointAt那些方法了。
public class Test { public static void main(String[] args) throws IOException { //"你好"的GBK編碼資料 byte[] gbkData = {(byte)0xc4, (byte)0xe3, (byte)0xba, (byte)0xc3}; //"你好"的BIG5編碼資料 byte[] big5Data = {(byte)0xa7, (byte)0x41, (byte)0xa6, (byte)0x6e}; //構造String,解碼為Unicode String strFromGBK = new String(gbkData, "GBK"); String strFromBig5 = new String(big5Data, "BIG5"); //分別輸出Unicode序列 showUnicode(strFromGBK); showUnicode(strFromBig5); } public static void showUnicode(String str) { for (int i = 0; i < str.length(); i++) { System.out.printf("\\u%x", (int)str.charAt(i)); } System.out.println(); } }
執行結果如下圖
從結果可以發現,只要指定了正確的字符集(內碼表),String就可以解碼出正確的Unicode,最後可以試試println(“\u4f60\u597d”),輸出的就是“你好”。
2.Unicode轉換到各種編碼——getBytes
String擁有了Unicode序列,想要轉換到其它編碼就易如反掌了,根據你引數指定的字符集,去相應的內碼表查詢就可以轉換過去了,當然如果該字符集不支援某字元(也就是沒有這條Unicode記錄),那就會導致編碼丟失,再也不能還原到原來的Unicode序列了。
這裡,我們和第1節的做法相反,我們把Unicode序列轉換到其它各種編碼,如下所示。
public class Test { public static void main(String[] args) throws IOException { //字串"你好" String str = "\u4f60\u597d"; //轉換到各種編碼 showBytes(str, "GBK"); showBytes(str, "BIG5"); showBytes(str, "UTF-8"); } public static void showBytes(String str, String charset) throws IOException { for (byte b : str.getBytes(charset)) System.out.printf("0x%x ", b); System.out.println(); } }
執行結果如下圖
可以發現,由於String掌握了Unicode碼,要轉換到其它編碼so easy!
3.以Unicode為橋樑,實現編碼互轉
有了上面兩部分的基礎,要實現編碼互轉就很簡單了,只需要把他們聯合使用就可以了。先new String把原編碼資料轉換為Unicode序列,再呼叫getBytes轉到指定的編碼就OK。
比如一個很簡單的GBK到Big5的轉換程式碼如下
public static void main(String[] args) throws UnsupportedEncodingException { //假設這是以位元組流方式從檔案中讀取到的資料(GBK編碼) byte[] gbkData = {(byte) 0xc4, (byte) 0xe3, (byte) 0xba, (byte) 0xc3}; //轉換到Unicode String tmp = new String(gbkData, "GBK"); //從Unicode轉換到Big5編碼 byte[] big5Data = tmp.getBytes("Big5"); //後續操作…… }
4.編碼丟失問題
上面已經解釋了,JSP框架採用ISO-8859-1字符集來解碼的原因。先用一個例子來模擬這個還原過程,程式碼如下
public class Test { public static void main(String[] args) throws UnsupportedEncodingException { //JSP框架收到6個位元組的資料 byte[] data = {(byte) 0xe4, (byte) 0xbd, (byte) 0xa0, (byte) 0xe5, (byte) 0xa5, (byte) 0xbd}; //列印原始資料 showBytes(data); //JSP框架假設它是ISO-8859-1的編碼,生成一個String物件 String tmp = new String(data, "ISO-8859-1"); //**************JSP框架部分結束******************** //開發者拿到後列印它發現是6個歐洲字元,而不是預期的"你好" System.out.println(" ISO解碼的結果:" + tmp); //因此首先要得到原始的6個位元組的資料(反查ISO-8859-1的內碼表) byte[] utfData = tmp.getBytes("ISO-8859-1"); //列印還原的資料 showBytes(utfData); //開發者知道它是UTF-8編碼的,因此用UTF-8的內碼表,重新構造String物件 String result = new String(utfData, "UTF-8"); //再列印,正確了! System.out.println(" UTF-8解碼的結果:" + result); } public static void showBytes(byte[] data) { for (byte b : data) System.out.printf("0x%x ", b); System.out.println(); } }
執行結果如下,第一次輸出是不正確的,因為解碼規則不對,也查錯了內碼表,得到的是錯誤的Unicode。然後發現通過錯誤的Unicode反查ISO-8859-1內碼表還能完美的還原資料。
然後我們嘗試把ISO-8859-1替換為ASCII,結果就會變成這樣子
這是因為,ASCII雖然也是每位元組對應一個字元,但是它只對0~127這個空間進行了編碼,也就是說每個位元組的最大值只能為0x7F,而上面的6個位元組全部都大於這個數值,因此在ASCII的內碼表中是找不到這6個位元組的,於是Java就搞了一個預設值。我用如下的程式碼測試發現,當通過編碼資料在內碼表中查不到對應的Unicode時,就返回預設值\ufffd(對應圖中第一種問號),反過來,當通過Unicode在內碼表中查不到對應的編碼資料時,就返回預設值0x3f(ASCII,對應圖中第二種問號)。由此,這個輸出結果也就可以解釋清楚了。
public static void main(String[] args) throws IOException { //輸出結果全為\ufffd byte[] data = {(byte) 0x80}; showUnicode(new String(data, "UTF-8")); showUnicode(new String(data, "GBK")); showUnicode(new String(data, "Big5")); //輸出結果全為0x3f String str = "\uccdd"; showBytes(str, "GBK"); showBytes(str, "BIG5"); showBytes(str, "ISO-8859-1"); }
5.Java原始檔的編碼問題
這就是開頭所提到的那個問題,把問題描述一下先。就如下這麼一小段程式碼,原始檔使用UTF-8編碼儲存。(注意別用Windows的記事本,因為它會在UTF-8檔案最前面加入一個3位元組的BOM頭,而很多程式都不相容這一點)
public class Test { public static void main(String[] args) { System.out.println("中"); } }
然後在Windows中使用預設引數編譯該檔案(系統區域設定為簡體中文,即預設使用GBK字符集解碼),然後會得到如下錯誤
這不是重點,重點如果把“中”換成“中國”,編譯就會成功,執行結果如下圖。另外進一步可發現,中文字元個數為奇數時編譯失敗,偶數時通過。這是為什麼呢?下面詳細分析一下。
因為Java String內部使用的是Unicode,所以在編譯的時候,編譯器就會對我們的字串字面量進行轉碼,從原始檔的編碼轉換到Unicode(維基百科說用的是與UTF-8稍微有點不同的編碼)。編譯的時候我們沒有指定encoding引數,所以編譯器會預設以GBK方式去解碼,對UTF-8和GBK有點了解的應該會知道,一般一箇中文字元使用UTF-8編碼需要3個位元組,而GBK只需要2個位元組,這就能解釋為什麼字元數的奇偶性會影響結果,因為如果2個字元,UTF-8編碼佔6個位元組,以GBK方式來解碼恰好能解碼為3個字元,而如果是1個字元,就會多出一個無法對映的位元組,就是圖中問號的地方。
再具體一點的話,原始檔中“中國”二字的UTF-8編碼是 e4 b8 ad e5 9b bd,編譯器以GBK方式解碼,3個位元組對分別查cp936得到3個Unicode值,分別是6d93 e15e 6d57,對應結果圖中的三個奇怪字元。如下圖所示,編譯後這3個Unicode在.class檔案中實際以類UTF-8編碼儲存,執行的時候,JVM中儲存的就是Unicode,然而最終輸出時,還是會編碼之後傳遞給終端,這次約定的編碼就是系統區域設定的編碼,所以如果終端編碼設定改了,還是會亂碼。我們這裡的e15e在Unicode標準中並沒有定義相應的字元,所以在不同平臺不同字型下顯示會有所不同。
可以想象,如果反過來,原始檔以GBK編碼儲存,然後騙編譯器說是UTF-8,那基本上是無論輸入多少箇中文字元都無法編譯通過了,因為UTF-8的編碼很有規律性,隨意組合的位元組是不會符合UTF-8編碼規則的。
當然,要使編譯器能正確的把編碼轉換到Unicode,最直接的方法還是老老實實告訴編譯器原始檔的編碼是什麼。
四、總結
經過這次收集整理和實驗,瞭解了很多與編碼相關的概念,也熟悉了編碼轉換的具體過程,這些思想可以推廣到各種程式語言去,實現原理都類似,所以我想以後再遇到這類問題,應該不會再不知所以然了。
相關文章
- 轉貼 (談談Unicode編碼,簡要解釋UCS、UTF、BMP、BOM等名詞)&(UTF-8編碼規則)Unicode
- 字元編解碼的故事(ASCII,ANSI,Unicode,Utf-8區別)字元ASCIIUnicode
- ANSI(字符集) and Unicode(字符集) and UTF-8(編碼Unicode字符集)Unicode
- unicode、utf-8、ansi的故事Unicode
- C++ string互轉wstring/Unicode互轉ANSI/Unicode互轉UTF8C++Unicode
- 學習電腦編碼utf-8,ansi編碼的基礎知識等
- 字元編碼 ASCII,Unicode 和 UTF-8 概念掃盲字元ASCIIUnicode
- 字元編碼:Unicode & UTF-16 & UTF-8字元Unicode
- 字元編碼:ASCII,Unicode和UTF-8字元ASCIIUnicode
- Unicode中UTF-8與UTF-16編碼詳解Unicode
- Java 經典例項: Unicode字元和String之間的轉換JavaUnicode字元
- 字元編碼筆記:ASCII,Unicode和UTF-8字元筆記ASCIIUnicode
- 字元編碼筆記:ASCII,Unicode 和 UTF-8字元筆記ASCIIUnicode
- 例項分析理解Java位元組碼Java
- Unicode、GBK、UTF-8、ASCII的編碼簡介UnicodeASCII
- 計算機編碼歷程(what is Unicode&UTF8 )計算機Unicode
- 字符集編碼淺析:Unicode和UTF-8Unicode
- 字元編碼發展史4 — Unicode與UTF-8字元Unicode
- 中文字元轉十六進位制Unicode編碼原始碼例項字元Unicode原始碼
- 帶你瞭解 Unicode和UTF-8編碼知識Unicode
- 字符集和編碼——Unicode(UTF&UCS)深度歷險Unicode
- ASCII,Unicode,UTF-8,GB2312一些關於編碼的理解ASCIIUnicode
- ANSI與UTF8之間的轉換!std::string與UTF8之間的轉換
- Unicode 與 UTFUnicode
- unicode,utf-8Unicode
- 符號編碼-ASCII、Unicode、Unicode big endian、UTF-8之間的關係(轉)符號ASCIIUnicode
- 徹底搞懂字元編碼(unicode,mbcs,utf-8,utf-16,utf-32,big endian,little endian...)字元Unicode
- .net例項:Asp.net把UTF-8編碼轉換為GB2312編碼ASP.NET
- VB中的Unicode 和 Ansi 格式 (轉)Unicode
- SQLPlus只支援ANSI編碼SQL
- Unicode編碼解碼Unicode
- unicode vs utf-8Unicode
- 從1+1=2來理解Java位元組碼Java
- 通過例項來理解MySQL索引薦MySql索引
- Unicode編碼和中文互轉(JAVA實現)UnicodeJava
- 面試之Java String 編碼相關面試Java
- java中String類常用方法的使用與例項Java
- UTF-8 and Unicode FAQ(轉)Unicode