iOS15上線圖片翻譯功能,能取代專業翻譯軟體嗎?

naojiti發表於2021-07-22

此前iOS15系統更新,有一個功能引發了不小的關注,那就是內建圖片翻譯。

使用者可以直接選擇照片中要翻譯的文字,檢視翻譯結果。據說蘋果還更新了翻譯模型,提升了翻譯效果。

這就刺激了,如果說幾年前神經機器翻譯的出現,是許多人類翻譯的噩夢,那這個系統內建翻譯圖片功能的推出,大概能讓不少專業翻譯軟體睡不著覺吧。

就拿我這種需要經常閱讀英文資訊的人來說,時常遇到pdf文獻、圖片類內容,需要第三方軟體拍照識別後進行翻譯。如果iOS15直接可以識別圖片,不就省略了幾個步驟嗎?簡直懶人福音。

那麼問題來了,翻譯好不好,重點在“療效”,iOS15的圖片翻譯能力已經強大到能替代專業翻譯軟體了嗎?要知道,信達雅的中文表達一直是NLP領域的難題,一家帶著矽谷基因的科技公司,真能完成地道的中英互譯?

本著實踐出真知的態度,我們準備了多道考題,並選取了口碑和使用者數都相對突出的有道詞典APP來參與橫向評測,以此來摸索iOS15圖片翻譯的真實水平。

真心話與大冒險:圖片翻譯三步曲

針對翻譯功能的專業評測有不少,各種指標諸如短中長句都有詳細的評測標準與規範,不過作為普通使用者,我們決定從大家日常使用圖片翻譯的具體場景和步驟中去進行測評。

一般來說,圖片中的文字要被精準地翻譯出來,需要至少具備三種能力:

第一步:火眼金睛,“看得準”。

圖片翻譯想要滿足使用者需求,首先考驗的不是NLP技術,而是OCR能力。只有識別得準,才能為後續翻譯奠定基礎,這一能力的關鍵考核指標,就是字準率。

從操作上來看,蘋果iOS15採用內建方式,可以直接選擇照片中要翻譯的文字,檢視翻譯結果;有道詞典需要開啟app中的拍照識別功能。前者在使用上要更方便一些。不過到了識別環節,iOS15就有些拉胯了。

我們找了一個英文短句、一個英文長句和一箇中文長句。結果顯示,在英文字準率上,蘋果和有道差距不大。

比如,有道100%識別出了原文“Do me a favor, can you look for my credit card.I don't find it.”

iOS15的結果是:Do me a favor.,can you look for my credit card,I don find it.

儘管蘋果將don't識別成了don,但不太影響閱讀,準確率還是可以接受的。

換個英文長句測試一下,下面這張圖片,有道的識別結果是:

One bad chapter doesn't mean my story is over until you find a new chapter which you think it's right,達到了98.96%的字準率。

iOS15的結果是:

One bad chapter t mean my story is over until you find chapter which you think it’l S right。

將it's right 識別成了it'l S right,可能會影響後續的語義理解。

到了中文字準率測試,有道和蘋果就拉開差距了。比如下面這張圖片:

有道是100%完整識別,蘋果iOS15則將“雨水”的雨,“一系列”的一,沒有識別出來,倒數第二段的“紀念祖”三個字也被遺漏了,直接影響閱讀體驗和使用者理解。

綜合來說,英文字準率二者差距不大,有道略勝一籌;中文字準率上,有道能做到90%以上的精準識別,蘋果iOS15只有79%,有道優勢明顯。

造成這一差距的原因,可能是有道詞典在圖片翻譯上積累更多。

早在5年前有道就開始嘗試開發圖片翻譯功能,後續又通過有道智云為許多主流手機廠商提供相關能力,許多使用者會在各種光照條件、各種用法下使用,因此積累了大量訓練語料,通過不斷迭代段落分析、圖片檢測、影像偏移角度檢測、語種檢測等演算法,OCR能力自然能得到針對性優化。

加上有道作為中國公司,對中文母語的理解更深,而蘋果iOS15剛剛開始廣泛推廣,在現實場景下的中文識別還有不足,也是可以理解的。

第二步:心如明鏡,“搞得懂”。

圖片文字識別完成後,就需要神經機器翻譯來將其轉化成相應的譯文。中英文都是語料相對豐富的語種,因此對其理解能力的要求也更高。

所以我們選擇了兩個比較細節的點來考察:

一是時態。

原文“是的,今天出去玩”,含有計劃的意思。

有道翻譯為“Yes.we're going out today”;

蘋果的譯文是:Yes.go out today.

顯然,有道採用了“be going ”一般將來時,更準確地理解了原文的意圖,表達出了計劃、安排、打算做某事的意思,蘋果的譯文則沒能體現出計劃的狀態。

二是單複數。

英文單詞的單複數常常承擔著截然不同的釋義,如果無法準確識別可能會讓譯文與原意南轅北轍。

比如這個“1200 square”,有道詞典翻譯為“1200平方”,蘋果iOS15的翻譯是“1200個廣場”。

square在單數狀態下指的是平方單位,蘋果的譯法很容易讓讀者產生歧義。

當然,在整體理解上,有道和蘋果的中英互譯水平都能滿足基本的閱讀需求。

比如這個長句:

He puts down $20,000 as a deposit on the beautiful $200,000 villa believing that his investment would increase over time.

有道的譯文:他為價值20萬美元的漂亮別墅付了2萬美元的定金,相信他的投資會隨著時間的推移而增加。

iOS15的譯文:他存了2萬美元作為這棟美麗的20萬美元別墅的押金,相信他的投資會隨著時間的推移而增加。

目前,圖片翻譯的中文互譯,有道和iOS15基本都表現出了較強的理解能力。對一些單詞用法、表達習慣上的細節洞察有差距,這背後還是語料積累、模型選擇、效能優化等的差異。

第三步:舌燦蓮花,“說人話”。

中文翻譯,很多人的黃金指標就是“信達雅”,指的是譯文要準確,不偏離原文;要通順,語法結構符合習慣;還要優雅,用語地道而富含文采。

神經機器翻譯發展到今天,能否滿足這一要求呢?有道和蘋果這兩個帶有不同語言基因的翻譯平臺,恰好可以調戲一番。

先來一道送分題:

原文:你們收了我80塊

有道譯文:You charged me 580;

iOS15譯文:You received me 80 yuan。

“收錢”是用charge,有道翻譯更符合英文表達,蘋果將“收到”直接翻譯為receive,不夠地道。

再來一道中長句試試:

原文:After the accident,I felt myself another person。

有道譯文:事故發生後,我覺得自己變了一個人;

iOS15譯文:事故發生後,我覺得自己是另一個人。

蘋果將“another person”直接翻譯為“另一個人”,而不是表達心態的轉變,容易產生歧義,有道譯作“變了一個人”,更準確和口語化。

當然,過於直譯的問題有道也會犯。比如下面圖片中,原文:In conclusion, drawing on the electronic media or printed books might be a good approach to understand different places or countries

有道譯為:總之,利用電子媒體或印刷書籍可能是一個很好的方法來了解不同的地方或國家;

蘋果譯為:總之,利用電子媒體或印刷書籍可能是瞭解不同地方或國家的好方法。

iOS15對語序進行調整之後,表達更妥帖自然,有道則出現了按照對應模式直譯的情況。

不過,這次測試題主要是基於生活旅遊、文化交流場景來進行的,對於專有名詞的翻譯效果如何,還有待進一步考察。

另外,由於蘋果iOS15在第一步OCR識別上字準率較低,這會直接影響後續的文字理解,因此蘋果的翻譯結果資料不具有參考性,對其翻譯水平不能妄下定論。

評測可以看出,一次信達雅的圖片翻譯,依靠的是多技術的融合,需要OCR、分詞、語義理解、上下文記憶、主題抽取等多種能力共同發力。

因此,初出茅廬的蘋果系統級圖片翻譯,想要取代專業翻譯軟體,路還很長。不過,有道也存在一些機器翻譯的普遍問題,作為專業的翻譯軟體,仍可以繼續強化其專業壁壘。

這也引發了我們的思考,為什麼有了AI,神經機器翻譯依然無法媲美人類譯者?

理想與現實的參差:戴著鐐銬跳舞的神經機器翻譯

神經網路剛被引入機器翻譯時,被視為所向披靡的神器。但幾年過去了,這一神奇技術確實比傳統的統計機器翻譯優秀很多,但距離人類翻譯家的水平還有差距。

就拿這次蘋果iOS15與有道詞典的橫向測評來說,二者有著這樣那樣的問題。簡單來說,原因可能出在幾個方面:

1.OOV(Out of Vocabulary)問題難以解決。

基於深度神經網路的機器翻譯模型需要海量資料的學習。如果資料量比較小,出現次數極少的詞的詞向量質量就會比較低,在實際應用中出現太多未登入詞,會導致錯譯、漏譯等情況。目前,一些垂直領域資料稀少、語料不足,尤其是中文有幾千上萬個字元,其中很多是生僻字,這些都會影響模型表現及譯文的質量。

要解決這一點,只能靠“笨功夫”積累資料。據有道詞典的技術人員表示,要做好中文識別沒有特別好的辦法,只能不斷的積累資料,迭代演算法,有道在過去幾年做了大量工作。

2.演算法優化與創新等待突破。

不同語言文化的文字表達、邏輯結構、資訊冗餘度、語法結構都不同,存在大量“資訊不對稱”,在“編解碼“過程中出現錯譯也就不足為奇了。

《文化翻譯論綱》一書中提到,譯文等於“原文+原文化背景+譯文+譯文文化背景+原作者的氣質和風格+譯者的氣質和風格”的混合體。

而要理解背後的文化、氣質、風格等“隱藏屬性”,只能通過技術迭代和創新來實現。比如有道允許使用者提供額外的自定義詞典,來精準調整神經網路機器翻譯的區域性結果,解決專有名詞的翻譯難題;

業內也開始嘗試引入多模態翻譯,通過圖片中其他事物的特徵來輔助理解文字。舉個例子,如果機器翻譯只看到GATE這個詞,可能會把它簡單的翻譯成“門”,但如果圖片中顯示這是一張機票或者背景是飛機場,那麼翻譯為“登機口”就會更恰當。

3.細分場景適配沒有捷徑。

隨著機器翻譯的普及,使用者對翻譯質量提出了更細分的要求,比如圖片翻譯時前置環節的少量識別錯誤可能帶來的級聯問題;網頁翻譯時不僅要提供正確的翻譯,還要儘可能保持原有網頁樣式的一致性;文件翻譯時,人名、地名、組織機構名或專業術語可能多次出現,上下文如何保持一致;在配置較低的端側裝置上,也要提供又快又好地翻譯體驗……不同場景下的各種問題,需要針對性地優化。

就拿圖片翻譯來說,自然場景下的影像識別十分複雜,往往在實驗室中效果很好,但使用者會在各種光照條件下,拍各種稀奇古怪的東西,識別完以後還需要判斷哪些詞屬於一個句子,哪些句子是一個段落,翻譯出來的結果應該如何呈現。據瞭解,有道也優化了很久,在演算法側對翻譯模型做了魯棒性增強,即便在實際環境中遇到個別無法避免的文字識別錯誤,仍然有穩定的效能表現。

從這個角度來說,圖片翻譯等新應用場景想要給使用者帶來體驗的顛覆式改變,需要的不僅僅是實驗室中的創新,還要關注並解決技術在應用場景中落地遇到的具體問題,來優化最終體驗,沒有捷徑可走。

從被人類譯者驚呼搶飯碗的“妖術”,到閱讀學習娛的樂場景中頻繁出沒的日常應用,神經機器翻譯技術落地現實的速度超出了很多人的想象。

對於這些致用型技術來說,應用突破比理論突破要更簡單,也更急迫。這也是我們在此時想聊聊圖片翻譯這個“小”功能的原因。

隨著全球往來的逐步重啟,以更自然實時的方式瞭解跨語種資訊越來越成為一種必然。圖片翻譯對於旅遊出行、專業閱讀、無障礙人士觸網等都有著不可或缺的價值。這也是蘋果、有道等產業界力量的價值所在,通過來自現實環境的資料、互動與反饋,不斷迭代並推動神經機器翻譯的點滴進步。

目前看來,蘋果iOS15的系統級圖片翻譯要取代專業翻譯軟體還為時尚早,事實上可以預見,未來兩者並不會相互替代,而是在各自適用的場景和不同需求強度下,相互補充,各擅所長。

來自產業界的每一次實踐,都推動著技術向前一步。

積沙成塔,終有一天,人類能翻越阻礙語言交流的“通天塔”。

來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/31561483/viewspace-2782818/,如需轉載,請註明出處,否則將追究法律責任。

相關文章