HMS Core 機器學習服務打造同傳翻譯新“聲”態,AI讓國際交流更順暢

HMSCore發表於2022-07-06

2022年6月,HMS Core機器學習服務面向開發者提供一項全新的開放能力——同聲傳譯,通過AI語音技術減少資源成本,加強溝通交流,旨在幫助開發者製作豐富多樣的同聲傳譯應用。

HMS Core同聲傳譯涵蓋了機器學習服務的[語音識別、翻譯、語音合成]()等核心技術,首先把輸入的實時語音轉換成文字,然後再把文字翻譯成另一種語言的文字,最後把翻譯後的文字轉換成語音播放。同聲傳譯能力能夠協助解決多種場景下的跨語言實時交流,支援中英文互譯,提供多種音色語音播報,可以廣泛應用於領域多樣、環境複雜、實時性高的會議、直播等場景。

語音識別+機器翻譯,兼具質量與效率

對於同聲傳譯而言,準確的源語言輸入+譯文輸出是其重要的衡量標準。而在面對同聲傳譯主要的場景——大會演講、字幕直播、會議訪談、智慧教育……往往伴隨長時間持續輸入的音訊,端側識別通過語音能量檢測、靜音檢測、心跳檢測等演算法,實現長音訊的有效斷句,從而將有效語音片段送到語音識別模組,提升了語音識別的效率,同時縮小了同聲傳譯時延,降低噪聲對識別效果的影響。

另一方面,在語音轉成文字後,存在部分識別錯誤、口語化表達、語氣詞較多、部分內容重複表達等導致文字不流利以及識別文字並未進行細緻斷句的問題。針對這些狀況,機器學習服務在文字處理模組採用NLP語義理解、同音歧義處理、環境聲音處理、口語化處理等糾錯技術,來實現文字順滑、自動斷句等功能,確保返回高質量的翻譯文字,從而實現語音識別和翻譯功能加強,提升同聲傳譯效果。

多種場景全覆蓋,中英字幕雙語輸出

同聲傳譯既能應用在面對面跨語言交流場景,也能在遠端溝通中發揮作用。無論是面對面多語種會議、遠端會議、還是觀看外語視訊,同聲傳譯能力可以實時生成雙語字幕,降低理解成本,提升工作與學習效率。

定製化語音播報,邊聽邊看兩不誤

同聲傳譯能力通過先進的深度神經合成技術,能夠實時輸出音訊流資料,同時提供多種中、英文男、女音色選擇,從而使發音達到更加真實自然的效果。通過實時語音播報降低延遲,結合實時字幕內容,為參會者提供視聽一體的沉浸式同聲傳譯體驗。

通過對語音識別、機器翻譯、語音合成三項技術的有機整合,HMS Core機器學習服務為開發者提供較低時延、較高準確率的同聲傳譯能力,幫助使用者更順暢地進行國際交流,打造同聲傳譯新“聲”態。歡迎開發者可以登入機器學習服務主頁,瞭解更詳細的產品介紹與接入準備。

瞭解更多詳情>>

訪問華為開發者聯盟官網
獲取開發指導文件
華為移動服務開源倉庫地址:GitHubGitee

關注我們,第一時間瞭解 HMS Core 最新技術資訊~

相關文章