藉助AI與AAD技術,這款認知助聽器讓你想聽哪裡聽哪裡

行者武松發表於2018-03-01

如果一切順利,五年內該系統將開始出現在商業助聽器中。

近日,哥倫比亞大學工程研究所推出一款新型認知助聽器,其中研究人員利用聽覺注意力解碼(AAD)技術和AI(深度學習),實現了用大腦的認知訊號來控制助聽器對外界聲音的主觀選擇。

據悉,該研究由哥倫比亞大學電機工程副教授Nima Mesgarani領導,哥倫比亞大學醫學中心的神經外科和Hofstra-Northwell醫學院以及費恩斯坦醫學研究所合作完成。

藉助AI與AAD技術,這款認知助聽器讓你想聽哪裡聽哪裡

目前,在一片噪雜的環境中,現有的數字助聽器已經可以有效地抑制背景噪聲,但是它們不能幫助使用者選擇放大他們想要聽到的聲音,這也一直是數字助聽器的研究難點。

而此款認知助聽器就解決了這一問題,它可以實時監測使用者的大腦活動,以保證使用者即使在嘈雜環境下,也可以與自已想要交流的物件輕鬆交談。

對此,Mesgarani解釋道:“這項工作結合了兩門學科的最新技術:聲學工程和聽覺注意力解碼。我們只要加入深層神經網路模型來幫助自動分離語音訊號,整個系統就可以運用起來。”

藉助AI與AAD技術,這款認知助聽器讓你想聽哪裡聽哪裡

早前,團隊就有利用人的認知意識來控制助聽器的想法,直到2012年,他們通過侵入式方式記錄了神經訊號,隨後實現對神經訊號的解碼,獲取被測試者注意力的目標。後來,在2015年,他們表示可以通過非侵入性方法實現AAD技術。

不過整個研發過程並非易事,對此,與Mesgarani一起工作的博士後科學家James O`Sullivan指出,將科學上的發現轉化為現實世界的可操作技術需要歷經數次實驗。

在聽覺注意力解碼的實際操作中,研究人員就面臨揚聲器種類選擇問題。於是他們通過將受試者腦部的神經反應記錄與不同種類揚聲器發出的語音訊號進行比較,得出與神經資料最大相似性的揚聲器。事實證明,該系統只能採用全頻揚聲器,而非單頻揚聲器。

最終,Mesgarani的團隊開發了一個端對端系統,這個系統會根據使用者神經訊號的解碼訊號選定到特定的音訊接收通道,其中每個通道都包含一個全頻揚聲器。隨後該系統會自動分離全頻揚聲器中的聲音訊號,確定使用者關注的聲音訊號,然後放大該訊號,確保使用者能夠清晰聽見。

該團隊使用癲癇手術的神經學受試者的侵入性電皮質記錄測試了該系統的功效。

在測試中,他們確定了對AAD有貢獻的聽覺皮質區域,發現該系統僅使用混頻就可以解碼使用者的注意力方向,並能夠放大他或她想要聽的聲音。並且值得注意的是,整個過程的執行最多隻要十秒。

藉助AI與AAD技術,這款認知助聽器讓你想聽哪裡聽哪裡

此處,基於腦波訊號來處理大量的音訊資料和神經解碼訊號是該助聽器系統的重要功能。無疑,實時進行這樣的操作需要超強的計算能力,而將強大的處理器縮小到標準助聽器的大小是十分艱難的。

幸運的是,材料科學的進步使得這樣的微型計算機成為可能。對此,Mesgarani表示,目前正在進行大量的研究,以製造小型專用晶片,滿足所需的計算。

此外,他還表示,因為使用了深層神經網路,且有硬體的支援,最新的助聽器資料可同步到手機等裝置上,這將有助於在這種小型裝置中進行大量計算。

據瞭解,該技術目前還處於早期的概念驗證階段,但Mesgarani說,如果一切順利,五年內,系統將開始出現在商業助聽器中。

原文釋出時間:2017-08-05 19:28

本文作者:Lynn

本文來自雲棲社群合作伙伴鎂客網,瞭解相關資訊可以關注鎂客網。


相關文章