無死角窺探的焦慮:AI如何反擊隱私侵佔?

naojiti發表於2022-05-04

在智慧時代,演算法和算力的不斷突破,讓AI技術飛速發展。在工業生產、醫療、交通、能源等領域,AI與大資料技術相互協助,解放了人們許多無意義、重複危險的工作,也為企業的效率與安全帶來了增益。

不過完美的技術並不存在,我們一邊享受著資料帶來的紅利,另一方面也面臨著個人資訊“裸奔”的挑戰,身邊越來越多的智慧裝置都偷窺我們的個人隱私。

我們或許都有過這些經歷——

隨意地和同事聊天,討論哪裡的火鍋、燒烤好吃,開啟大眾點評,首頁上都是火鍋與燒烤的推薦;

和閨蜜、女朋友討論哪家的奶茶好喝,想喝新出的某個口味,外賣平臺上都是這個奶茶的推薦;

在和家人討論劉畊巨集,討論減肥,討論瑜伽服,再開啟某寶的話,也會收穫滿屏的健身用品推薦。

身邊的電子裝置都在各種暗中偷偷觀察我們的言行,詭異得令人不舒服。這些對我們聲音的窺探,也是一種消費市場風靡下各類App的營銷手段。通過對許可權隱私的開啟,實時將我們的聲音傳輸到系統中,運用所謂AI為我們推送定製化的服務。事實上,這些以獲取隱私為前提的營銷,讓消費者十分困擾。

如何避免這類情況的出現?有些人選擇不長期授權開啟麥克風,一次一授權,但是這種方式太麻煩。更極端的方式,有人故意在交談過程中,使用外放的音樂或者電視劇等嘈雜的聲音來遮蓋交談聲音,但這種殺敵一千自損八百的體驗過分難受。如何用技術的手段來規避這類情形呢?

用魔法打敗魔法

用AI來打敗AI,可能是一個不錯的出路。一種新的AI系統上線,這個AI系統的規避邏輯是,在談話的過程中加一些其他聲音的“佐料”,只不過這些“佐料”很微弱,不會像外放的音樂、聲音那麼嘈雜,影響我們正常的交談。

只要在人們交談的過程中,開啟這個系統,空間內就會播放一段微弱聲音,在不影響正常對話的前提下,掩蓋交談的聲音,以避免被麥克風收音。

這個AI系統,是來自美國哥倫比亞大學的研究團隊提出的一種新方法。該系統可以很容易地部署在我們常用的電子裝置中,只要在電腦、手機等硬體執行,就可以實時保護使用者的隱私。

用AI技術來干預麥克風獲取聲音,並不是一個新奇的點子。此前也有相關的技術解決這類問題,不過因為聲音交談的特殊情境,無法預測幾秒後談話的單詞與語速,這使得AI無法跟上交談雙方的對話節奏,從而影響對話覆蓋遮蔽的效果。

新的AI系統,可以通過深度學習的演算法,預測交談雙方接下來要說的話的特點,以兩秒鐘的輸入語音為條件,實現了實時效能。實時生成的合適麥克風噪音可以有效地干擾對對話隱私的獲取。

這個新演算法使用了一種“預測攻擊”的訊號,該訊號可以干擾任何被自動語音識別模型訓練來轉錄的單詞。並且當干擾的聲音在自然環境播放時,需要足夠大的音量來干擾任何可能在遠處的流氓“竊聽”麥克風。這個系統被證實在有自然環境噪聲和複雜形狀的真實房間中都具備良好的效果。不過目前演算法系統只對英文交流的語言有效,團隊正在將更多的精力放在其他語言的遷移應用中。

在這場爭鬥中,AI系統對裝置背後的神經網路推薦系統勝算滿滿。這一研究成果也在走出實驗室的過程中,向多語言多場景輻射落地,未來或許能夠幫助我們免受各式各樣對話隱私的“騷擾”。

聲音的隱私對我們的影響主要是消費領域的干涉和侵擾,在視訊領域,我們的肖像隱私更是重災區。

新的視訊“噪音”手段

在視訊隱私領域,公眾的隱私也沒有邊界。大家印象深刻的事情,莫過於在某家地產公司的樓盤銷售活動中,客戶自己戴頭盔來買房。很多人在初看新聞時,可能還有種嘲笑事主的心態,而在瞭解真實情況下,無奈也為事主的機智點贊。戴頭盔的主要目的是躲開地產公司的AI視訊識別,免得被進行差異化服務,避免自己購房利益損失。

視訊領域對消費群體的千人千面的不公平待遇只是冰山一角,更為嚴重的是一些堂而皇之的隱私侵犯。在天眼的覆蓋中,滿大街的攝像頭,讓所有人的視訊資料都在裸奔中。哪怕是一些人為了安全,在家中安置的攝像頭,也不能免除被一些黑客攻擊的風險,使用者在家中的任何舉動都被背後的一雙雙別有用心的眼睛窺探著。

這些視訊隱私,除了立法可以威懾外,有沒有技術的手段可以針對性地保護?

麻省理工學院電腦科學與人工智慧實驗室的研究人員開發了一種新的系統,在視訊中新增一些噪音資料,確保個人在視訊中不被識別,同時公共的視訊也可以作為分析與調查的資料來使用,可以更好地保證出現在監控視訊片段人的隱私。

我們知道在天眼中或者社群、園區的監控視訊中,被錄入視訊中的人毫無隱私可言,一切的人臉資訊都被攝像頭攝入並分析,雖然可以保證公共領域的安全,可以監測行人、車輛流動的密度和流量,幫助衛生健康與防疫措施的施行,但這種以犧牲個人的隱私這種局面在技術的升級過程中,應該逐漸被打破。

一些企業採取的是在視訊中模糊人臉的方式,但這類做法可能讓系統會跟丟一些人臉資料,進而會導致一些研究無法進行。新型的AI系統Privid,能夠讓研究人員運用視訊資料查詢的同時,也能確保個人身份無法被識別,保護出現在視訊片段中人的隱私。在各種視訊和查詢中,Privid的準確率在非私有系統的79%-99%之間。

Privid AI系統運用的是一種差分隱私保護技術差分隱私允許使用者對資料進行一定程度的修改,加入一些噪音資料,但不影響資料總體的輸出,從而使得攻擊者無法知道資料集中關於個人的資訊,達到隱私保護的作用。

不過這個系統也存在一定的侷限,那就是要新增的噪音資料量無法確定。理想的情況當然是,新增的噪音恰好足以隱藏每個人,但又不至於多到對研究人員毫無用處。但現實是,向資料新增噪音並保證視訊的分析查詢的過程中,會造成一定程度的干擾,讓結果不會非常準確,這個噪音資料的平衡,需要技術的深入與斟酌,在不影響實際參考價值的同時保障隱私。

AI深入隱私保護

在視聽領域,我們被暴露在開闊的地帶,普通人的資料成為消費領域的金錢與流量,被匯入各類消費場景中。對有錢有權的人來說,個人隱私的資料更為金貴,它很可能成為黑客眼中勒索的“肥肉”。在攝像頭下,你去的每一個地方都是透明的,如果有人獲取了這些資料,就能夠建立起人出現在固定場所的時間線,只要彙總資料就可以捕捉到人的歷史位置和各類資訊。有心的獵手只要蹲守,總會捕獲肥膘滿滿的獵物。

AI越智慧,獲取、儲存、分析的資訊也會越來越多,也會越來越隱蔽。雖然AI技術的中立性是共識,但背後的大公司、黑客的應用都是被利益所驅動,一旦這些資訊不被合理地應用,就會造成各類影響嚴重的事件發生。

我們知道視聽生活是現代人類娛樂、生活的必需品,無人能夠離開嵌入攝像頭、麥克風的各類電子產品。城市的執行、工廠、企業的管理運營離不開各類攝像頭裝置的輔助,這也意味著更多的社會、企業及個人資訊都在資料世界中流動。

技術發展總比法律的約束快。如果通過立法、道德的方式去約束,漏洞也會越來越多,安全和隱私得不到保障,這也會減緩AI的發展。保護隱私和安全是技術發展的關鍵。用AI的方式去約束一些AI技術對隱私的濫用,成為數智時代網路安全技術人員的必選項。

不過當前基於AI深度學習的隱私保護研究正在起步階段,還有許多挑戰。比如加密演算法的應用方面,雖然加密技術是最直接有效的隱私保護手段,但加密技術的技術成本和應用成本,結合本身就消耗大量計算資源的深度學習演算法,將大大降低演算法效能。

另外就是監管層面的落後與缺乏。技術發展的特性,使得監管層面一直是跟在技術後面跑。如何採用創新的監管方式,可以提前預警,而不是事後補救。如何構建監管層面與其他第三方科技企業合作的溝通平臺,一起評估未上線的新應用,保障新技術的合理應用,也是未來重要的研究議題。

技術雙刃劍的發展不可避免,但隱私保護與AI技術的關係可以相容並存,為爭議和缺陷而廢食,就得不償失。用智慧技術去修補AI技術的隱私漏洞,也是最能夠跟上AI發展的方式。雖然總有各種隱私怪相、么蛾子的誕生,不過魔法才能打敗魔法的AI也讓我們的顧慮與擔心有所減少。

隱私保護是一個多維、博弈的過程,我們目前探究的解決方案,也是基於存在隱私漏洞的前提。那麼有沒有根除隱私漏洞的方式存在呢?其實最好的解決方案就是,開發設計的初始階段就要有意識地避開這些觸發隱私洩露的可能方案。研發技術人員需要更多的考慮一些AI技術對於人類和社會產生的影響,從創新的初始就考慮一些避開爭議的區域。技術道德與倫理的內容在不斷地完善過程中,也需要一批批技術人員的落實與充實。

技術永遠都是中立的,不道德、不合法的侵犯隱私,最後被釘在恥辱柱上的是企業和背後的技術開發人員,未來技術與立法的完善,罰酒三杯的懲罰方式不會再有了,終究會有人在隱私與安全技術的發展中為自己的行為買單,為AI發展獻祭。

來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/31561483/viewspace-2890687/,如需轉載,請註明出處,否則將追究法律責任。

相關文章