英特爾開源版HE-Transformer,對於隱私資料AI終於上手了!

人工智慧頻道發表於2018-12-05

正如所有資料科學家暢言的那樣,資料集是人工智慧的生命線,這對所有處理個人身份資訊(如醫療保健)的行業構成了固有的挑戰,但令人欣喜的是,對於模擬訓練的匿名加密方法已經取得了令人鼓舞的進展。

12 月3日在加拿大蒙特利爾召開的NeurIPS 2018會議上 ,英特爾宣佈推出開源版 HE-Transformer ,這是一種允許AI系統對敏感資料進行操作的工具。開源版 HE-Transformer 基於簡單加密演算法庫( SEAL ),是英特爾神經網路編譯器nGraph的同態加密(HE)後端,HE允許對加密資料進行計算。

微軟研究院本週也在開源軟體中釋出過。兩家公司將 HE-Transformer 描述為“隱私保護”機器學習的典範。

“它允許對加密資料進行計算。當應用於機器學習時,它能夠讓資料所有者獲得價值資訊的同時不暴露基礎資料。並且,該工具可以使AI模型所有者通過以加密形式部署來保護他們的模型 。” 英特爾研究科學家Fabian Boemer和英特爾研究高階主管Casimir Wierzynski在一篇部落格文章中寫道。

HE-Transformer 中的“HE”是同態加密的縮寫,是一種加密形式,可以基於密文(被演算法加密的明文或檔案內容)上進行計算 ,生成一個加密結果 。並且在解密時,與未加密文字上執行的操作結果完全匹配。

HE 是一項較新的技術 ,IBM研究員Craig Gentry在2009年開發了第一個HE方案。正如Boemer和Wierzynski認為的那樣,設計一款AI模型不僅需要機器學習,還需要加密和軟體工程方面的專業知識。

HE-Transformer 通過提供一個抽象層來支援開發過程,該抽象層可以應用於開源框架(如谷歌的TensorFlow、Facebook的PyTorch和MXNet)上的神經網路。它不需要手工將模型整合到密碼庫中。

HE-Transformer 結合了Cheon-Kim-Kim-Song(CKKS)加密方案以及加法和乘法運算,例如加法,廣播,常數,卷積,點,乘,否定,填充,整形,結果,切片和減法。此外,它還支援HE特定技術,如明文值旁路,SIMD打包,OpenMP並行化和明文操作。

英特爾聲稱,E-Transformer使用在TensorFlow中訓練的浮點模型,在可用於加密資料的神經網路上提供最先進的效能。

微軟研究院首席研究員兼密碼學研究經理  Kristin Lauter表示:“我們很高興與英特爾合作,為更多的資料科學家和隱私保護機器學習系統開發人員帶來同態加密。”

目前,HE-Transformer直接與TensorFlow的nGraph編譯器 和執行時整合,對PyTorch 的支援也即將推出。對於那些能夠將神經網路匯出到ONXX的深度學習框架,例如PyTorch,CNTK和MXNet,可以通過將模型匯入ONXX中的nGraph並以序列化格式匯出它們來使用這些框架。

Boemer 和Wierzynski表示,未來版本的HE-Transformer將支援更多種類的神經網路模型。

他們寫道:“基於最新的進展成果,HE已經成為了一種有價值的深度學習工具。” “研究人員可以利用TensorFlow快速開發新的HE深度學習拓撲。”

來自 “ https://venturebeat.com/2018/12/03/intel-open-sour ”,原文連結:http://blog.itpub.net/31545819/viewspace-2284258/,如需轉載,請註明出處,否則將追究法律責任。

相關文章