論文閱讀:LDP-FL: Practical Private Aggregation in Federated Learning with Local Differential Privacy
論文名字 | LDP-FL: Practical Private Aggregation in Federated Learning with Local Differential Privacy |
來源 | 期刊 arXiv:2007.15789v1 預印本。審查中。 |
年份 | 2020.7 |
作者 | Lichao Sun, Jianwei Qian, Xun Chen, Philip S. Yu |
核心點 | 提出一種新型的本地差分隱私方法 |
閱讀日期 | 2020.12.2 |
影響因子 |
|
頁數 | 13 |
引用數 |
|
引用 | Sun L , Qian J , Chen X , et al. LDP-FL: Practical Private Aggregation in Federated Learning with Local Differential Privacy[J]. 2020. |
內容總結 | |
文章主要解決的問題及解決方案: 先前的聯邦學習與隱私保護不能解決的三大問題:①噪聲接近原始資料,增加資訊洩漏的風險;②估計的平均值會引入較大的方差,從而導致較差的精度;③由於深度學習模型中權重的高維數,隱私預算爆炸。
文章的主要工作: ①提出了Locally Differential Private Federated Learning (LDP-FL),一種新型的本地差分隱私方法,如圖1所示。 ②本文的主要貢獻:1)是增加噪聲的擾動資料與原始資料區別更大。2)對客戶端的權重使用分割和打亂是為了減輕由高資料維度和多次查詢迭代引起的隱私退化。3)證明了提出的方法對平均計算引入較少的方差。 ③所提演算法步驟(參考附錄演算法1虛擬碼):1)輸入:n是本地客戶端的數量,B是本地的mini-batch的大小,E是本地epochs的大小,γ是學習率;2)初始化權重W0;3)對於每次迴圈(r=1,2,…),迴圈內容:在第r次通訊中,雲伺服器隨機選取nr(nr≤n),收集客戶端所有權重W(clientsWt,nr),用id取區域性模型各權重的平均值,重新更新wr+1;4)把更新後的權重wr+1傳送給客戶端;5)對於每一個本地客戶端,用雲伺服器傳送的權重W更新本地的權重,對於每個本地epoch訓練資料並計算權重;6)給權重加上擾動;7)將權重分離並打亂;8)將打亂後的權重傳送給雲伺服器。 ④資料分離並打亂(如圖2所示):主要目的是增強資料保護,相比於傳統的機器學習,深度學習需要更多通訊和權重才能使得效能更高,而導致在傳統的聯邦學習中會傳送更多的隱私洩露。對於每個權重通過客戶端將它們匿名打亂,並將每個權重及其id傳送到雲,其中id指的是權重值在網路結構中的位置。(資料分離與打亂的演算法流程參考附錄演算法3虛擬碼) ⑤增加資料擾動部分: 資料增加擾動部分如下式所示, p*=Mp=c+reε+1eε-1 with probabilityp-ceε-1+r(eε+1)2r(eϵ+1),c-reε+1eε-1with probability-p-ceε-1+r(eε+1)2r(eϵ+1) 式中,p為模型權重w的子集,p∈w,假設p∈[c-r,c+r],c為p的中心,r為範圍半徑,c、r的取值取決於權重w的範圍,將p帶入上式,輸出的p*為兩個離散值,當p的概率大的時候,Mp取 c+reε+1eε-1的概率大,當p的概率小的時候,Mp取 c+reε+1eε-1的概率小。其中reε+1eε-1相當於增加了噪聲,這樣處理後,所有權重只有兩個取值,而我們無法根據權重推測原資料,但這會帶來另外的結果,模型訓練緩慢或者模型不收斂,故對於ε的取值要慎重。
文章內容: 實驗結果: 附錄:
|
相關文章
- Deep Learning with Differential Privacy
- 論文閱讀:Robust and Privacy-Preserving Collaborative Learning: A Comprehensive Survey
- 論文閱讀:《Learning by abstraction: The neural state machine》Mac
- 論文閱讀 Inductive Representation Learning on Temporal Graphs
- 【論文筆記】A review of applications in federated learning(綜述)筆記ViewAPP
- 論文閱讀-Causality Inspired Representation Learning for Domain GeneralizationAI
- Ensemble distillation for robust model fusion in federated learning論文筆記筆記
- 論文閱讀:Sequence to sequence learning for joint extraction of entities and relations
- 論文閱讀 TEMPORAL GRAPH NETWORKS FOR DEEP LEARNING ON DYNAMIC GRAPHS
- 【論文閱讀】CVPR2022: Learning from all vehicles
- [論文閱讀筆記] Adversarial Learning on Heterogeneous Information Networks筆記ORM
- [論文閱讀筆記] Adversarial Mutual Information Learning for Network Embedding筆記ORM
- 【論文筆記】Federated Learning for Wireless Communications: Motivation, Opportunities, and Challenges(綜述)筆記
- 【論文筆記】A Survey on Federated Learning: The Journey From Centralized to Distributed On-Site Learning and Beyond(綜述)筆記Zed
- 論文閱讀 Real-Time Streaming Graph Embedding Through Local Actions 11
- 論文閱讀《Beyond a Gaussian Denoiser: Residual Learning of Deep CNN for Image Denoising》CNN
- Beyond Fixed Grid: Learning Geometric Image Representation with a Deformable Grid——論文閱讀ORM
- 論文閱讀翻譯之Deep reinforcement learning from human preferences
- 2018-07-28-論文閱讀(1)-Learning Ensembled for Structured Prediction RulesStruct
- 論文閱讀:SiameseFC
- 論文閱讀20241117
- GeoChat論文閱讀
- 《The Design of a Practical System for Fault-Tolerant Virtual Machines》論文研讀Mac
- [論文閱讀筆記] metapath2vec: Scalable Representation Learning for Heterogeneous Networks筆記
- 論文解讀(Debiased)《Debiased Contrastive Learning》AST
- Zero-shot Learning零樣本學習 論文閱讀(三)——Semantic Autoencoder for Zero-Shot Learning
- 阿里DMR論文閱讀阿里
- [論文閱讀] Hector MappingAPP
- 論文閱讀 dyngraph2vec: Capturing Network Dynamics using Dynamic Graph Representation LearningAPT
- 差分隱私(Differential Privacy)定義及其理解
- 並行多工學習論文閱讀(五):論文閱讀總結並行
- 論文解讀(MLDG)《Learning to Generalize: Meta-Learning for Domain Generalization》AI
- 論文解讀(gCooL)《Graph Communal Contrastive Learning》GCAST
- 論文解讀(BGRL)《Bootstrapped Representation Learning on Graphs》bootAPP
- XGBoost論文閱讀及其原理
- Q-REG論文閱讀
- MapReduce 論文閱讀筆記筆記
- 「DNN for YouTube Recommendations」- 論文閱讀DNN