最新英特爾的人工智慧隱私政策白皮書(中文版)

人工智慧頻道發表於2018-11-06

在人工智慧世界中保護個人的隱私和資料

最新英特爾的人工智慧隱私政策白皮書(中文版)


兩項技術趨勢

在英特爾,我們相信人工智慧(AI)在改善人們生活方面的巨大潛力。在全球範圍內推動人工智慧和數字化發展的兩個趨勢是:1.從邊緣到雲的資料分析;2.增加資料收集和建立機制。

關於人工智慧和隱私的五個基礎觀察

人工智慧代表了一個新的隱私領域,因為它需要自主決定,這可能會影響到公民。以下觀察結果決定了隱私對AI的影響:

a)增加的自動化不應轉化為更少的隱私保護;

b)可解釋性需要更多的問責制;

c)道德資料處理需要建立在隱私之上;

d)隱私保護我們是誰(別人如何看待我們以及我們如何看待自己);

e)加密和去中心化有助於解決AI中的隱私問題。

六項政策建議

  1. 新的立法和監管舉措應該是全面的、技術中立的,並且支援免費的資料:橫向立法可以包括資料使用和不屬於現有部門法律且仍然無法預見的技術。

  2. 組織應採用基於風險的問責制方法,實施技術(隱私設計)或組織措施(產品開發生命週期和道德審查委員會),以最大限度地降低AI中的隱私風險。

  3. 應加強自動決策,同時加強保護個人的保障:合法利益應被視為人工智慧資料處理的法律依據。行業和政府應該在演算法可解釋性和基於風險的人為監督程度上共同努力,以儘量減少自動決策對公民的潛在不利影響。

  4. 政府應促進資料的獲取,例如,開放政府資料,支援建立可供所有人使用的可靠資料集,促進資料共享的激勵,投資制定自願性國際標準(即演算法可解釋性)和促進資料集的多樣性。

  5. 安全方面的資金研究對於保護隱私至關重要:在同態加密等領域,可以最大限度地減少對個人資料的訪問並增強保護。

  6. 它需要資料來保護資料:檢測偏見或網路威脅並保護個人資料,AI需要處理個人資料。

I.兩項技術趨勢

由於其應用的巨大潛力,人工智慧(AI)在公眾辯論中佔據了突出地位.1我們所處的數字社會的創新令人震驚:自主技術被用於新的生命增強和可能挽救生命的用途,如作為疾病檢測、精準醫、駕駛輔助、提高生產力、工作安全和使教育更容易獲得。

由於增加的計算能力支援複雜演算法從更大的資料集中提取有意義的資訊,因此可以實現這些進步。計算能力和資料是人工智慧的推動者。資料代表了我們當代世界的結構,其數量在過去幾年呈指數增長。一些人估計每天會產生2.5個五十億位元組的新資料,更令人驚訝的是,所有可用資料的90%是在2015年之後生成的。

在這樣一個資料密集型社會中,兩種趨勢將是未來的發展:

1)邊緣到雲資料分析:上述環境的基本構建模組是資料中心和網路,為智慧家居和工廠,自動駕駛汽車和無人機等數百萬個連線的“邊緣裝置”提供服務。這些端點利用不斷增強的連線功能(例如未來的5G通訊)和計算能力來執行分析工作負載,從資料集中推斷出價值。資料處理和分析跨越基礎架構、邊緣、網路和資料中心。

2)增加資料收集和建立機制:個人資料不僅僅是從為特定用途提供資料的個人那裡收集的,而且還透過連線裝置中的感測器觀察和收集,並透過進一步的自動化處理得出或建立。事實上,直接來自個人的資料百分比與我們日益聯絡的社會中收集的資訊相比正在減少,並透過機器學習技術推斷出來與開發和採用基於人工智慧的解決方案相關的前所未有的機遇正在吸引政策制定者和監管機構關注對公民和社會的影響,以及政府和國家當局可能採取的行動。隱私和資料保護是這些影響和可能的政府行為的關鍵組成部分。人工智慧的興趣正在全球範圍內增長,許多主要經濟體已經或正在制定其國家人工智慧戰略。

最新英特爾的人工智慧隱私政策白皮書(中文版)

男性機器人的3d效果圖。

II.五個基本觀察

a.人工智慧和隱私

在很大程度上由於這兩種趨勢,越來越多的自主和無處不在的技術利用來自多個來源的大型資料集和資料來近乎實時地進行自主確定。在某些情況下(即銀行業,人力資源,交通運輸),這些決定可能會影響個人,他們的私生活,他們的身體安全,他們在社會中的地位以及他們與他人的互動。政府必須分析這種自動化決策對隱私的影響。

由於自主決定(例如歧視和限制選擇和可能性)而對個人造成的潛在傷害將產生一些獨特的情況,公共和私人組織在制定其隱私政策和戰略時必須處理這些情況。下面我們將介紹一些觀察結果,這些觀察結果可以為我們的人工智慧和隱私方面的工作。增加自動化不應轉化為更少的隱私保護。

經合組織公平資訊實踐原則(FIPPs)激發了過去四十年來隱私和資料保護領域的立法.英特爾呼籲政策制定者和行業“重新思考隱私”現在比以往任何時候都更有效,因為壓力越來越大這些原則(“資料保護的全球通用語言”)所適用的原則。 FIPP已經設法適應技術變化,仍然提供有價值的指導,因為它們反映了個人與個人資料的關係以及組織保護資料的責任的長期,廣泛接受的價值觀。在英特爾,我們認為應將FIPP視為一個槓桿系統,以便在特定資料應用的背景下提供最佳保護.當某些FIPP不太有用時,例如目的規格和收集限制,其他FIPP可能需要更多投資。關於人工智慧,應該把重點放在安全保障和問責制的FIPP上。

b.可解釋性需要更多的責任

自動化的決定將對人們的生活和自我決定的可能性產生影響。深度學習技術(今天廣泛用於計算機視覺、自然語言處理或面部識別等應用)使用大型資料集來迭代訓練多層神經網路- 一個受人類大腦啟發的過程。這些任務的複雜性和抽象性導致了驅動演算法結果的因素難以理解並因此解釋的情況。透明度原則將受到挑戰,因為參與決策的邏輯將難以辨別。雖然一些學者假設歐盟GDPR中隱含存在“解釋權”,但實施人工智慧解決方案的組織應該能夠證明他們擁有適當的流程、政策和資源,以最大限度地降低隱私風險和對個人的不利影響。

負責任的風險管理實踐要求組織自己負責制定適當的技術和組織措施,以解決客戶、業務合作伙伴和社會的隱私和資料保護問題。問責制始於組織承諾建立實施隱私的工具和培訓,促進內部監督和外部驗證的系統,並確保補救和執行的手段。隱私設計方法,在整個過程中嵌入隱私影響評估設計和生產過程,是問責制的一個很好的例子,應該適用於整個AI生態系統。

c.道德資料處理建立在隱私之上

英特爾長期以來一直在推動創新和道德資料的使用,以實現其對個人生活的積極影響。數字社會的不斷髮展恰逢一系列社會文化轉變,例如從人類自治到人與機器的融合。同樣,尊嚴、自由、民主、平等、自治和正義等傳統價值觀是圍繞數字倫理的討論的一部分。今天的隱私和資料保護代表了我們現代社會的內在和基本概念,使個人能夠自由選擇和使用控制。保護個人及其資料超出了法律合規要求:它意味著接受社會價值觀並努力建立對技術及其對人的積極影響的信任。

d.隱私正在保護我們自己

隱私要求資料既可靠又不會用於傷害個人。隱私旨在防止未經授權的訪問、修改和丟失個人資料。它需要尊重私人和家庭生活、家庭和通訊的保密性。人工智慧技術及其建立影像、影片和聲音等資料的潛力正在使辯論遠離識別或未經授權處理個人身份資訊的純粹風險。人工智慧正以兩種特定方式增加個人風險,影響他人如何看待我們,以及我們如何看待自己。

別人如何看待我們:人工智慧可以操縱個人及其現實,創造虛假資訊,例如對人的虛假身體或心理預測。保護個人資料的真實性要求公民有權控制其姓名、形象或身份(人格權)的使用。AI可以增加建立關於個人的虛假資訊的能力,這些資訊越來越可被他人認可,並且可能影響人們的感知和對待方式。出於這些原因,保持人格的真實性代表了我們社會的關鍵隱私優先事項。

我們如何看待自己:人工智慧技術以前所未有的深度,提高了對人們進行精確的評估並從中獲得有意義的見解的能力。組織最終可能比人們自己更瞭解或預測個人的行為。一些惡意的組織和政府可以利用這種能力,針對公民並改變他們對現實的看法。這可能導致“可程式設計公民”情景,其中不恰當地使用人工智慧可以影響個人的選擇(例如,透過虛假新聞進行選舉)或修改他們認同的群體(例如,用於控制和監視目的)非民主政權)。

e.更強的加密和去中心化有助於解決隱私問題

數十年來,資料的保密性、完整性和準確性一直是網路安全實踐的關鍵目標,並已在所有隱私法律框架中進行了考慮。隨著在人工智慧空間中收集、處理和推斷的資料量不斷增加,強大的加密和識別(完全匿名化)技術可以保護個人隱私,同時實現更高階別的安全性。實現識別將越來越需要複雜的實踐,因為在深度學習驅動的環境中,重新識別將越來越有可能。過去幾年中出現了一些隱私技術作為可行的解決方案,以最大限度地降低隱私風險,增加“噪音”來擾亂個人資料。在學術界和研究界,同態加密似乎特別有前景,因為它允許對加密資料進行計算,因此能夠實現人工智慧任務,無需傳輸個人資訊。

最新英特爾的人工智慧隱私政策白皮書(中文版)

機器人學習或解決問題

III.六項政策建議

本文旨在為英特爾與政策制定者和監管機構的持續合作提供資訊,幫助他們找到解決隱私問題的有效解決方案。英特爾致力於開發“邊緣到雲”的硬體和軟體解決方案,使人工智慧能夠實現改善人們生活的潛力。與此同時,英特爾致力於讓公民從這些創新資料用途中受益,同時相信他們的資料是以道德,受保護和隱私保護的方式處理的。

1.新的立法和監管舉措應該是全面的,技術中立的,並且應該能夠免費提供資料。

為了應對數字社會的複雜性並跟上技術進步的步伐,隱私立法應該是全面的,以避免法律漏洞,並涵蓋目前不屬於現有部門法或仍未預見到的資料使用和技術。專門針對AI的隱私法可能無法確保足夠的靈活性來透過時間的考驗。相反,全面的橫向立法應該基於FIPPs,並提供靈活性,以便在其他人不能充分保護個人隱私時增加某些FIPP的保護。目的規格,收集限制和開放性等FIPP將受到自主技術的挑戰;因此,任何擬議的法律都應側重於允許安全保障,個人參與和增加組織問責制的有效解決方案。FIPPs的歷史- 它激發了世界各地的隱私立法- 表明了長期原則已經存在並且可以根據技術進步使用和重新解釋,以制定技術中立法律。

此外,處理資料並跨越國界移動資料的能力對於開發新技術至關重要。數字資料的全球價值在過去十年中呈指數增長,佔全球GDP的數萬億美元。因此,立法舉措應在適當的保障措施下促進無阻礙的跨境資料流動。

對於個人,與此同時,我們承認政府可能有許多合理的理由要求在其國家記憶體儲資料副本。在這些情況下,不會阻止政策制定者支援受保護的資料自由並限制資料本地化要求。

2.組織應採用基於風險的問責制方法

問責制可以被描述為負責組織證明已採取適當措施以最大限度地降低隱私和安全風險的能力。應根據每個業務的需求以及與執行的資料處理相關的特定風險來定製這些技術或組織措施。因此,監管機構可以將問責措施視為法律合規的證據,或者至少是資料洩露情況下的緩解因素。

從技術角度來看,將隱私嵌入到AI解決方案(隱私設計)的開發中是可能的。例如,匿名影片分析軟體可以提取資訊,將其儲存為日誌檔案並丟棄影像。面部或車牌的影像模糊可以最大限度地降低將識別者與個人聯絡起來的風險。制定自願國際標準以指導共同的隱私設計方法可以實現跨多個司法管轄區的一致性。此外,識別和加密實踐已經證明在解決隱私和安全問題方面是有效的,因為它們仍然可以實現計算任務,而不會將資料暴露給未經授權的訪問、修改、丟失或刪除。這些做法在醫療保健部門至關重要,醫療資訊代表敏感資料,如果誤用,可能會傷害患者或使他們受到歧視。

負責任的公司已經開發了產品開發生命週期,其中包括影響評估和平衡測試,以測量基於人工智慧的技術的隱私和安全風險。這些評估是負責任的組織可以透過設計實現隱私的手段。整個製作過程從設計到市場釋出的過程,工程師和分析師在每個步驟評估對終端使用者可能產生的意外後果,並建議其他功能或替代組織解決方案以最大限度地降低這些風險。例如,研究人員可能會調整他們的資料管理實踐,直到他們瞭解這些資料的特定用途的含義;他們可能會在將資訊傳遞給其他資料科學家之前對其進行細分或刪除;他們可以將資料儲存在幾個高度安全的位置,訪問僅限於一小組使用者。

負責任的組織還需要有關這些設計流程的治理結構。隱私意識和道德使用資料已成為組織高階管理層的優先事項。在組織建立的道德委員會或道德審查委員會中,越來越多地討論未來的技術方案,以解決對建立和加強公民信任至關重要的產品所固有的道德問題。

英特爾已經採取了所有上述措施的重要步驟,並且認為全面的行業應採用類似的方法。

3.應加強自動決策,同時加強保護個人的保障措施

幾十年來,“通知和同意”模型試圖提供個人參與的FIPP。它是一種有價值的工具,可以賦予公民權力並使他們能夠控制資料,但由於個人需要承擔巨大的負擔才能充分了解與他們相關的資訊是如何被收集、處理和使用的。不斷變化的技術環境表明,在許多資料收集和建立環境中使用通知和同意將越來越困難,因此其他法律依據應被視為合法的處理依據。處理個人資料(控制器或處理器)的實體的合法利益應與個人(資料主體)的合法期望相平衡。很好地確定了合法利益,如個人或網路的物理安全和資訊保安應在適當情況下補充同意。當無法獲得真正的明確同意時,合法利益可以作為資料處理的有效法律基礎。它不代表處理資料的空白授權,但它與提供給個人的其他實質性權利(訪問,更正,刪除,可移植性)和組織義務(如安全保障和問責制方法)協同工作(如下所述)款)

自動決策不應該被先驗地限制,因為這種方法可能會影響創新並可能阻止公民改善人工智慧應用程式。例如,對歐盟GDPR第22條的限制性解釋(禁止僅基於自動決策的確定)可能會對自動駕駛等自主技術的基本功能和未來發展產生負面影響。在這個例子中,諸如同意或合同之類的法律基礎例外可能不涵蓋涉及乘客,其他司機和/或行人的所有情況。

不同程度的人類參與(人類監督)可以根據不同的自主功能進行調整。應該設計,構建和部署AI系統,以便為那些為決策影響的個人提供更高風險的AI應用程式控制和判斷人類。我們認為,基於風險的人為監督程度可以代表一種實用的解決方案,允許創新使用人工智慧,並確保在必要時控制自主決策。基於人工智慧的工業質量控制機制在挑出有缺陷的產品時可能不值得人為監督。相反,如果演算法排除了工作選擇程式中的候選人或患者的治療資格,那麼個人和公共利益的期望在某種程度上會使人參與或監督決策。有問責的組織將主動尋求解決方案,以確保根據個人的潛在風險實現適當程度的人為干預。

4.政府應促進獲取資料

訪問大型可靠的資料集對於AI的開發和部署至關重要。改善可靠資料的獲取將有利於提高設計的競爭力和創新性,從而更好地實現公共政策優先事項,並提高公民可獲得的產品和服務的質量和數量。政府的舉措旨在改善目前的情況:

a)在結構化和可訪問的資料庫中提供公共資訊來源(政府公開資料)。

b)積極支援建立可靠的資料集(包括個人的個人資訊),這些資料集可由所有AI開發人員、初創企業以及更廣泛的行業用於測試自動化解決方案並對其演算法質量進行基準測試。

c)促進公共和私營部門之間以及行業參與者之間資料共享的激勵措施。與網路安全空間中針對威脅資訊所做的類似,適當共享和受保護的資料將提高意識並改善整個自動化環境的隱私。一個很好的例子可能是政府資助建立API(應用程式程式設計介面)以允許動態訪問資料。

d)促進建立國際自願標準,以便更容易地分享資訊,同時注意哪些資料欄位可以包含個人資訊(以便可以對隱私問題進行審查);為負責任的資料共享方法提供指導;並且針對不同的AI實現的de ne演算法可解釋性。

e)促進資料集的多樣性。演算法設計中可能存在的偏差會影響使用者對技術的不信任。更大的多樣性將降低意外偏見的風險。在用於醫學的AI中,重要的是將來自少數民族的資料包括在訓練資料中,因此結果更準確並且不排除對社會的某些部分進行適當的醫療。研究組織在國際上傳輸資料的能力增強了這一機會,政府應該鼓勵跨境資料流。

5.資金安全研究對於保護隱私至關重要

人工智慧在過去幾年中的進步速度前所未有。但是,仍需要做更多的工作來提高資料中心和邊緣裝置的計算能力、能源效率和連線性。在同態加密等領域需要進行更多的研究,這將允許從加密資料中提取有意義的資訊,而無需披露個人資訊,因此,將保護個人的隱私。

6. 需要資料來保護資料

人工智慧的巨大潛力還包括部署分析以支援和服務公共政策優先事項(如隱私,資料保護和網路安全)的可能性。事實上,演算法可以幫助檢測意外的歧視和偏見,身份盜竊風險或網路威脅。人工智慧為組織提供了預防和管理風險的能力,包括大規模隱私洩露的威脅。透過這種方式,使用這些資料(其中一些將是個人資料)實際上對隱私產生了積極的積極影響。

IV.結論

如果人工智慧的好處及其眾多應用看起來是無可爭議的,那麼實際上需要進一步辯論,以解決與使用人工智慧有關的個人潛在的無意識的社會後果和風險。 本文概述了人工智慧的某些獨特特徵如何導致特定的隱私風險。承認這些擔憂,我們相信本文所述的基礎觀察將有助於實現人工智慧的全部潛力。這六項政策建議清單旨在與政策制定者、監管機構和志同道合的組織展開富有成效的討論,這些組織正在探索資料保護和隱私挑戰的公共政策解決方案。歡迎有機會進一步討論這些問題,並收到有關我們提案的反饋意見。英特爾隨時準備與所有感興趣的利益相關方密切合作,共同開發人工智慧創新和隱私的可行途徑。

原版白皮書:https://blogs.intel.com/policy/files/2018/10/Intels-AI-Privacy-Policy-White-Paper-2018.pdf


來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/31545819/viewspace-2218846/,如需轉載,請註明出處,否則將追究法律責任。

相關文章