人工智慧和隱私熱議 瞭解AI透明性的利弊

AIBigbull2050發表於2020-07-24

隨著AI在更多行業中被越來越多地採用,其使用者試圖在有效保護其實用性的同時實現保護使用者隱私的微妙平衡。AI的常見優秀實踐是對AI的使用以及如何達到特定結果保持透明。但是,這種透明度有好有壞的一面。這是您應該瞭解的AI透明性的利弊,以及實現這一困難平衡的可能解決方案。

好處

人工智慧可提高效率,利用創新並簡化流程。透明地瞭解其工作原理和計算結果的方式可以帶來一些社會和商業優勢,包括:

司法公正

在過去的幾年中,人工智慧的使用數量持續增長。人工智慧甚至已經擴充套件到司法系統中,從做交通票到考慮比陪審團更公平,人工智慧都可以做。

當公司對使用AI透明時,它們可以增加使用者訴諸司法的機會。人們可以看到AI如何收集關鍵資訊並達到特定結果。與不使用AI的情況相比,他們可以獲得的技術和資訊更多。

避免歧視

AI的原始缺點之一是當AI被用來檢測模式並根據其收集的資料對使用者做出假設時,可能會產生歧視性結果。

然而,人工智慧今天變得更加複雜,甚至被用來檢測歧視。AI可以確保包括所有使用者的資訊或聽到他們的聲音。在這方面,人工智慧可以成為一個很好的均衡器。

灌輸的信任

當AI使用者預先了解他們對AI的使用並向其客戶群說明這種用法時,他們更有可能灌輸信任感。人們需要知道公司如何達到特定的結果,而透明可以幫助彌合企業與其客戶之間的鴻溝。

客戶願意擁抱AI。在Salesforce的“關聯消費者狀況”中接受調查的消費者中,有62%的人表示他們對AI持開放態度,以改善他們的體驗,並且企業願意滿足這一需求。

埃森哲(Accenture)最近的一項調查顯示,有72%的高管表示,他們希望透過透明地使用AI來獲得客戶對產品或服務的信任和信心。能夠透明地使用AI以及為保護使用者資料而採取的安全措施的公司可能會從這種提高的透明度中受益。

更明智的決策

當人們知道自己正在與AI系統進行互動而不是被騙去認為它是人類時,他們通常可以適應自己的行為以獲取所需的資訊。

例如,人們可能在聊天框中使用關鍵字而不是完整的句子。使用者可能會對這些系統的優點和侷限性有更好的瞭解,並做出有意識的決定與AI系統進行互動。

缺點

儘管透明度可以帶來上述一些積極成果,但它也有一些缺點,包括以下方面:

缺少隱私

反對AI及其透明性的一個重要論據是可能缺乏隱私。AI通常會收集大資料,並使用獨特的演算法為該資料分配一個值。但是,為了獲得結果,人工智慧通常會跟蹤每項線上活動(您可以免費獲得背景調查),人工智慧會跟蹤,搜尋和使用企業網站。其中一些資訊也可能出售給第三方。

此外,人工智慧通常用於跟蹤人們的線上行為,從中人們可以辨別有關一個人的關鍵資訊,包括他或她:

  • 種族
  • 政治信仰
  • 宗教信仰
  • 性別
  • 性傾向
  • 健康狀況

即使人們選擇不向任何人線上提供此敏感資訊,由於AI功能,他們仍然可能會遭受資訊的丟失。此外,AI可能會跟蹤公開可用的資訊。但是,當沒有人檢查此資訊的準確性時,一個人的資訊可能會與另一個人的資訊混淆。

破解說明

當公司釋出其對AI的解釋時,駭客可能會使用此資訊來操縱系統。例如,駭客可能能夠對程式碼或輸入進行微小的更改以實現不準確的結果。

這樣,駭客就可以利用公司自身的透明度來抵制它。

當駭客瞭解AI背後的原因時,他們可能會影響演算法。通常不鼓勵使用這種技術來檢測欺詐。因此,當利益相關者未採取其他措施時,該系統可能更易於操作。

智慧財產權盜竊

當一家公司對AI的使用透明時,可能會出現的另一個潛在問題是這些駭客竊取了其專有商業秘密或智慧財產權的可能性。這些人可能能夠檢視公司的解釋並重新建立專有演算法,從而損害業務。

容易受到攻擊

網上有如此多的可用資訊,有7800萬美國人說他們擔心網路安全。當公司闡明如何使用AI時,這可能使駭客更容易訪問消費者的資訊或造成可能導致身份盜用的資料洩露,例如臭名昭著的Equifax資料洩露,使1.48億美國人的私人記錄受損。

監管的敏感性

有關AI的披露可能會帶來其他風險,例如更嚴格的監管。當AI令人困惑且難以使用時,監管機構可能不理解或無法對其進行監管。但是,當企業對AI的角色透明時,這可能會帶來關於AI及其使用方式的更重要的監管框架。以這種方式,創新者可能因其創新而受到懲罰。

訴訟目標更容易

當企業清楚其如何保護消費者的資料以實現透明性為目的時,它們可能會不知不覺地使自己更容易受到聲稱其資訊使用不當的消費者的法律主張的影響。聰明的律師可以仔細審查AI透明性資訊,然後開發有關業務對AI的使用的創新法律理論。

例如,他們可能專注於企業沒有采取哪些措施來保護消費者的隱私。然後,他們可能會使用此資訊來聲稱該企業的行為或疏忽大意。此外,許多AI系統都以更簡單的模型執行。對其演算法透明的公司可能會使用不太複雜的演算法,這些演算法可能會忽略某些資訊或在某些情況下導致錯誤。經驗豐富的律師可能能夠確定AI導致的其他問題,以證實其對企業的法律主張。

關於AI和隱私的真相

任何看過《終結者》電影(或者基本上是世界末日電影)的人都知道,即使僅出於最崇高的理由而開發的技術也有可能被武器化或用作最終損害社會的東西。

由於存在潛在的危害,已經透過了許多法律,要求某些公司在使用AI方面保持透明。例如,金融服務公司必須披露他們在確定一個人的信譽時使用的主要因素,以及為什麼他們在貸款決定中採取不利行動。

立法者正在積極提出並考慮其他法律。

如果獲得透過,這些法律可能會確立企業必須遵守的有關其如何收集資訊,如何使用AI以及是否首先需要徵得消費者同意的新義務。2019年,一項行政命令簽署成為法律,指示聯邦機構將資源投入到AI的開發和維護中,並呼籲制定準則和標準,以允許聯邦機構以保護隱私和國家安全的方式監管AI技術。

即使尚未要求企業對AI的使用保持透明,也可能很快就沒有選擇的機會了。為了應對這種可能的結果,一些企業正在積極建立內部審查委員會,以測試AI並確定圍繞AI的道德問題。

他們還可以與法律部門和開發人員合作,為他們發現的問題建立解決方案。透過仔細評估其潛在風險並在強制披露之前確定問題的解決方案,企業可能會更好地規避與AI透明度相關的風險。

【編輯推薦】





來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/69946223/viewspace-2706687/,如需轉載,請註明出處,否則將追究法律責任。

相關文章