讀所羅門的密碼筆記15_資料透明度

躺柒發表於2024-04-10

1. 資料透明度與控制權

1.1. 作為人類,我們會帶有偏見,而且往往不知道自己在智力和情感上的盲區

1.2. 精心製作的人工智慧機器,即使有自己的缺點,也能幫助我們做出更客觀的決定,為提升我們的生活質量和改善社群的生態環境做出貢獻

1.3. 美國的人工智慧專家已經在研究能夠幫助人們避免食物短缺和饑荒的系統,方法是將天氣、土壤、基礎設施和市場等各種因素的變化整合到複雜的模型中,以緩解短缺問題

1.4. 即如何應對限制個人發揮最大潛能的工作壓力

1.5. 該公司利用人工智慧對員工進行情緒分析,並透過Fitbit、蘋果手錶或類似的可穿戴裝置測量員工的某些生命體徵

1.6. 認知計算可以增加或減少我們選擇的自由,但後者的風險隨著人們對個人資料的大規模蒐集和操作而不斷增加

1.6.1. 人類和機器之間相互瞭解的平衡有可能會被打破

1.6.2. 人工智慧可能會增強人類的能力,但如果個人和控制我們資料的實體之間沒有基本的平等意識,它也可能限制我們發揮最大的潛能,因為我們犧牲了自己的自主決定權

1.6.3. 用機器判斷取代人類判斷可能會拓寬或縮小我們的視野,也可能會增加或減少我們的社會和經濟選擇

1.7. 推動意識的平等有助於揭示人工智慧系統的有益用途和操縱性用途之間的許多難以定義的臨界點

1.7.1. 允許每個人訪問從自己身上搜集到的資訊,並允許他們將其刪除,或將其轉移至新工作崗位或新的醫療服務提供商那裡

1.8. 要識別和監控利弊之間的界限,將需要更高的透明度和針對新演算法、資料集以及平臺的公眾監督

1.8.1. 我們幾乎無法一致地確定長期課程和實體教科書是教育還是洗腦,更不用說對人工智慧系統為學習提供更微妙的助推作用的領域進行判斷了

1.8.2. Erudite將探索一種向上累加的評分方式,就像玩電子遊戲一樣

1.8.2.1. 學生們從某個基本分開始,隨著他們不斷獲取知識,分數會慢慢往上漲

1.8.3. 重新設定目標和以獎代懲將有助於增加人們對智慧機器的信任,直到達成完全透明和可解釋的效果

1.8.4. 人工智慧技術的不斷髮展將提高我們分析演算法和資料集的能力

1.9. 只有公眾監督才能實現從更廣泛的社會視角來確保這些演算法和資料集的質量

1.9.1. 如果我們繼續努力,建立能夠稽核人工智慧系統、平衡企業利益和社群價值的機構,那麼人類就能避免被這些智慧大腦操縱

2. 認知計算的力量

2.1. 一些公司在蒐集、分析並銷售海量的個人資料

2.2. 大公司能夠編譯的意識深度與他們實際編譯的程度不同,這可能有助於意味著機器比我們自己更瞭解我們的身心狀況我們減輕一些焦慮

2.2.1. 人們對公司蒐集的主要資料擁有控制權,但這些公司似乎仍然可以控制它們從這些資料中得出的見解

2.2.2. 一些情感內斂的人可能會反對其中的許多標籤,特別是當它基於資料流只捕獲了他們身份的一個側面時(而且通常是偽造出來的)

2.2.3. 有時候,這種不加修飾的反饋提供了有價值的見解,但經驗豐富的教練和心理學家表示,只有在人們以恰當的方式進行表達時,這些反饋才是有效的

2.2.4. 很多人情商不高、不具備同理心、無法察覺他人的情緒,但是我們對此心知肚明,並且如果沒有情感虐待、蓄意傷害或誹謗的跡象,我們在人際交往中能夠接受相當高程度的不確定性

2.2.5. 意味著機器比我們自己更瞭解我們的身心狀況

2.2.6. 這臺機器正在不斷地對你和與你有聯絡的人進行分析,但它從來沒有把它的觀點傳送給你或他們

2.2.7. 你從歐洲來到美國,你的人工智慧助手可能受到歐盟更嚴格的隱私保護條例的約束,限制你接收深度分析,讓你對喬治和他的動機瞭解甚少

2.3. 認知就是力量,一系列個人和社會因素都會影響我們如何平衡這種力量

2.3.1. 不同的監管機制、參與數字經濟的意願以及購買更好的產品的能力,都將影響認知能力的不平等分配

2.3.2. 知識的力量被不斷重新協商、測試、打破、驗證和重置

3. 信任來自真相和透明

3.1. 人類的價值和信任都依賴於人與人之間的某種理解,這種理解需要某種最低限度的信任

3.2. 儘管歐洲的監管環境可能使得該地區不會產生本土的數字巨頭,但它已開始將一個擁有5億人口的單一數字市場統一起來,並制訂了可能孕育“數字公地巨頭”的計劃

3.2.1. 歐盟的最新目標是建立一個大型、公開、開放的資料集,用於訓練人工智慧系統

3.2.2. 它將為大量新模型和應用程式提供資源,其中包括許多我們甚至尚未想象到的專案

3.2.3. 即使是最精通人工智慧的公司,也擁有許多不知道如何處理的資料,其中許多資料與它們的業務模式無關

3.2.4. 我們可以測量輸出,衡量它們如何隨不同的輸入而變化,這本質上是對最終結果的完整性的更好解釋

3.2.4.1. 這些系統的影響往往在事後才能被衡量,尤其是當它們影響我們的健康、指導政府資源的分配,或與社會文化價值觀發生衝突時

3.2.4.2. 我們的人工智慧助手會在我們第一次約會時捕捉到一些難以察覺的線索和資料,並將其識別為不可避免的不理想的配對

3.2.5. 如果沒有一個對機器質疑某個配對關係的清晰解釋,那麼人們如何信任它的決定呢?

3.2.6. 如果該公司的人工智慧平臺開始識別人們的弱點,並認為這些人都風險太大,無法與任何人匹配,那該怎麼辦?

3.3. 我們需要維持類似的信任度和共同的價值觀,並保持人機力量的適當平衡

3.4. 隨著人工智慧的日益普及,我們將對透明度和開發人員口中的“可解釋性”提出更高的要求

3.5. 它的“一刀切”做法引起了一些人的不滿,因為許多應用程式並不需要完美的解釋

3.6. 社會有時會傾向於接受不那麼完美的解釋

3.7. 事實上我們無法確定其背後精確的推演過程

3.8. 生活中沒有什麼是確定的

3.8.1. 即使是機器學習和神經網路,也只是根據過去的模式推斷出機率,而不是完美地進行預測

3.8.2. 當我們的情感和身體健康面臨較大的風險時,我們就會提高對不瞭解的事物的信任門檻

3.8.3. 如果人工智慧系統還不能很好地解釋它所做的決定,以培養更深層次的信任,那麼人們自然會偏向謹慎,並限制人工智慧所能帶來的好處

3.8.4. 隨著時間的推移,我們會嘗試著向可解釋性靠攏,在應用程式缺乏確定性的情況下感受我們的舒適程度

4. 人工智慧與社會兩極分化

4.1. 由於智慧機器依賴於不斷獲取新的資料,它們可能會擴大聯網地區和未聯網地區之間的數字鴻溝

4.2. 能夠負擔得起更高階的訪問許可權或更深層次的互動的人將繼續利用自身的優勢,因為他們產生的數字足跡具有經濟價值,他們可以利用這些資料來換取更多的訪問許可權

4.3. 即使是在人民富足、資料豐富的地方,人工智慧也可能使社會兩極分化,它可能會讓觀點相似的人聚在一起,強化他們的信仰和價值觀,並限制那些迫使我們深入思考這些原則的互動和摩擦,這就是我們在美國社會所看到的

4.4. 人工智慧系統可以促進數字社會工程,建立平行的微觀社會,賦予企業更多樣的能力,讓企業可以瞄準特定人群的求職者,並把其他人排除在外

4.5. 封建象徵也適用於工作場所

4.5.1. 推動這些關係的公司往往擁有成本更低、靈活性更高的員工隊伍

4.6. 資料地主們常常看起來很像《綠野仙蹤》裡的奧茲國巫師,他們之所以神通廣大,很大程度上是因為他們可以像“幕後大佬”一般控制操縱桿,按下按鈕

4.7. 視覺識別的雲服務一直用人工來識別出機器標籤有誤的影像和影片,有時公司甚至會在海外僱用數千名員工

4.7.1. 機器只會對影像進行建議解釋或標註潛在的異常區域,最終的診斷需要由人類放射科醫生完成

4.7.2. 真實的擬人互動是可以實現的,但只能以狹義的形式存在

4.7.3. 人工介入在未來的幾十年裡仍然是必不可少的,尤其是在涉及倫理和道德決策時

4.7.4. 未來軍方可以依靠機器做出包括使用致命武器在內的自動決策,尤其是在時間緊迫的防禦場景中

4.7.4.1. 美國國防部已經在虛擬現實和其他模擬戰鬥系統上投入了大量資金來訓練它們,但大多數人認為,這些系統還是需要人工介入,人工智慧將“經受大量的訓練,在未來為我們創造這些決策樹

4.7.5. 任務驅動的機器犯致命錯誤和人犯同樣錯誤之間存在著巨大的區別

4.7.5.1. 當人做決定時,我們允許他犯錯,畢竟人無完人,但我們希望機器一直完美運作

4.7.5.2. 軍事領導人不能對機器進行軍事審判,尤其是一臺它自己也無法解釋系統如何做出決定的機器

4.7.5.3. 跨學科的方法,將人與機器一同放在模擬的虛擬現實場景中,讓機器在人類做出決策和執行動作的過程中向其學習

4.7.5.4. 對機器人和智慧體來說,它們的優勢是能夠利用人類可能無法立即訪問的大型資料庫的資訊

4.7.5.5. 一位人類安保人員無法在高度緊張的高壓環境下迅速而準確無誤地完成任務

4.7.5.6. 機器人和智慧體可以快速利用大資料來解決人類無法解決的問題,但智慧體並不具備任何人類的道德感

4.7.5.7. 機器無法理解規範準則在不同場景下的變化,更不用說理解不同的文化了

4.8. 目標包含儘可能廣泛的人類輸入

4.8.1. 不得不把我們許多灰色地帶的道德辯論變成非黑即白的程式碼

4.8.2. 晶片的處理能力,將廣告匹配給合適的受眾,或者為某人找到一位情投意合的浪漫伴侶的工具了

4.8.3. 程式碼對決策的影響遠沒有那麼明顯,它的利弊權衡更加模稜兩可,相關決策包括我們的投票偏好,是否要讓車輛為了避讓小狗而偏離道路,或者教室裡的訪客是否對孩子構成了威脅

相關文章