讀人工智慧全傳13人工智慧導致的問題2

躺柒發表於2024-07-15

1. 機器人sha手

1.1. 自主57的話題總是帶有強烈的煽動性,許多人會本能地厭惡它,認為這樣的系統是不道德的,永遠不該被建立

1.2. 自主57的討論大多源於戰爭中使用得越來越頻繁的無人機

1.3. 無人機

1.3.1. 人駕駛的飛機,在菌用領域,它可以攜帶導彈等57

1.3.2. 因為無人機不用搭載人類飛行員,所以它比傳統飛機更小巧、更輕便、造價更低

1.3.3. 無人機的飛行不會給遙控它的人帶來風險,因此它可以被用於飛往危險區域執行任務

1.3.3.1. 由於控制無人機的駕駛員沒有親身涉險,他們可能會採取一些實際在場的情況下不會採取的行為

1.3.3.2. 最重要的是,人們不會像自己親臨現場那樣認真對待行為的後果

1.3.4. 對於菌事組織來說,這自然是一個富有吸引力的選擇

1.3.4.1. 自2001年以來,米國一直在對阿富汗、巴基斯坦和葉門的菌事行動中使用菌用無人機

1.3.5. 無人機不再被遙控,意味著很大程度上,它們不再需要人類的引導或者說干預來執行任務

1.3.5.1. 作為執行任務的一部分,它們可能有權決定是否奪走人類的性命

1.3.5.2. 人工智慧驅動自主57是完全可能實現的

1.4. 擁有自主57的國家可能不太介意發動戰爭,因為他們的部隊不需要親自上前線

1.4.1. 自主57可能使得發動戰爭的決定變得更加容易,使得戰爭更加普遍化

1.5. 最常見的反對意見是,自主57是不道德的:人們不能製造能夠決定奪走人類性命的57,這是錯誤的

1.6. 羅恩·阿爾金(Ron Arkin)教授

1.6.1. 他認為自主57的出現肯定是不可避免的(總會有某個人,或者某個機構將它們最終制造出來),因此,最好的對策是思考如何設計它們,使它們的行為比普通人類兵士更合乎道德

1.6.2. 人類兵士在道德方面並沒有很好的記錄

1.6.3. 不可能出現擁有“完美道德”的人工智慧自主57,儘管如此,阿爾金教授仍然相信,我們能夠製造出比人類兵士更有道德的自主57

1.7. 讓機器人去從事卑鄙的戰爭事業,總比讓人類去打仗更好:戰爭的贏家往往是擁有更優秀機器人的一方

1.7.1. 問題就變成了如何確保我們擁有更好的機器人

1.8. 當一架B-52轟炸機在5萬英尺的高空飛行,釋放炸彈的時候,負責釋放炸彈的投彈手並不清楚他們投下的32噸的炸彈將落到何處,也不知道它會落到誰身上

1.8.1. 為什麼人們要反對能夠精準sha人的自主57,而不反對這樣隨意sha戮的常規57轟炸?

1.8.2. 答案是我們應該同時反對它們

1.8.3. 但實際上,常規轟炸確實沒有像自主57那樣引起這麼多的道德爭議

1.9. 致命的自主57既危險又不道德

1.9.1. 從純粹實際的角度來看,僅僅試圖在57開發領域禁用人工智慧技術基本上不太現實

1.9.2. 立法禁止某種特定的人工智慧技術使用,比如神經網路,那就更不現實了,因為軟體開發人員可以很輕易地在程式碼中掩飾使用的技術

2. 演算法偏見

2.1. 是指計算機程式——不僅僅是人工智慧系統,而是任意計算機程式——在其決策過程中表現出某種形式的偏見的情況

2.2. 造成兩方面的傷害問題

2.2.1. 分配傷害

2.2.1.1. 分配傷害體現在某個群體在某些資源方面被拒絕(或優待)的時候

2.2.2. 代表性傷害

2.2.2.1. 通常發生在系統產生強化刻板印象或者偏見時

2.3. 機器最重要也是單一的獲取資訊途徑是資料,偏見就是透過資料引入的

2.3.1. 機器學習程式使用資料進行訓練,如果資料本身就存在偏差,那麼程式也將學習資料中隱含的偏見,而訓練資料本身就可能存在不同程度的偏差

2.4. 構建資料集的人本身就是帶有偏見的

2.4.1. 他們會在資料集中嵌入這類偏見,可能不會太明確,也可能是無意識的

2.5. 如果機器學習程式的訓練資料不具有代表性,那麼該程式的決策將不可避免地被扭曲

2.6. 當前人工智慧系統大多采用機器學習的方式構建,機器學習的特點是“黑盒”:它無法用人類能夠理解的方式解釋或者說明它的決策

2.6.1. 訓練結果是看上去它能夠得出和人類專家相同的結果,所以人們就武斷地相信人工智慧系統不會出錯,並且毫不猶豫地信任它的決策,而不進行深入思考

2.7. 最關鍵的是,要用正確的方式獲取資料

3. 多樣性缺乏

3.1. 男性人工智慧

3.1.1. 人工智慧領域的男性主導現象仍然存在:缺乏多樣性仍然是人工智慧現階段面臨的一個棘手問題,就如科學和工程學科諸多領域一樣

3.2. 男性主導的研究領域將使潛在的女性科學家感到反感,從而扼sha了這一領域潛在的寶貴人才

3.3. 資料缺口:通常用於製造和設計的歷史資料集絕大多數是以男性為導向的

3.3.1. 大部分歷史記錄的資料都是有缺陷的

3.3.2. 古時候狩獵都是由男性來完成的,以往的歷史寫作者根本沒有給女性留下多少空間

3.3.3. 辦公室空調溫度標準是為男性設定的,讓女性在辦公室裡瑟瑟發抖

3.3.4. 女性在超市裡掙扎著想夠到按照男性身高標準設計的貨架頂層等

3.3.5. 它們不危及生命,不像一輛汽車的安全設施沒有考慮到女性的身體尺寸,不像心臟病發作的時候得不到救治和診斷

3.4. 女性每天都生活在圍繞著男性的資料構建的世界中,帶來的後果可能是致命的

3.5. 對於人工智慧而言,資料是必不可少的,但資料集裡男性偏見是普遍存在的

3.6. 偏見本來就是人工智慧中存在的問題,對女性而言,這個問題更具有特殊性

4. 假新聞

4.1. 假新聞就是將虛假的、不準確的或者誤導性的訊息當作事實,並以新聞的方式呈現

4.1.1. 在數字時代之前,世界上就存在大量的假新聞源,但是網際網路,尤其是影響巨大的社交媒體,卻成了傳播假新聞的完美渠道

4.2. 社交媒體的存在是讓人們可以方便地彼此聯絡,現代社交媒體平臺在這方面取得了驚人的成功

4.2.1. 西方的臉書和推特,還有東大的微信,都有著大量的使用者基礎

4.2.2. 所有的社交媒體平臺都依賴於你在它們上面消磨了多少時間

4.2.2.1. 這就給了平臺向你展示廣告的機會,而這也是平臺最終盈利的方式

4.3. 人工智慧是假新聞的重要組成部分,因為它對假新聞的傳播方式至關重要

4.3.1. 人工智慧在其中所起的作用是根據你的點贊、評論,以及你點選的相關閱讀連結等行為去分析你的偏好,然後尋找到你也許會喜歡的新訊息

4.4. 證實性偏見

4.4.1. 一個充滿了暴力影片和種族主義新聞的世界,他不會得到多渠道的、公正的資訊,他將深陷於自己的社交氣泡中,對自己的世界也會存在偏見,並且偏見還會因此得到加強

4.5. 從長遠來看,我們看待世界的根本角度有可能被人工智慧改變

4.5.1. 每個人都透過自己的感官(視覺、聽覺、觸覺、嗅覺和味覺)獲取關於世界的資訊,並利用這些資訊建立對現實的一致看法

4.5.2. 對世界實際情況的描述和可以被廣泛接受的看法

4.6. 擴增實境(Augmented Reality, AR)應用

4.6.1. 它們獲取真實的世界,並在其上覆蓋計算機生成的資訊或影像

4.6.2. 如果應用程式不僅僅是擴增實境,而是完全改變現實,甚至使使用者根本察覺不到這種改變

4.6.3. 從根本上改變了他認知世界的方式,從而操縱他的信仰,那會發生多麼恐怖的事情

4.7. 如果我們都居住在自己的私人世界裡,那共識現實又有什麼意義呢?

4.7.1. 你和我不再有相同的、共通的經驗來建立共識

4.8. 如果我們每個人都居住在自己特有的、由人工智慧驅動的數字世界裡,那麼建立在共同價值觀和原則之上的社會將面臨真正的危險

4.8.1. 社交媒體上的假新聞,只是一個開始

5. DeepFakes

5.1. 一款人工智慧換臉工具,可以透過換臉技術,讓圖片或者影片中出現根本沒有出現過的人

5.2. 負面影響最大的案例發生在2019年,米國眾醫院議長Nancy Pelosi的一段講話被篡改,讓人覺得她有語言障礙,或者可能受到毒品或酒精的影響

5.3. 也被用來修改澀請影片,在影片中加入實際上沒有參與的“演員”

5.4. 照片和影片將不再是對某一事件的原始可靠記錄

6. 人工智慧造假

6.1. 造假在人工智慧的邊緣領域太普遍了,這讓人工智慧研究人員非常沮喪

6.2. 人工智慧造假,主要是人們被誤導了,相信他們看到的就是真正的人工智慧,而事實上,這些幕後都只是一些把戲而已

6.3. 如果人工智慧初創公司不能讓他們的技術在關鍵的成果展示中發揮作用,他們就會在幕後使用假人工智慧來糊弄

6.4. 人工智慧造假對每個人來說都是實實在在的問題,也是對人工智慧研究界的莫大傷害

相關文章