讀所羅門的密碼筆記07_共生思想(中)
躺柒發表於2024-04-02
1. 在人工智慧系統中建立信任
1.1. 人類的大腦容易被個人傾向、干擾因素和確認偏誤所影響
1.2. 古萊說,然而,從不同的角度去思考事實、花更長時間來做決策的能力,可能會讓人類擁有“密探”一般的智慧
1.3. 我們可以對決策進行批判性思考,考慮更多社會需求、多重利益相關者和各領域發展的大背景,而不僅僅侷限於經濟和金融領域的思考
1.4. 構建一個共生智慧的環境需要人們有能力辨別不同智慧中的好壞,這樣我們才可以整合各方,形成更好的夥伴關係
1.4.1. 這需要人們對人工智慧的潛力懷有高度信任,並願意接受用這些人工智慧增強人類的能力,這也是過去只有在科幻小說中才會出現的情節
1.5. 除非在程式中特別設計,機器演算法一般不會對併購活動的社會後果,以及它給社會帶來的潛在外部效應等進行評估
1.5.1. 把同理心視為實現目標的一個風險,因為它會減緩關鍵決策的速度,讓情況更加複雜
1.6. 我們的智力中有一種同理心,會讓我們在道德層面廣泛考慮各種因素
1.7. 約翰·尼爾(John Neal)
1.7.1. 英格蘭板球委員會教練發展專案的負責人
1.7.2. 沒有使用傳統心理學,而是以一種更加共生的方式將情緒洞察和生理資料融合在一起,他的目標是喚起教練和運動員身上的“心流”
1.7.3. 從測量生理訊號和神經訊號開始,確定人們如何學習、反思、恢復和表現
1.7.4. 一個運動員可能會說的是一回事,但資料是另一回事,它“絕對是非0即1的二進位制,就像自閉症的反應一樣”,即它是非黑即白的,不會有模稜兩可或移情植入
1.7.5. 客觀資料成為一種強大的工具,可以部分改進訓練計劃,而這些改進往往決定了最高水平比賽的高下之分
1.7.5.1. 教練們可以觀察到運動員身上的這種變化,不僅能感覺到運動員表現下降,還能感覺到他們基本狀態的下滑
1.7.6. 環境中最細微的變化能重新調整運動員的身心狀態
1.7.6.1. 如果運動員不適應當下的環境,他就會切換到情感皮質和自我意識模式,主要對世界懷有一種消極和恐懼的心態
1.7.6.2. 透過訓練,我們可以學會識別觸發這種反應的情境,並透過身體活動,比如說脫口秀,來重新切換到正確的思維模式
1.7.7. 心率變化資料顯示了他們的生理反應變化,親眼所見,他們就會更相信它
1.8. 個人資料和人工智慧的普及將在未來幾年改變我們對自我形象和自我意識的概念
1.8.1. 智慧機器將使我們得到更加客觀的測量,就像一個運動員,他的生理、神經和環境訊號被像尼爾這樣的教練蒐集、閱讀和採取相應行動
1.9. 資料可能會有所偏差,人們可以改變它
1.9.1. 系統已經捕捉到了我們的生活和環境的方方面面,而我們沒有足夠的智慧來完全處理它們
1.9.2. 資料流將變得更加全面、多角度和多方位
1.10. 系統是否能準確反映一個人的真實性格
1.10.1. 沃森可能會生成一些標籤,比如內向或外向、熱情或好強、思想開放或保守
1.10.2. 我們的日常行為和交流還沒有被公開數字化,而且我們呈現的自我與真實的自我有所不同
1.10.3. 幾乎所有推特使用者都知道,人們仍然可以躲在不完整或碎片化的數字身份背後,並以此作為盾牌來釋放他們最原始的衝動
1.11. 人肉搜尋、網路恐嚇和網路仇恨並不會很快消失,尤其是在那些支援言論自由的社會和平臺中
1.12. 成千上萬的人依靠線上約會網站的“智慧”演算法來尋找伴侶
1.12.1. 我們可能會找到更適合自己真實本性的伴侶,而不是在自我和社會條件引導下與一些人交往
1.13. 所有這些都假定,參與這一過程的人工智慧平臺能夠在系統中建立充分的信任,進而在社群的個體公民之間建立信任
1.13.1. 這些系統及其開發者還沒有完全解決不良資料、人類和演算法偏見,以及人類人格的巨大複雜性和非線性的問題
1.13.2. 它更像是一件藝術品,而不是一個工程
1.13.3. 即使從程式碼和資料的角度來看,人工智慧也只能測量它所看到的東西
2. 共生智慧的環境
2.1. 我們的思想、肉體和周圍世界之間精妙複雜的關係構成了人類的現實
2.2. 艾倫·賈薩諾夫(Alan Jasanof)
2.2.1. 美國麻省理工學院的生物工程教授
2.2.2. 刺激、情感和認知之間並非相互獨立,而是可以分離開來的
2.3. 環境教會我們區分行為的對錯、表現的好壞,以及美醜的標準
2.3.1. 它塑造了我們是誰,以及我們如何在這個世界上生活
2.3.2. 社群和組織中的社會管理機制向我們發出了互動規範的通用準則
2.3.3. 在所有這些過程中,我們對自己的身份認知與所遇到的其他人的認知相遇、相融、相互衝突
2.3.4. 我們一生都在塑造和重塑自我意識,努力平衡價值、權力和信任之間的關係,協調與我們互動的各個機構
2.4. 少許的自我欺騙可以提升自尊,緩和我們與外部世界的關係,並讓個人和集體朝著成功的方向前進
2.4.1. 如果現實和錯覺的正確平衡是關鍵所在,那麼人工智慧將如何捕捉這種平衡,避免從一頭毫無徵兆地滑向另一頭呢?
2.4.2. 如果人工智慧無法精確地劃分,效果可能會適得其反
2.5. 我們的思想、身體和環境,以及與其他形式的自然智慧和人工智慧所形成的互利共生關係,需要依靠人工智慧助手把握其中精巧的平衡
2.5.1. 作為人類,我們需要維持權力,確保這場走鋼絲表演順利進行
2.5.2. 我們對彼此的信任將會消失,我們對人工智慧的信任也會在它結出果實之前就此消亡
3. 情商和信任
3.1. CBT
3.1.1. 認知行為療法
3.1.2. 觀點
3.1.2.1. 讓人感到不安的不是他們生活中的事件,而是他們對自己的看法,以及這對他們意味著什麼
3.1.3. 核心
3.1.3.1. 如果你說自己情緒低落,它就會從快樂模式中消失,模擬移情,讓你重新回到認知重組上來
3.1.4. 認知重組的過程,這需要病人積極參與
3.2. ELIZA
3.2.1. 20世紀60年代中期開發的一款最早的自然語言處理計算機程式
3.2.2. 聊天機器人
3.3. Woebot
3.3.1. 基於人工智慧的聊天機器人
3.3.1.1. 可以為使用者提供心理治療服務
3.3.2. 並沒有想讓Woebot取代專業的治療師
3.3.3. 應用程式只會每天進行一次輕鬆友好的互動,並帶有表情符號和戲謔的表情
3.3.4. 只能近似模擬一種好的長期CBT干預,它並不是為了取代人類顧問而設計的
3.3.4.1. 它隨時可以使用
3.3.4.1.1. 它不打算提供緊急服務,但它可以識別可怕的情況,觸發對其他服務的建議
3.3.4.1.2. 包括一款有證據表明可以減少自殺行為的應用
3.3.4.2. “他”與使用者建立了異常強大的聯絡,建立了一個“工作聯盟”,讓使用者參與到治療之中
3.3.5. Woebot的開發人員特地避免讓它看起來過於逼真或真實
3.4. Behaivior
3.4.1. 比Woebot更進半步,更積極地幫助康復中的藥物成癮者遠離潛在的復發
3.4.2. 與可穿戴裝置合作,包括Fitbit和行動電話,來對使用該裝置的阿片類藥物成癮者的一系列因素進行評估
3.4.3. 蒐集大量不太明顯的訊號至關重要
3.4.4. 康復中的成癮者復發的頻率遠比大多數外人意識的要高
3.4.5. 人工智慧系統有助於從細微的行為模式和各種資料中識別潛在的復發可能,最終,他們可以利用這些技術實時調整干預措施,實時學習改進,幫助人們擺脫復發的危險
3.5. Behaivior和Woebot都介入了我們生活中最親密、最人性的一部分
3.5.1. 我們的精神健康和我們最強烈的渴望
3.6. 其他的心理治療機器人,如Sim Sensei或ELIZA,有效地治療了美國士兵的創傷後應激障礙(PTSD)
3.6.1. 他們在提供一種有效的基礎水平治療的同時,也讓他們可以避開人類治療師,因為他們可能會對是否與人類治療師互動心存猶豫
3.7. 在解決各種心理健康問題方面,機器人和使用者之間的信任、同理心和共生智慧關係也頗有幫助
3.8. 這些互動只能建立在信任的基礎上
3.8.1. 確保使用者對整個體驗擁有控制權
3.8.2. 這些系統可以挖掘更深層次的見解,包括我們的認知、智慧甚至情感
3.9. 人類在識別他人情緒方面也做得不是特別好
3.10. 人工智慧系統處理大量不同資料的能力,可以幫助我們以新的方式學習情感
3.10.1. 它也可以被用來操縱和利用我們
4. 深度參與
4.1. 身臨其境的體驗產生了大量資料,可以幫助公司改程序序
4.2. 電子遊戲的開發者會獲得同樣的資料和見解,這也是貝克的角色扮演教育平臺最初的靈感來源
4.2.1. 使用者透過玩遊戲、披露位置、使用策略、有輸有贏、為體驗付費,產生了大量的資料
4.3. 深度參與、資料生成、測試和測量反應的迴圈往復,會提高遊戲參與度和消費額度,從而催生出一個完整的家庭手工業
4.4. 三個主要趨勢
4.4.1. 無處不在的行動電話不停地產出資料
4.4.2. 雲技術提供了低成本、高效能的計算
4.4.3. 日益強大的機器學習技術
4.4.4. 測量行為的科學已經成為可能
4.5. 公司不關心個人資料,事實上,公司從不儲存可識別的個人資訊
4.5.1. 真正重要的是他們可以從海量資料,比如說50萬名玩家的資料中,總結出模式和異常行為
4.5.2. 可以為更大的玩家群體調整價格,吸引這些玩家去購買虛擬物品或進行升級
4.5.3. 從微觀層面到群體層面測量玩家反應,更好地理解決定消費者決策的最重要原因
4.5.4. 隨著公司對客戶越來越細緻地劃分,他們可以開始對社會進行微觀分析,對所有人區別定價
4.5.5. 基於各種因素而產生歧視的可能性,無論是關鍵性的還是一般性的,都變得越來越容易和可能發生
4.6. 沒有公平的天堂,因為我們的資料流每分每秒都在被測量和評估
4.6.1. 公司總是會把客戶群體劃分成三六九等,比如航空公司會為飛行常客,往往也是更有錢的旅客,提供優惠待遇
4.6.2. 在極端情況下,這些歧視可能會導致社群的分裂,因為沒有兩個人在同一條船上
4.6.3. 我們之間的紐帶,在同一環境下的忠誠度,面對相似的困難攜手共進的態度,可能會被削弱,因為我們被以偽科學的方式,根據個人細微的差異,進行了微觀細分
4.6.4. 隨著物聯網在未來幾年的進一步普及,幾乎所有的裝置都將擁有更多的感測器和更強的處理能力,所有這些資料都將傳入雲端,那些運營和控制整個網路的公司將可以近距離探視我們的“生活模式”
4.7. 機器需要學習哪些決策人們樂於外包,哪些是他們願意保留的,不同的人又有怎樣不同的態度
4.7.1. 所有這些都可以讓你的生活變得更加愉快,讓你操心的事更少
4.7.2. 我們們必須適應放棄更多控制權的想法,而要做到這一點,就需要我們對授權的系統有更高層次的信任
4.7.3. 我們的信任必須比那些管理我們日常瑣事和決策的人工智慧系統更為深入
4.8. 如果說這一事件教會我們什麼道理,那就是我們需要能夠信任那些控制整個系統的人
4.8.1. 在我們永遠看不到的後臺和遙遠的資料中心,誰或者什麼將會監控它們的完整性、公正性和公平性?