讀所羅門的密碼筆記16_直通心智
躺柒發表於2024-04-11
1. 直通心智
1.1. 如今,科學家已經可以誘發觸覺、壓覺、痛覺和大約250種其他感覺
1.1.1. DARPA支援的觸覺技術第一次讓一位受傷的人能夠用假肢和手指感知到被觸碰的物體
1.1.2. 可以建立人工系統,來替換和彌補受損大腦的部分割槽域
1.1.3. 神經科學家能夠識別出大腦對各種想法的抽象概念
1.2. 我們可以不在文字層面進行交流,而是在概念和思想層面進行交流。我們的交流沒有理由被限制在視覺或感知層面。我們沒有理由不能在感覺或情感層面進行交流
1.2.1. 菲利普·阿爾維爾達(Philip Alvelda)
1.3. 必須穿過大量的噪聲,以確保人類大腦能夠在一個有很多參與者的房間裡處理大量傳入的資訊流
1.4. 一些技術上的挑戰依然存在,包括擴大資料輸入和輸出的晶片的頻寬,但研究人員不需要透過重大的突破來完成所有這些工作
1.4.1. 當神經植入物獲得更多的功能,被更廣泛地使用時,會出現意想不到的困境
1.5. 要弄清楚與人類大腦進行直接連線會產生什麼棘手的倫理問題,時間並不多
1.5.1. 植入晶片這種侵入性腦外科手術存在著道德和倫理問題
1.5.2. 神經植入可以為駭客開闢一條全新的途徑,讓他們能夠使用一種更直接方式控制人類:給我想要的東西,我就讓你的大腦恢復過來
1.5.3. 如果安全問題得到解決,並且恢復或增強人類感官的潛力得以實現,這是否會變成富人的專屬待遇?
1.5.4. 如果有錢的父母可以在他們孩子的大腦中植入晶片,以加強他們的大腦功能,而貧窮的父母卻不能,這是否會導致社會進一步兩極分化?
1.6. 科幻小說中關於思想控制的描述可能成真
1.6.1. 在一場刑事審判中,一名證人被要求就被告的神經植入物接收到的資訊做證
1.6.2. 一旦失去改變觀點的自由,我們將不再有餘地把自己的想法歸為試探性、不恰當、自我審查或自我調整等類別
1.6.3. 如果上傳、下載和向他人的橫向傳輸變得可記錄、可分析、可評判,那麼思想本身就從大腦活動的轉瞬即逝的產物變成了確切的記錄
1.6.4. 一個人的內在思考可能會被他人編輯、操縱和盜用
1.7. 任何更強大的神經植入和通訊的發展,都必須至少包括一種明確的法律保護思想
1.7.1. 這將是維護我們的認知和意識隱私的必要手段,它將證明並鼓勵那些幫助我們保護私人內在自我的技術的發展
2. 公平和正義
2.1. 公平和正義的概念在人工智慧系統的背景下很難定義,特別是當我們試圖考慮對一個人的公平和對一個群體的公平時
2.1.1. 個體之間公平與公正的緊張關係,可能仍會與更廣泛的社會利益發生衝突
2.1.2. 個體和群體之間的差異很重要,因為許多智慧體都是根據一組相似個體被識別出的模式得出針對個體的結論的
2.1.2.1. 美國網飛公司根據一個人過去的生活模式來推薦電影,這種模式也是與這個人志同道合的觀眾的生活模式
2.1.3. 通常情況下,系統可以從更大的群體中得出更直接、準確的預測
2.1.3.1. 如果範圍縮小,要求系統給較小的小組提供更精準的推薦,就會增加它出錯的可能性
2.2. ‘公平’這個概念的含義有很多細微的差別
2.2.1. 在某些情況下,我們可能對公平有著不同的合理理解,但把它們放在一起就會產生衝突
2.2.2. 對一群人來說是公平的東西,對某個人來說可能是不公平的
2.2.3. 招聘經理可以故意選擇不合格的女性候選人進行面試,僅僅是為了滿足統計上的平等
2.2.3.1. 只要保證相同比例的男女申請者參加面試,就可以說女性作為一個整體被公平對待了
2.2.3.2. 經理可以故意選擇面試那些不合格的女性申請者,而不給那些條件合格的女性申請者面試機會,從而實現區別對待
2.3. 從理論上講,演算法最終可以幫助法官抵消偏見,或許還可以在量刑時消除種族差異,但“例外”將一直存在
2.4. 再加上美國判例法的不斷演變,就連一直十分嚴苛的法律正義概念也在受到主觀觀念的影響
2.5. 演算法問責的工作應該從開發和部署演算法的公司開始
2.6. 在面向消費者的人工智慧應用程式中,還不存在一致且準確地識別這些最不可能發生的情況所需的背景
2.7. 把這些概念運用到計算機程式碼中要困難得多
2.8. 每一種政策都在個人層面製造了棘手的情況,特別是對那些不直接從類似專案中受益的群體來說
2.8.1. 德國在政治和商業上對女性實行的配額政策,美國針對少數民族的平權政策,以及印度招募低種姓人至政府機構的行為,都試圖以不公平地對待某個群體的方式來做正確的事
2.8.2. 試圖平衡群體和個體公平的行為往往會引發人們對於不公正的反對呼聲
2.9. 將個人的公平感與正義混為一談
2.9.1. 真正的正義應該產生於公平和個人利益的平衡
2.10. 當他們為整個社會設計正義規則時,他們不會暗中佈局,使規則對自己有利
2.10.1. 因為沒有人知道,資源和能力的分配會將他們置於社會經濟階梯的什麼位置,所以所有人都傾向於設計一個公平對待每一個人的系統
2.11. 我們編譯的幾乎每一組資料都潛藏著無意的偏見
2.11.1. 即使是一個不完美的模擬,也可能有助於指導執法部門、受害者權利組織、美國公民自由聯盟等監管機構和社群活動人士之間的合作
2.12. 無論如何,隨著人工智慧分析出不同群體和個體之間更復雜的差異,正義和公平的問題只會變得更加複雜
3. 英特爾旗下的Safron
3.1. 在製造過程中,大多數故障檢測都能識別出常見或可能的缺陷和故障原因
3.2. Safron的基於記憶的學習和推理解決方案是對機器學習或深度學習的補充
3.3. 它不僅能識別那些可能發生的事件,還可以深入挖掘,找出可能導致某個部件損壞或系統故障的一次性弱點,並解釋這樣的異常情況
3.4. 如果成功的話,英特爾的一次性人工智慧學習能力可能對高質量製造產生巨大影響,並可能最終改善人工智慧平臺,為人們的日常生活提供幫助
4. 科技性失業
4.1. 人工智慧系統的發展將以前所未有的速度改變工作任務、取代工作崗位
4.1.1. 它還將刺激對我們尚未接觸到的新技能的需求
4.1.2. 跨學科合作主要從任務的視角看待人工智慧對工作帶來的技術性改變
4.1.3. 更為合理的選擇是,安排並培訓員工在人工智慧的幫助下完成工作,從而提高工作效率,獲得更大的激勵,達成更高的目標
4.1.4. 全球約有一半的工作已經可以利用現有技術實現“技術上的自動化”了
4.2. 我們能否跟上它們的步伐(特別是在教育和勞動力培訓方面),以及我們能否發揮想象力,看到這些變化將帶來什麼樣的新機遇
4.2.1. 適應新的工作性質需要發揮想象力並做好準備。
4.2.2. 沒有足夠的想象力去看到最初的破壞之外的東西
4.3. 大多數公司只看到他們眼前的,以及智慧機器能做得更好、更節省成本的工作,但他們不會看到未來工作需要的技能
4.3.1. 人機合作經理、資料偵探、首席信用官,或Cognizant諮詢公司在2018年的報告中提出的其他18個“未來工作”
4.4. 全民基本收入(UBI)
4.4.1. 即為每位公民提供一份最低收入,以此來幫助那些因人工智慧和其他自動化技術迅速發展而失業的人
4.5. 工人們可以利用部分收入,把這些搶他們飯碗的機器買下來
4.5.1. 卡車司機可以擁有代替他們的自動駕駛卡車,並從它身上獲利
4.6. 認知機器正在承擔許多枯燥乏味的工作
4.7. 從歷史上看,企業從本質上就有動機使用機器,並由更少的高技能工人來操作機器
4.8. 從企業的角度來看,人工智慧透過提高工人生產率,增加了企業減少人力支出的動機
4.9. 幾乎所有規模可觀的公司都在考慮如何將人工智慧整合到自己的業務中
4.10. 在所有的文化和社會中,人們都喜歡創新、實現自我價值
4.10.1. 挖掘這種潛在的能量可以掀起一股新的生產力發展浪潮,在全球範圍內提升生活水平和創新水平
4.10.2. Adobe的進步讓人們可以把更多的時間花在創意部分
4.11. 凡事都有陰暗面
4.11.1. 惡意使用的威脅絲毫不會減緩各種人工智慧工具的普及
4.12. 一些技術是用來打假的
4.12.1. 隨著數字水印技術的發展,偽造將變得更加困難,因為這種技術可以跟蹤更改痕跡
4.12.2. 使用這種驗證和分類賬技術,可以將確認資訊和記錄分發給廣泛的使用者群體,從而減少操縱和欺詐的機會
4.13. 企業有充足的戰略依據來維持如此巨大的流動性,這使它們能夠對市場動盪做出快速反應,併為新產品和服務的研發提供動力
4.13.1. 要對未來工作、收入和學習這些新概念進行投資,需要它們長期關注全球和本國經濟的需求
4.13.2. 在短期股東利益的驅使下,很少有公司有足夠的動力去想象一個尚未被定義的未來
4.14. 政策制定者可以選擇一條更明智的道路,旨在提高企業的生產率和競爭力,同時讓勞動力為第四次工業革命做好準備
4.14.1. 在清潔能源、技術設計和3D製造等領域建立激勵機制,鼓勵公私合作,促進企業對未來防禦性工作的研發和培訓進行投資
4.14.2. 我們需要培訓工人來從事這些工作,其中許多工作所需要的技能或技能組合在當今職場中是聞所未聞的
4.15. 認知科技也可能幫助企業提高生產率,並透過對我們動機和意圖的深刻了解,為員工帶來更大的回報
4.15.1. 可能讓我們的潛意識為我們工作
4.16. 個人、社會和整個地球需要我們從內而外去思考什麼是正確的,而不僅僅是看表面的對錯
4.17. 負責任的組織會希望跟蹤績效並識別有可能發生濫用情況的領域
4.17.1. 進步的企業會讓它儘可能透明
4.17.2. 可以從勞工和僱主之間的非正式合作開始,雙方可以共同為影響員工行為的制度制定規則