- 人工智慧的發展突飛猛進,特別是生成式人工智慧系統如ChatGPT和Midjourney正在迅速改變專業活動和創作過程 。
- GPT-4等先進的生成式人工智慧系統在展現其巨大潛力的同時,也帶來了潛在的危險,需要公共和私人利益相關者的特別關注 。
- 技術進步帶來了雙刃劍效應。一方面促進了經濟生產力和福利改善,另一方面可能導致工作崗位流失和不平等加劇 。
最近,人工智慧的發展速度大幅加速,一大批專業活動和創作過程都被ChatGPT和Midjourney等生成式人工智慧系統迅速改變,而以某些可以將風險最小化和利益最大化的方式指導這一強大技術發展的機會之窗則在快速關閉。
基於人工智慧的能力存在於一個(相鄰兩者相似但首端與末尾截然不同的)連續體中,而GPT-4(ChatGPT的最新版本)這類生成式人工智慧系統則屬於其中最為先進的類別。鑑於這類系統在擁有最宏大前景的同時也可能構築最危險的陷阱,它們值得公共和私人利益相關者給予特別關注。
幾乎所有技術進步都會對社會產生正負兩面的影響。它們一方面促進了經濟生產力和收入增長,擴大了資訊和通訊技術的獲取渠道,延長了人類壽命並改善了整體福利,另一方面又導致工人失去工作崗位、工資水平停滯不前、不平等狀況加劇,資源日益集中在某些個人和企業手裡。
人工智慧也不例外。生成式人工智慧系統在產品設計、內容創作、藥物發現和醫療保健、個性化教育和能源最佳化等領域開闢了大量機會,同時也可能被證明對我們的經濟和社會具有高度破壞性,甚至是有害的。
那些高階人工智慧業已帶來以及可以合理預見的風險都相當巨大。除了勞動力市場的廣泛重整,大型語言模型系統可能會增加虛假資訊的傳播,並長期固化那些有害的偏見。生成式人工智慧也有可能加劇經濟不平等。這種系統甚至可能對人類構成存續性風險。
對一些人來說這是一個叫停人工智慧研究的理由。今年早些時候,包括埃隆·馬斯克(Elon Musk)和史蒂夫·沃茲尼亞克(Steve Wozniak)等超過1000名人工智慧技術專家聯署了一封公開信,建議各個人工智慧實驗室“立即暫停”比GPT-4更強大系統的訓練至少六個月。他們認為應當在這一暫停期間設計並實施一套共享的安全協議,並“由獨立的外部專家嚴格審計和監督”。
這封公開信以及它所引發的激烈辯論凸顯了各利益相關者迫切需要加入一個廣泛的善意過程來就開發和部署高階人工智慧的強有力共同準則達成一致。這種努力必須考慮到自動化和工作崗位替代、數字鴻溝以及對技術資產和資源(如資料和算力)的控制權集中等問題。而且首要任務必須是不斷努力消除人工智慧訓練中的系統性偏見以使ChatGPT這類系統最終不會再現甚至加劇這些偏見。
關於人工智慧和數字服務治理的各類提案已經在美國和歐盟等地湧現,而包括世界經濟論壇在內的組織也在對此做出貢獻。2021年論壇發起了全球數字安全聯盟,旨在聯合利益相關者處理網上有害內容並促進關於監管網路安全最佳做法的交流。論壇隨後建立了“數字信任倡議”以確保人工智慧等先進技術的發展能考慮到公眾的最佳利益。
現在論壇正在緊急呼籲展開公私合作以應對伴隨生成式人工智慧湧現而生的各種挑戰並就開發和部署該技術的下一步措施建立共識。為了推動進展,論壇與AI Commons這個由AI從業者、學術界和專注共同利益的非政府組織支援的非營利組織合作於今年4月在舊金山舉行關於生成式人工智慧的全球峰會。各利益相關者討論了該技術對商業、社會和地球的影響並共同制定各類手段以減輕負面外部因素,同時傳遞更安全、更可持續也更公平的成果。
無論我們喜歡與否,生成式人工智慧都將改變這個世界。在這一技術發展的關鍵時刻,我們必須採取合作的手法以盡一切努力確保這一程式與我們的共同利益和價值觀相一致。
本文作者:
克勞斯·施瓦布,世界經濟論壇創始人兼執行主席
李響,世界經濟論壇人工智慧、資料與元宇宙總負責人,執行委員會成員
本文原載於Project Syndicate