馬斯克等超1200人聯名公開信呼籲:停止訓練更強大的AI,這背後原因發人深省,該給ChatGPT潑冷水了

虎嘯AI發表於2023-03-30

暫停巨型AI實驗:一封公開信

3月29日,生命未來研究所(Future of Life)向全社會發布了一封《暫停大型人工智慧研究》的公開信,呼籲所有人工智慧實驗室立即暫停比GPT-4更強大的人工智慧系統的訓練,暫停時間至少為6個月。該機構以“引導變革性技術造福生活,遠離極端的大規模風險”為使命。

信中寫道“只有在我們確信它們的效果是積極的,風險是可控的情況下,才應該開發強大的人工智慧系統。”

值得一提的是,OpenAI CEO奧特曼在與MIT研究科學家Lex Fridman的最新近2個小時對話中指出,經過OpenAI的不斷測試,從ChatGPT開始,GPT系列已經出現了推理能力,但沒人能解讀這種能力出現的原因,甚至連OpenAI團隊和奧特曼自己依舊無法完全解讀GPT-4,只能透過不斷問它問題,來判斷它的“思路”。可以說,AI已經出現了其無法解釋的推理能力,同時奧特曼也承認“AI殺死人類”有一定可能性。

未來生命研究所的這封公開信題為“暫停巨型AI實驗:一封公開信”,以下是公開信原文:

image

正如廣泛的研究和頂級人工智慧實驗室所承認的,人工智慧系統對社會和人類構成較大的風險。《阿西洛馬人工智慧原則》中指出,高階人工智慧可能代表著地球上生命歷史的深刻變革,應該以相應的謹慎和資源進行規劃和管理。然而,儘管最近幾個月人工智慧實驗室掀起AI狂潮,開發和部署越來越強大的數字大腦,但目前沒有人能理解、預測或可靠地控制AI系統,也沒有相應水平的規劃和管理。

現在,人工智慧在一般任務上變得與人類有競爭力,我們必須問自己:我們應該讓機器在資訊渠道中宣傳不真實的資訊嗎?我們是否應該把所有的工作都自動化,包括那些有成就感的工作?我們是否應該開發非人類的大腦,使其最終超過人類數量,勝過人類的智慧,淘汰並取代人類?我們是否應該冒著失去對我們文明控制的風險?這樣的決定絕不能委託給未經選舉的技術領袖。只有當我們確信強大的人工智慧系統的效果是積極的,其風險是可控的,才應該開發。同時,這種信心必須得到驗證,並隨著系統的潛在影響的大小而加強。OpenAI最近關於人工智慧的宣告中指出,在開始訓練未來的系統之前,可能必須得到獨立的審查,對於最先進的努力,同意限制用於建立新模型的計算增長速度。我們同意,現在就該採取行動。

因此,我們呼籲所有人工智慧實驗室立即暫停比GPT-4更強大的人工智慧系統的訓練,時間至少持續6個月。這種暫停應該是公開的、可核查的,幷包括所有關鍵參與者者。如果這種禁令不能迅速實施,政府應該介入並制定暫停令。

人工智慧實驗室和獨立專家應在暫停期間,共同制定和實施一套先進的人工智慧設計和開發的共享安全協議,由獨立的外部專家進行嚴格的審查和監督。這些協議應該確保遵守協議的系統是安全的。值得一提的是,這並不意味著暫停一般的人工智慧開發,只是從危險的競賽中退後一步,限制不可預測的研究和開發。

人工智慧的研究和開發應該重新聚焦於,使目前最先進和強大的系統更加準確、安全、可解釋、透明、穩健、一致、值得信賴和忠誠。

同時,人工智慧開發者必須與政策制定者合作,大幅加快開發強大的人工智慧治理系統。這些至少應該包括:專門針對人工智慧的監管機構;監督和跟蹤高能力的人工智慧系統和大型計算能力的硬體;出處和水印系統幫助區分真實和合成,並跟蹤模型洩漏;強大的審查和認證生態系統;對人工智慧造成的傷害承擔責任;為人工智慧安全技術研究提供強大的公共資金以及資源充足的機構,以應對人工智慧可能導致的巨大的經濟和政治破壞。

人類可以透過人工智慧享受繁榮的未來。現在,我們成功地建立了強大的人工智慧系統,可以在這個“人工智慧之夏”中獲得回報,為所有人的明確利益設計這些系統,並給社會一個適應的機會。停止使用其他技術可能會對社會造成災難性影響,因此我們必須保持準備狀態。讓我們享受一個漫長的人工智慧夏天,而不是匆忙進入秋天。

截至目前,這封信已有1127名科技領袖和研究人員簽名,馬斯克、蘋果聯合創始人Steve Wozniak、Stability AI創始人Emad Mostaque,還包括圖靈獎得主約書亞·本希奧(Yoshua Bengio)、《人工智慧:現代方法》作者斯圖爾特·羅素(Stuart Russell)、蘋果公司聯合創始人史蒂夫·沃茲尼亞克(Steve Wozniak)、Stability AI執行長埃馬德·莫斯塔克(Emad Mostaque)等科技界領袖人物。

image

OpenAI CEO山姆·奧特曼:“AI確實可能殺死人類”

OpenAI CEO山姆·奧特曼稱,並不否認過分強大的AGI“可能殺死人類”這一觀點。必須承認,(AI殺死人類)有一定可能性。很多關於AI安全和挑戰的預測被證明是錯誤的,我們必須正視這一點,並儘早嘗試找到解決問題的方法。

而馬斯克此前也曾多次表達對人工智慧的擔憂,認為人工智慧是未來人類文明最大的風險之一,威脅程度遠高於車禍、飛機失事、毒品氾濫等甚至比核武器都危險得多

所以由於目前超強人工智慧還處於萌芽階段,不可否認AI有可能會造成人類的混亂甚至死亡。必須從一開始就採取審慎的方法來研究和評估人工智慧的發展,並確保AI在發展中不會帶來風險。為了避免出現意外情況,應該採取完善的技術、評估體系或政策,以便對人工智慧的發展進行有效的監管和管理。

參考資料:每日經濟新聞

其它資料下載

如果大家想繼續瞭解人工智慧相關學習路線和知識體系,歡迎大家翻閱我的另外一篇部落格《重磅 | 完備的人工智慧AI 學習——基礎知識學習路線,所有資料免關注免套路直接網盤下載
這篇部落格參考了Github知名開源平臺,AI技術平臺以及相關領域專家:Datawhale,ApacheCN,AI有道和黃海廣博士等約有近100G相關資料,希望能幫助到所有小夥伴們。

相關文章