如何用生成式 AI 定義我們的未來?看看微軟怎麼說

ScienceAI發表於2024-10-06

圖片

編輯 | 紫羅

人工智慧(AI)當下及未來的進步,意味著它在解決先前被視為棘手難題的能力上實現了階段性的轉變。

鑑於這一巨大的技術飛躍,現在是我們必須定義未來軌跡的時候了。隨著公司繼續創新人工智慧系統並將其整合到當前產品中,我們有責任問自己:我們想要構建的未來是什麼?

作為一個社會,我們必須採取立場並定義我們想要的人與人工智慧系統之間的關係。我們仍處於人工智慧革命的早期階段,因此現在將我們的軌跡設定在一條認真負責的道路上比以後糾正我們的路線更容易。

我們可以有意識地設計、構建和使用人工智慧系統,使其成為社會中的一種平衡力量,或者我們可以無意識地使用人工智慧,在這種情況下,人工智慧可能會成為加劇不平等的力量,或者兩者兼而有之。社會有權決定我們朝著哪個結果前進。

一種潛在的平衡力

在生成式人工智慧中,大型語言模型 (LLM) 是近期取得許多進展的原因。最近的一項研究表明,LLM 上所做的大部分工作都是知識工作,即任何涉及處理或使用資訊的工作。最近還有一系列實驗論文表明,人工智慧提高了各種知識工作環境中參與者的生產力,例如程式設計、寫作、諮詢和客戶支援。重要的是,這些論文表明使用生成式人工智慧具有經濟效益。

值得注意的是,生產力的提高在參與者之間並不均勻分佈。事實上,人工智慧更多地幫助了那些最需要它的人。也就是說,生成式人工智慧對新手和低技能工人的幫助,比對經驗豐富和熟練的工人的幫助更大。在生產力與收入相關的範圍內,生成式人工智慧可以讓經驗較少或技能較差的工人縮小差距。如果這些結果具有普遍性,則結果表明,在知識工作領域,人工智慧正在充當一種平衡力量。

技術獲取不平等

每當出現生成式人工智慧規模的技術創新時,首先要了解誰可以使用該創新,這一點很重要,因為只有接觸過人工智慧的人才能利用它來獲得生產力和經濟效益。

圖片

Pew 研究中心最近的一項調查顯示,瞭解 ChatGPT 的美國人更有可能擁有更高的家庭收入和更正規的教育。例如,79% 擁有研究生學位的成年人聽說過 ChatGPT,而高中或以下學歷的人中只有 41% 聽說過。同樣,76% 的高收入階層(家庭收入超過 131,500 美元)的人聽說過 ChatGPT,而低收入階層(家庭收入低於 43,800 美元)的人只有 44%。最後,男性比女性更有可能聽說過 ChatGPT(67% 對 49%)。

根據 Pew 研究中心的另一項調查,在聽說過 ChatGPT 的人中,33% 的研究生學歷的人使用過它,而高中或以下學歷的人只有 15%,而且男性使用過它的可能性比女性更大(29% 對 19%)。

在美國,教育、收入和性別之間的不平等已經非常嚴重。例如,平均而言,男性每掙 1 美元,女性只能掙 82 美分。全世界範圍內,經濟不平等是一個如此重要的問題,以至於它是聯合國 17 個發展目標之一。從勞動力來看,鑑於生成式人工智慧可以帶來經濟效益,而且在瞭解和使用人工智慧的人之間存在差異,人們擔心人工智慧可能會加劇現有的經濟不平等。

為了抵消這種影響,那些構建人工智慧系統的人應該有意針對那些不太可能使用人工智慧的人,透過了解他們的用例並定製人工智慧系統來為這些人群帶來價值,從而幫助減少其中一些不平等現象。無論是否透過基於社群的參與式設計,從事生成式人工智慧工作的工程師都應該與他們目前未服務的社群成員合作,以瞭解人工智慧如何為這些社群提供價值。

對勞動力的影響

人工智慧還可以深刻影響任務、工作和職業。任何時候,都有一組機器可以解決的問題。任何時候,都有一些問題是機器可以解決的。任何超出這個範圍的問題都需要人類來解決,至少部分需要人類來解決。

當出現技術創新(如生成式人工智慧)時,機器可以解決的問題集會增長,涵蓋人類過去解決的一些問題。因此,一些過去從事新任務的人類被取代,出現了需要解決的新問題。我們稱這個想法為「自動化最後一英里悖論」,但這個想法並不新鮮。

例如,經濟學家假設工作是由任務組成的。當出現技術創新時,其中一些任務可以實現自動化。當自動化的任務是工作的核心時,這項工作將發生巨大變化。當自動化的任務與工作無關時,影響會較小。儘管如此,工作確實會發生變化,人與人工智慧關係的動態也會發生變化。這一悖論是我們與人工智慧關係的基本組成部分之一。

圖片

關於自動化最後一英里悖論,首先要理解的是,總體而言,我們不會很快失業。事實上,這種動態是創造我們目前大部分工作崗位的原因。根據 David Autor 的說法,「當代大多數工作崗位並不是迄今為止逃脫自動化的歷史職業的殘餘。相反,它們是與特定技術創新密不可分的新工作專業。」第二點是,工作受到自動化影響的人不一定是新工作崗位的創造者。

例如,如果自動化影響了一個城市工人的工作,但在另一個城市創造了就業機會,那麼擁有更多資源的人可以更輕鬆地移動、提升技能或重新學習技能,從而適應新經濟,而資源較少的人則更難做到這一點。隨著人類與人工智慧之間的動態發生變化,必須記住,人們的職業往往與他們自己的個人身份和自我價值交織在一起。我們如何對待那些工作受到人工智慧影響的人,將成為我們最終走向什麼樣的未來的關鍵決定因素。過去,自動化是美國許多中產階級工作崗位工資損失的約一半原因,而這次我們有機會避免這種結果。

我們至少可以透過兩種方式來定義未來與人工智慧的更積極的關係。首先,好萊塢就是這種悖論的一個例子,也是如何保護那些工作受到人工智慧影響的人的一個例子。製作電影和電視劇本的任務曾經是隻有人類才能解決的問題,但現在 LLM 可以為小說寫作生成文字和對話。

圖片

作為回應,美國編劇協會 (WGA) 與美國電影電視製片人聯盟達成協議,以確保「編劇在寫作時可以選擇使用人工智慧……但公司不能要求編劇在寫作時使用人工智慧軟體(例如 ChatGPT)」。這只是協議中對編劇的眾多保護措施之一,其他保護措施包括禁止公司使用編劇的輸出來訓練人工智慧系統或將素材歸功於人工智慧。該協議有意指定了編劇希望與人工智慧系統建立的關係。這些保護措施使編劇能夠使用人工智慧,而不是被人工智慧取代。這樣的勞動協議很重要,因為儘管它保護了協會中的所有作家,但資源較少的作家往往會受到自動化的不成比例的影響。

更廣泛地說,WGA 協議可以為未來勞工團體定義他們與人工智慧的關係提供藍圖。在各個行業中制定這些協議,可以透過指定該行業工人與人工智慧之間的生產關係,預先幫助那些原本會被人工智慧取代的人。從這個例子中可以學到的一個教訓是,需要各種機構(如科技公司、作家、工作室、工會等)共同引導社會走上富有成效的道路。

其次,在決定積極的人類與人工智慧關係時,我們還必須考慮雙方可以承擔的角色型別。Hofman 及其同事指出,人工智慧可以扮演三種不同的角色:(1)它可以是提高我們能力的教練;(2)它可以像運動鞋一樣增強我們的技能,幫助我們完成任務;(3)它可以像類固醇一樣,我們可以在短期內依賴它,但從長遠來看會削弱我們。

如果我們有意設計充當教練的人工智慧,當使用者沒有必要的專業知識或無法獲得必要的專業知識時,生成式人工智慧就可以介入,它甚至可以幫助我們更好地完成工作。事實上,如果我們將「人工智慧作為教練」的理念應用於各個工作和行業,Autor 認為,人工智慧可以透過「為更多工人提供人類專業知識的相關性、影響力和價值」,幫助「恢復太多工人和工作已經失去的素質、地位和能動性」。由於以前的自動化型別對中產階級和工人階級的工作影響尤為嚴重,因此人工智慧有機會幫助那些受到以前自動化型別影響的人,從而有可能減輕以前的不平等現象。

圖片

生成式人工智慧背後的人力勞動

在這種情況下,尤其重要的是要考慮到那些擁有權力或自主權,來決定他們與人工智慧系統的關係的人之間存在不平等。例如,許多 LLM 使用者沒有意識到他們使用的人工智慧系統部分是由人類訓練的。LLM (尤其是早期版本) 可能會輸出不正確、不具資訊性或在某些情況下有害的文字。為了幫助微調這些模型,人類會得到示例提示,並被要求寫出他們想要收到的輸出,並對這些模型的不同可能輸出進行排名。

事實上,十多年來,人類一直在透過 Mechanical Turk、Upwork 和 Scale AI 等線上勞動力平臺為機器學習演算法提供訓練資料,從事所謂的「幽靈工作」。

隨著人工智慧系統的覆蓋範圍和普及度不斷擴大,這種型別的訓練將更頻繁地發生,並變得更加重要。這些工人處於收入分配的低端,而且他們經常在一美元能買到比美國更多的勞動力的國家工作。此外,這些工人還處於這樣的位置:科技公司向他們付費(直接或透過第三方平臺)以提供 AI 系統的訓練資料。由於這些工人通常依靠自己賺到的錢來滿足基本需求,他們可能沒有權力定義他們與所訓練的 AI 系統的關係,但他們為社會上每個有網際網路接入的成員提供服務。因此,AI 公司應該承認和重視他們的貢獻,併為他們提供公平和道德的工作實踐。前進的一種方式是,讓社會就 AI 系統訓練者的道德待遇標準達成一致,併為 AI 系統頒發「公平貿易」印章。

對於訓練 AI 系統的工人來說,至少有三種前進的方式。第一種是成立工會或至少聚集在一起,對他們所做的重要工作發表集體意見,並倡導公平和公正的工作條件。如果公司和工人能夠達成一致,工人將獲得公平和公正的工作條件,公司也可以放心,因為他們知道他們正在以道德的方式對待訓練 AI 系統的工人。

第二是改變有關公平公正工作實踐的法律,以便訓練人工智慧系統的工人能夠享受通常只為美國全職工作者保留的社會保障網。這不僅可以提供更公平的工作實踐,還可以提高生活質量。最後,在線上勞動力市場中,工人的數量多於工作量。因此,在特定平臺上提供工作的公司可以利用他們擁有的權力迫使平臺確保工人得到公平對待。無論我們用什麼方法來影響變革,社會都有責任確保這些工人得到公平和合乎道德的對待。

圖片

技術開發中的不平等

重要的是不僅要考慮誰有權訪問這些模型以及誰提供資料來訓練它們,還要考慮誰可以構建這些模型,以確保每個人在設計中都有發言權。生成式人工智慧的使用正在全球範圍內發生,但開發 LLM 需要價值數億美元的資源,例如 GPU 和電力。

此外,這些模型使用從網際網路上收集的儘可能多的資料以及人工標記的資料進行訓練。構建和訓練這些模型所需的資源可能會使大多數人和機構無法獲得它們,例如,這將不成比例地將 Global South 的機構排除在外。因此,許多人和機構被排除在如何定義我們與所構建的人工智慧系統的關係的討論之外,儘管他們的參與對於實現公平進步至關重要。

朝著正確的方向前進

我們只能改進我們衡量的東西。全球社會的所有部門,包括工人、非政府組織、政府和科技公司,都需要基礎設施來衡量社會在人工智慧方面是否走在正確的軌道上。我們應該建立一個全球儀表板,來衡量誰受到了人工智慧的影響以及如何影響。這樣做將使我們能夠監控我們與人工智慧系統的關係,並在需要時推動它們朝著正確的方向發展。

沒有人知道我們將走向什麼樣的未來。事實上,即使是最好的預測者也很難預測兩年以上的情況。與其關注人工智慧將把社會帶向何方,不如關注當下,並以此指導我們朝著令我們滿意的結果前進。這樣,無論社會最終走向何方,我們都可以確保我們對目前所取得的成就感到滿意。

參考內容:https://www.nature.com/articles/s43588-024-00694-5


相關文章