剛剛,被討論了大半年的 SB 1047 終於迎來了大結局:加州州長 Gavin Newsom 否決了該法案。
SB 1047 全稱是「Safe and Secure Innovation for Frontier Artificial Intelligence Act(《前沿人工智慧模型安全創新法案》)」,旨在為高風險的 AI 模型建立明確的安全標準,以防止其被濫用或引發災難性後果。
具體來說,該法案旨在從模型層面對人工智慧進行監管,適用於在特定計算和成本閾值之上訓練的模型。但如果嚴格按照規定的計算和成本閾值來算,現在市面上所有主流的大型模型都會被認為存在「潛在危險」。而且,法案要求模型背後的開發公司對其模型的下游使用或修改承擔法律責任,這被認為會給開源模型的釋出帶來「寒蟬效應」。
法案連結:https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=202320240SB1047
該法案於今年 2 月份在參議院被提出,隨後一直爭議不斷。李飛飛、Yann LeCun、吳恩達都持反對態度。前段時間,李飛飛親自撰文,闡述了法案可能帶來的諸多不利影響。加州大學的數十名師生還簽署了聯名信,以反對這一法案(參見《李飛飛親自撰文,數十名科學家簽署聯名信,反對加州 AI 限制法案》)。不過,也有很多人支援該法案,比如馬斯克、Hinton、Bengio。在法案被提交給加州州長之前,雙方展開了多次激烈論戰。
如今,一切塵埃落定。在給出的否決宣告中,州長 Newsom 列舉了影響他做決斷的多個因素,包括該法案會給人工智慧公司帶來的負擔、加州在該領域的領先地位以及對該法案可能過於寬泛的批評。
在訊息釋出後,Yann LeCun 代表開源社群表達了對加州州長的感謝。
吳恩達則肯定了 Yann LeCun 一直以來向公眾解釋該法案弊端的努力。
不過,有人歡喜有人憂 —— 法案的提出者、加州參議員 Scott Wiener 表示對結果非常失望。他在一個帖子中寫道,這次否決「對所有相信將對大公司實施監督的人來說都是一個挫折,這些公司正在做出影響公共安全和福利以及『地球的未來』的關鍵決策」。
需要指出的是,否決 SB 1047 並不意味著加州對 AI 安全問題置之不理,州長 Newsom 在宣告中提到了這一點。同時,他還宣佈,李飛飛等人將協助領導加州制定負責任的生成式人工智慧部署防護措施。
加州州長:SB 1047 存在很多問題
對於 SB 1047,加州州長 Newsom 擁有最終決斷權。他為什麼會否決該法案?一份宣告提供了答案。
宣告連結:https://www.gov.ca.gov/wp-content/uploads/2024/09/SB-1047-Veto-Message.pdf
宣告節選如下:
在全球 50 家領先的 Al 公司中,加州擁有 32 家,它們是現代史上重要的技術進步的先驅。我們在這一領域處於領先地位,這得益於我們的研究和教育機構、多元化和積極進取的勞動力,以及我們對思想自由的自由奔放的培養。作為未來的管理者和創新者,我認真對待監管這一行業的責任。
SB 1047 誇大了關於部署 Al 可能帶來的威脅的討論。辯論的關鍵在於,監管的門檻是應該基於開發 Al 模型所需的成本和計算數量,還是應該不考慮這些因素而評估系統的實際風險。這一全球性的討論是在 Al 的能力以驚人的速度不斷擴充套件的情況下進行的。與此同時,應對災難性危害風險的戰略和解決方案也在迅速發展。
SB 1047 法案只關注最昂貴和最大規模的模型,它建立的監管框架可能會讓公眾對控制這種快速發展的技術產生錯誤的安全感。與 SB 1047 所針對的模型相比,較小的、專業化的模型可能同樣危險,甚至更危險。
在我們爭分奪秒監管一項仍處於起步階段的技術時,適應性至關重要。這需要一種微妙的平衡。儘管 SB 1047 法案的初衷是好的,但它並沒有考慮到 Al 系統是否部署在高風險環境中、是否涉及關鍵決策或敏感資料的使用。相反,該法案甚至對最基本的功能也採用了嚴格的標準 —— 只要大型系統部署了這些功能。我認為這不是保護公眾免受該技術實際威脅的最佳方法。
我同意作者所說的我們不能等到發生重大災難時才採取行動保護公眾。加州不會放棄自己的責任。必須採納安全協議。應該實施主動的防護措施,對於不良行為者必須有明確且可執行的嚴厲後果。然而,我不同意的是,為了保證公眾的安全,我們必須滿足於一種沒有對人工智慧系統和能力進行經驗軌跡分析的解決方案。最終,任何有效規範 AI 的框架都需要跟上技術本身的步伐。
對於那些說我們沒有解決問題,或者說加州在監管這項技術對國家安全的潛在影響方面沒有作用的人,我不同意。只在加州採用這種方法可能是有道理的,尤其是在國會沒有采取聯邦行動的情況下,但這種方法必須建立在經驗證據和科學的基礎上。
隸屬於美國國家科學技術研究院(National Institute of Science and Technology)的美國 AI 安全研究所(The U.S. Al Safety Institute)正在根據實證方法制定國家安全風險指南,以防範對公共安全的明顯風險。
根據我在 2023 年 9 月釋出的一項行政命令,我的政府內部各機構正在對加州關鍵基礎設施使用 AI 的潛在威脅和脆弱性進行風險分析。
在專家的領導下,我們正在開展多項工作,向政策制定者介紹植根於科學和事實的 AI 風險管理實踐,這些只是其中的幾個例子。
透過這些努力,我在過去 30 天內簽署了十多項法案,對 AI 造成的已知具體風險進行監管。
30 天內簽署十多項法案,加州的密集 AI 安全舉措
在宣告中,Newsom 提到他在 30 天內簽署了十多項法案。這些法案涉及面非常廣,包括打擊露骨的 Deepfake 內容,要求對 AI 生成的內容新增水印,保護表演者的數字肖像、已故人物的聲音或肖像版權、消費者隱私,探討人工智慧納入教學的影響等多個方面。
法案列表連結:https://www.gov.ca.gov/2024/09/29/governor-newsom-announces-new-initiatives-to-advance-safe-and-responsible-ai-protect-californians/
針對 SB 1047 對 AI 風險的評估缺乏科學分析這個問題,州長宣佈,他已要求全球領先的生成式 AI 專家幫助加州開發部署生成式 AI 的可行護欄。
除了李飛飛,美國國家科學院計算研究社會和倫理影響委員會成員 Tino Cuéllar 以及加州大學伯克利分校計算、資料科學和社會學院院長 Jennifer Tour Chayes 也是該計劃的成員之一。
他們的工作重點是對前沿模型及其能力和隨之而來的風險進行經驗性的、基於科學的軌跡分析。這一工作任重道遠。
參考連結:https://www.gov.ca.gov/2024/09/29/governor-newsom-announces-new-initiatives-to-advance-safe-and-responsible-ai-protect-californians/