今年,人工智慧等新技術的治理,在全球範圍內獲得了廣泛的關注。美歐開始針對人工智慧相關應用探索多元化的治理措施。我國也開始迴應人工智慧新技術及其應用的潛在風險,《民法典人格權編草案》《資料安全管理辦法(徵求意見稿)》《網路音視訊資訊服務管理規定》等都有所涉及。此外,網信辦釋出的《網路生態治理規定(徵求意見稿)》(以下簡稱《規定》),在強調政府、企業、社會、網民等主體共同治理網路資訊內容的同時,也及時迴應了演算法推薦、深度偽造、流量造假、網路暴力等熱點問題。

演算法推薦引發負面影響,風險防範與技術和產業發展的平衡需要分級分類多元治理

近年來,隨著人工智慧演算法推薦的廣泛應用引發的虛假資訊、使用者隱私、資訊繭房、演算法歧視等負面影響的持續發酵,我國相關立法和標準開始關注演算法推薦。《電子商務法》《資料安全管理辦法(徵求意見稿)》以及國家標準《個人資訊保安規範》最新修訂草案等都作出了規定,要求標明“定推”字樣,給使用者提供“退出”選項並刪除個人資訊,禁止歧視、欺詐等。此次《規定》進一步明確演算法推薦與人工編輯相結合的資訊分發方式,第15條要求建立體現主流價值導向的推薦模型,建立健全人工干預機制,建立使用者自主選擇機制,進一步迴應了演算法推薦的相關問題。

從行業角度看,個性化演算法推薦對貼近使用者需求以及構建網際網路內容和服務生態十分重要,在各類移動網際網路平臺的快速崛起中扮演著重要角色,已被廣泛應用於新聞、視訊、音樂等數字內容及廣告、商品、服務等的分發、推薦。但在經歷了演算法有沒有價值觀的大討論之後,人們越來越多地認識到演算法並不是萬能的,其在提高資訊內容分發效率的同時,卻可能帶來使用者隱私、資訊繭房、內容安全、傳播虛假資訊等問題,甚至可能影響公眾認知,加劇社會分層和偏見等。所以企業在部署應用演算法決策的時候,一方面需要持續優化演算法模型,確保資料和演算法的準確性、有效性、公平性等;另一方面需要以人工干預等方式進行適度的管理,例如對進入推薦池由演算法進行推薦的文章,需要經過稽核。

圖: 來源:網路

國外也開始多舉措規範包括演算法推薦在內的演算法決策的應用,例如歐盟GDPR通過賦予使用者選擇和控制許可權來解決使用者畫像和自動化決策中的隱私問題,除此之外並沒有給演算法推薦等自動化決策提出其他更多的監管要求;而美國加州CCPA對於個人資訊的處理則繼續沿用opt-out機制,對消費者更為實用,也更有利於市場發展和市場競爭。但資料創新研究中心(Center forData Innovation)的研究報告顯示,GDPR實施的一年以來,要求企業手動審查重大的演算法決策提高了人工智慧的總體成本,在某種程度上阻礙了歐盟的技術創新和產業發展。此外在行業自律方面,Facebook、YouTube等也在不斷調整完善其推薦演算法,以便給予使用者更大的控制和選擇許可權,同時限制虛假資訊的傳播。例如今年6月YouTube對其推薦演算法做出了三項調整,以便使用者可以更容易地探索主題和相關視訊,拒絕某個頻道的視訊推送,並理解為什麼被推送了某個視訊,代表了其在演算法透明上的努力。[1]

整體而言,國外對於演算法決策確立了分類分級的監管思路:分類即針對政府和公共部門使用的演算法系統和商業領域的演算法系統建立不同的監管,前者需要較強的事前監管,如歐盟提出針對前者建立“演算法影響評估”機制[2];分級即對於一般的商業演算法系統如定向推送、個性化廣告等採取事後追究法律責任的方式,但對於具有與政府和公共部門的演算法系統應用類似的重大影響的商業演算法系統可考慮一定程度的事前監管。此種分類分級監管方式避免給企業帶來不成比例的成本和管理負擔,有助於人工智慧發展應用。此外,非監管的方式例如演算法素養、倫理指南及倫理審查、技術標準和指南、使用者控制等柔性方式,也將發揮重要作用。這些舉措可給我國將來進一步立法提供有益的借鑑。

深度偽造給網路內容治理帶來新挑戰,監管需要防範技術濫用同時留出發展空間
《規定》第24條規定,網路資訊內容服務使用者不得利用深度學習、虛擬現實等新技術新應用從事法律、行政法規禁止的活動。這一規定給今年備受國內外關注的“深度偽造”技術劃定了應用邊界,同時為行業探索有益應用場景留出了發展空間。

左圖:1994年電視劇《射鵰英雄傳》截圖;右圖:同一場景的“深度偽造”視訊片段。來源@換臉哥

深度偽造(Deepfake)作為deep learning(深度學習)和fake(偽造)組合而成的新生事物,是隨著生成對抗網路(GAN)等深度學習技術的發展而出現的。其最常見的方式是AI換臉,例如deepfake、face2face等技術,此外還包括語音模擬、人臉合成、視訊生成等,統稱為深度偽造。深度偽造和合成內容給網路平臺治理帶來了新挑戰,主要表現為利用深度學習等AI技術偽造或合成高度逼真且真假難辨的圖片、音訊、視訊來進行欺騙和欺詐,如色情報復、敲詐勒索、假冒身份、散佈虛假資訊等,給個人和企業利益以及公共安全帶來威脅。而且深度偽造生成方法開源軟體的增多,極大地降低了操縱、偽造音視訊的門檻。報告顯示,網上的深度偽造視訊的總數比去年12月翻了一番,達到近15000個,其中偽造的色情視訊佔比高達96%。[3]

除了此次《規定》提出的概括性禁止要求,《民法典人格權編(草案)》第799條、《資料安全管理(徵求意見稿)》第24條,以及日前釋出的《網路音視訊資訊服務管理規定》第10-13條等都作出了規定。主要包括:禁止利用資訊科技手段偽造的方式侵犯他人的肖像權和聲音;針對自動合成的資訊內容標明“合成”字樣;上線相關功能或服務需開展安全評估,對非真實音視訊資訊予以標識,禁止深度偽造的虛假新聞訊息,部署鑑別技術並在對非真實音視訊資訊進行標識後方可繼續傳播,建立闢謠機制,等等。這些規定表明深度偽造等新技術新應用已經引起我國立法的高度重視。

全球來看,美國最早對深度偽造進行規制,今年以來,美國尤其擔心深度偽造對2020年大選和國家安全的影響,開始探索立法應對措施,防範潛在濫用風險。2019年6月,美國國會先後提出了兩部法律草案《深度偽造責任法案》[4]和《2019年深度偽造報告法案》[5]。此外,美國的加州、德州、馬薩諸塞州、弗吉尼亞州等也陸續推出了相關立法。這些立法提出的主要措施包括:第一,設定應用紅線,禁止政治干擾、色情報復、假冒身份等非法目的的深度偽造,否則可能構成刑事犯罪;第二,設定披露義務,要求製作者、上傳者以適當方式披露、標記合成內容,例如採取嵌入數字水印、文字、語音標識等方式;第三,加強技術攻防,要求開發檢測識別和反制技術。

綜合國內外監管趨勢來看,遏制深度偽造技術的濫用需要多方主體共同努力,採取分類分場景監管、行業自律、技術對抗、數字素養提升等多元化的舉措,在防範風險的同時促進深度偽造技術妥善利用。在合理有效、靈活敏捷的監管之外,還需重視以下兩點。

一方面,探索更多有益運用場景,提振產業發展信心。深度偽造作為內容創作工具有其積極的應用價值,可在娛樂、新聞媒體、影視製作、教育等諸多領域運用,例如實現虛擬主播、替身演出、虛擬歌手等,改善醫學影象分析,豐富社交網路體驗和自我表達等。面對深度偽造帶來的風險,在積極應對的同時,還應鼓勵行業探索更多有益運用場景,為人工智慧技術開發提供更多實踐樣本,引導人工智慧技術向善發展。

另一方面,從源頭要求製作者對深度偽造進行標註,同時鼓勵行業開發應用檢測識別技術,推動建立相關技術和行業標準。當前美國的做法主要是要求製作者對深度偽造內容進行標註,否則可能承擔民事責任,嚴重時還將承擔刑事責任,從而從源頭上對深度偽造進行規範。這一源頭治理的做法具有合理性,因為沒有標註的深度偽造內容一旦傳播出去之後,第三方就很難鑑別,檢測技術的開發、成熟也面臨著諸多困難,而且難以跟上深度偽造技術進化的步伐,所以開發溯源技術並進行源頭標記是最有效的措施。此外,當前谷歌、Facebook等美國主流科技公司都開始通過多種舉措,發展甄別深度偽造和合成內容、對抗深度偽造技術濫用的方法和工具,包括:構建並開放深度偽造資料集,為研究、開發檢測識別技術提供基準;支援、發起深度偽造檢測挑戰賽,與行業攜手推動檢測技術的研究與開發;開發深度偽造檢測識別和標註工具;培訓專門的合成內容審查人員,加強對視訊內容的真實性稽核。但是考慮到行業內當前還沒有通用的、高準確率的視訊鑑偽網路,相應的鑑偽技術也都尚在初步階段、還有很長一段路要走,所以不宜強制要求平臺對使用者上傳的或第三方的視訊是否屬於“深度偽造”或“自動合成”進行檢測識別,並以此為由要求平臺承擔責任,因為這將給企業帶來不成比例的管理負擔和成本。而且技術攻防本來就是“魔高一尺道高一丈”、處於不斷髮展之中,故不宜將其轉變為硬性要求並與法律責任掛鉤,所以如前所述,美歐沒有強硬要求平臺部署鑑別技術,而是採取了源頭治理讓製作者、上傳者對深度偽造內容進行標註,這具有合理性,值得肯定。

流量造假行為被納入禁止性規範,技術管網遏制流量經濟野蠻生長

《規定》第25條規定,網路資訊內容服務使用者不得通過人力或者技術手段實施流量造假、流量劫持以及虛假註冊賬號、批量買賣賬號、操縱使用者賬號等行為,破壞網路生態秩序。這一規定將流量造假等行為列為破壞網路生態秩序的禁止性行為,有利於規範資料利用,從源頭制止流量造假。

流量是網路文化的重要指標之一。流量經濟時代,流量劫持、流量造假等問題開始挑戰傳統法律。流量造假糾紛不僅發生在個人主體之間,平臺間的流量之爭則更加複雜。去年8月,愛奇藝公司訴杭州飛益資訊科技有限公司不正當競爭案中,法院認定通過技術手段增加無效的愛奇藝網站視訊訪問資料並獲取不當利益的行為破壞資料的真實性以及完整性,構成不正當競爭,這表明被刷流量方也可能成為流量糾紛中的受害者。今年5月,全國首例暗刷流量案當庭宣判合同違反社會公共利益而無效,並上繳所有非法所得。流量造假、流量劫持以及虛假註冊賬號、批量買賣賬號、操縱使用者賬號等行為,不僅損害消費者權益,破壞商業模式,還會損害資料資訊價值,造成大資料產業“劣幣驅逐良幣”。

圖:蔡徐坤1億轉發量(微博總使用者3.3億)流量造假被央視批評曝光
整體而言,流量造假背後已經形成了巨大的灰色利益鏈條,從線上到線下需要更加嚴密的監管體系。首先,平臺可以加強流量監控合作,形成全平臺聯動打擊。以往的網際網路相關法規中,對流量造假等行為的規制主要在於提高平臺責任,要求平臺監控異常資料,遮蔽造假網頁、處理虛假賬號等。下一階段,為應對大規模的流量造假,需要加強平臺合作,建立平臺與平臺間的聯動打擊機制。
其次,大力發展網際網路內容產業,豐富網路評價體系,告別“唯流量論”。網路直播銷售、明星流量變現等商業模式催生了流量造假行為,畸形的利益分配機制是導致流量造假的根本原因。要扭轉這一局面,必須迴歸網際網路內容產業的發展,豐富評價體系,擺脫“唯流量論”。

再者,提高違法成本,有效震懾流量造假行為。如今流量造假行為已經滲透到電商、娛樂、影視等多領域,利益的深度捆綁讓流量造假的多方主體均對該行為保持緘默。2018年《反不正當競爭法》的網際網路專條對流量劫持、惡意不相容等問題進行了規制。2019年《電子商務法》明確禁止電商平臺買流量刷好評行為。未來還應進一步加大執法力度,提高違法成本,破除該縱深灰色利益鏈條。

網路暴力成諸多惡性事件導火索,監管之外還需引導理性上網

《規定》第22條針對網路暴力作出專門規定,明確禁止網路使用者的網路侵權和網路暴力行為,違反該規定將依照相關法律、行政法規處理。網路暴力在新技術背景下具有新的發展趨勢如人工智慧被用於實施色情報復等,該規定有助於淨化網路環境、維護健康的上網秩序,並規範新技術的應用。

網際網路在為使用者提供充分表達空間的同時,非理性的聲音也極易通過網路發酵,造成大規模網路行為失範。以語言暴力、隱私洩露等為典型,網路暴力主要表現網路欺凌、網路跟蹤以及網路騷擾,具體而言:一是對未經證實或已經證實的網路事件,公開發錶帶有傷害性、侮辱性和煽動性的失實言論;二是在網上公開他人個人隱私,侵犯其隱私權;三是對他人及其親友的正常生活進行行動和言論侵擾等。網路暴力引發的社會惡性事件層出不窮,不僅對當事人身心、名譽、財產等方面造成實質性損害,還會影響社會價值觀,破壞網路生態秩序。

而且近年來,網路暴力事件逐漸增多,衝突行為逐漸升級。中國社科院2019《社會藍皮書》顯示,其調查物件中,約有28.89%的青少年在上網過程中遇到過暴力辱罵,而60%以上的青少年對此沒有采取任何措施。美國反誹謗聯盟ADL(Anti-Defamation League)2018年調查顯示,全美範圍內約37%的被調查民眾曾經歷過性騷擾、被視奸跟蹤、人身攻擊、持續騷擾等各樣的極端網路暴力。此外,如前所述深度偽造等新技術也被用於色情報復、敲詐勒索等網路暴力行為,網路上的深度偽造內容幾乎都是偽造的色情視訊。

網路暴力的成因複雜,牽涉面廣,對暴力資訊往往難以及時介入和監管。首先,網際網路的複合性傳播方式為網路輿論發酵提供了便利。網際網路多樣化的傳播方式使得暴力資訊可以通過公開網頁、即時通訊裝置等進行公開、小範圍以及一對一的傳播,暴力資訊一旦傳播開來,便難以控制。其次,網路暴力資訊界定模糊,難以及時發現並處理。在技術過濾和人工稽核的雙重保障下,對於明顯的違法資訊或含敏感詞資訊,能進行有效攔截。但是,對於輿論形成初期,如何在健康的輿論環境中識別出暗含網路暴力可能性的話題,如何區分正當的輿論監督和暴力資訊都尚未明確操作標準。整體而言,目前針對網路暴力的治理仍以事後監管為主,對網暴事件發生的施暴引導者、不實資訊散佈者及事件背後的組織策劃者等關鍵物件進行懲治。引導使用者理性上網,提升網民素養是從源頭消解網路暴力的必要手段。

探索新技術治理的中國模式,為新技術發展應用營造良好的制度土壤

如前所述,連同此次《規定》在內,我國近一兩年一系列立法開始加強規制人工智慧等新技術及其應用。但在當前的國際化發展形勢下,新技術成為各國競爭的核心,如何在日趨嚴峻的國際競爭形勢下(如地區對抗博弈加劇、單邊主義抬頭等),為新技術創新發展和應用普及營造良好的制度土壤,從而佔據技術發展和產業應用高地,是我國在監管新技術新應用時需要著力思考的。

歷史地看,美國矽谷之所以在網際網路時代成為全球科技創新中心,除了資本、人才、人才流動等因素之外,其成功在很大程度上歸因於美國網際網路友好型的法律變革,諸如適度的平臺責任、版權避風港和開放式的合理使用制度、行業自律為主的隱私監管等,這些制度規定為矽谷企業在Web 2.0時代的巨大成功提供了良好的法律制度土壤,天才的程式設計師們才得以發揮其聰明才智,帶來令人驚豔的創新產物。[6]這可以給全世界正在進行中的新技術治理提供很好的啟發。

當前在新技術治理方面,歐盟最為活躍。GDPR、數字稅、人工智慧監管等都旨構建歐盟內部統一的網際網路監管標準和模式,但其對新技術的嚴格管制能否最終轉化為其在人工智慧等新技術、新產業發展等上的國際競爭力,是值得深入探討的。除了對自身發展的考量,歐盟的網際網路強監管還有另外一個人們經常提及的原因,就是通過設定偏向性的法律規則來制衡、約束美國,意在為歐盟自身贏得產業發展機遇。用歐盟官方的話來說就是,讓網際網路惠及所有人,而非個別公司(意指美國大型網際網路企業)。

就我國而言,防範新技術新應用相關的風險,已經成為了我國網際網路治理的重要內容,需要明確整體上的治理思路和路徑。如前所述,在中美歐引領網際網路競爭的國際背景下,對於新技術新應用歐盟採取了更為側重監管的路徑,而美國相對寬鬆的監管環境在新技術背景下不大可能發生大的改變。以此為出發點,我國在監管新技術新應用的時候,需要考慮國際競爭視角和新技術新應用的社會經濟效益,兼顧監管治理需求、防範風險、權益保護與技術創新、產業發展等。更進一步,在實踐層面,多層次的治理體系比單一的監管和法律更能適應人工智慧等新技術快速發展迭代、日益複雜化的特徵,行業標準、自律公約、技術指南、最佳實踐、倫理框架、倫理教育和技術素養等都將發揮更大的作用。在監管方面需要“疏堵結合、包容審慎、敏捷靈活”的方式,“疏”即破除新技術應用面臨的法律障礙,如自動駕駛汽車、AI醫療等面臨的傳統監管障礙,構建新的監管框架;“堵”即明確應用邊界,並以包容審慎、敏捷靈活的方式防範風險,保障技術和產業發展空間。

注:感謝騰訊公司安全管理部安全戰略研究中心高階研究員趙玉現在此文寫作過程中提出寶貴建議,騰訊研究院助理研究員熊辰協助進行資料蒐集。

來自: 騰訊研究院

作者 | 張欽坤 騰訊研究院祕書長

曹建峰 騰訊研究院高階研究員