第三代人工智慧基礎設施背後,是一次技術應用的常識普及運動

48573554發表於2020-12-26

買了新電腦和手機,你會提前安裝好防毒或安全軟體,還是等被黑客攻破了才悔之晚矣?

處理傳染病疫情,是從源頭釋放藥物和疫苗,還是坐等醫院的患者超過治療和處理能力?

面對危機輿情,是快速遏制傳播,還是拖到負面資訊的數量遠遠超過企業公關能力?

建造一座核電站,是否有必要提前考量其安全性並嚴格部署安全措施?

答案,是顯而易見的。

公共設施投入運營之前一定會做足消防、驗收等功課;防毒軟體和定期更新漏洞成為桌面系統的常備工具;汽車、手機等新款產品在設計之初,就會將安全放在首要考量因素之一……這就是主動式安全管理之於社會生產的意義。

而面對人工智慧,總有科技企業和大V們不斷強調AI的神奇之處,卻有意無意間忽略了一些技術落地不可或缺的前提,其中就包括——安全。

事實上,對於AI安全性的顧慮,是今天各行業落地AI時所遇到的頭號焦慮與難題之一。

12月9日舉辦的“2020第三代人工智慧產業論壇”上,清華系AI公司瑞萊智慧RealAI釋出了一系列AI基礎設施,就將更安全、可靠、可信及可擴充的第三代人工智慧作為核心,來推動企業智慧化升級。與以往基於深度學習的數智化解決方案相比,有哪些不同?要回答這個問題,需要先來看看今天橫亙在企業與AI應用落地之間的困境。

找回被遺落的安全常識

伴隨著“新基建”的哨音,AI在產業端高歌猛進,與此同時,一些安全問題也湧現出來,暴露出安全管理意識的缺失。

AI,意味著更大的計算成本、更快的資料互動、更高的改造風險,一旦出現演算法問題或資料洩露,或是遭遇黑客攻擊,該怎麼辦?此前業界並沒有過多的探討,卻是AI進入產業的前提與業務創新發展的命脈所在。

AI需要怎樣的安全?正如開篇所提到的,過去幾十年來,主動式安全管理已經深入到了社會生產生活的方方面面。

學者埃裡克·郝納根(Erik Hollnagel)在《Safety-I and Safety-II: The Past and Future of Safety Management安全管理的過去和未來》一書中這樣解釋:

過去,只要一個事物很少或根本沒有出現錯誤,就被認為是安全的(即“安全-I”模式)。伴隨著數字時代的到來,這種方式並不能有效地減少安全問題造成的損失,一次來自黑客的攻擊威脅,如果反應不足就可能讓個人或企業萬劫不復。

所以21世紀初期,發展出了另一種安全管理模式——安全II,認為安全的本質是確保儘可能多的事情是正確的、能夠達到預期結果,並且一直保持這一狀態。因此必須積極主動,在事故可能發生之前就採取一定行動,在負面結果還沒來得及發展和蔓延之前就採取干預措施。

此前廣泛引起討論的人臉識別涉及到的隱私安全、資料風險等問題,就在提醒我們,AI需要補全“安全II”的能力。具體來說,就是預測、準備、響應和監控風險的能力。

您的“AI安全問題大禮包”,請查收

如果按照安全II模式的主動管理邏輯來審視AI產業化,會發現等待預先解決的安全風險,真的有點多。

1.決策不可靠的演算法模型。深度學習模型的黑箱性和不可解釋性,至今依然是難以規避的問題。企業在將深度神經網路進行訓練時,可能出現模型不準、預測結果不可預知的情況。

而不可靠的演算法模型一旦應用於高價值的關鍵敏感場景,比如金融決策、醫療診斷、精密工業製造等等,可能引發生命財產損失。

2.防不勝防的新型攻擊手段。安全是一場技術攻防戰,當下許多黑灰產也開始利用更前沿的技術發起攻擊,讓傳統安全防護模式力有不逮。

比如利用“對抗樣本”技術打造一張假臉來欺騙移動支付的人臉識別模型,用以假換真的音訊進行財務詐騙,製作虛假的換臉視訊等等,針對這類新型安全風險,主流廠商的模式依然是傳統的“安全-I”思路,等到發現問題再進行響應和修復,但AI潛在安全問題很多時候是滯後或隱蔽的,比如在訓練源頭的原始資料集進行汙染與投毒,在問題暴露時可能已經釀成了危機。

3.日益嚴峻的資料危機。提升AI能力需要最大限度的挖掘資料價值,但是在金融、醫療、公共安全等場景的AI應用中,所要用到的資料往往涉及個人隱私資訊,簡單明文資料傳輸和利用很可能導致隱私洩露。

另一方面,在特定商業場景中,有價值的資料往往分散在不同的機構與使用者手中,形成大大小小的資料孤島,應用過程中資料的用途和用量不受控,存在被濫用和複製的問題,同時資料應用產生的收益不清晰,資料權屬也難以界定。

4.充滿盲點的應用漏洞。雖然現在很多業務場景都在使用AI能力,但應用效果卻並不及預期,諸如演算法偏見導致人臉識別對白人和黑人區別對待、AI信貸風控模型對特定地區出現“歧視”、智慧客服AI學會了髒話突然開始罵使用者……雖然這些應用漏洞並不會導致業務直接崩壞,但卻讓業務效果大打折扣,與此同時也帶來負面社會影響。

說了這麼多,大家可能會覺得AI好像不怎麼靠譜的樣子,其實今天AI的方案成熟度和產業落地性已經很高了,所帶來的生產力價值也是遠超想象。

只是,從腳踏實地的角度出發,與其寄希望於一個零事故、零風險的理想化口號,更可行的方式是,把每個演算法、每個系統、每次專案都實施好,從源頭上打造務實可靠的AI,這也是今天大多數傳統行業在應用AI時普遍缺乏的意識,以為花錢買回來的是無往而不利的增長神器,拆開才發現是一張安全漏洞密佈的漁網。

隨著AI進一步深入產業,必須早日在技術價值與現實落地之間找到一個安全可控的平衡點。

防患於未然,關鍵時刻還得靠學霸

正如愛因斯坦所說,提出問題往往比解決問題更重要,因為解決問題也許僅是一個技能,而提出新的問題、新的可能性,從新的角度去看舊的問題,需要有創造性的想象力,而且標誌著科學的真正進步。

這也是為什麼,RealAI會引起我們的注意。

我們知道,人工智慧的基礎模型、研究方法、基礎理論和各種模型的設計等等,底層創新一般都是由學術界率先垂範,比如2017年,圖靈獎得主Geoffrey Hinton就看到了傳統深度卷積神經網路的問題,提出了膠囊網路等新的深度學習方法,以期推動AI迭代。

在中國,清華人工智慧研究院等頂級學術機構也在不斷嘗試搭建更可靠的AI和智慧實現方式。而RealAI瑞萊智慧作為清華人工智慧研究院的產學研技術公司,自然也能率先意識到高度依賴資料驅動的傳統機器學習時代存在的諸多安全隱患,針對上文提出的種種問題,RealAI的“學霸們”重構底層技術框架,推出全新正規化,從技術側給出解決方法,比如:

將深度學習和貝葉斯方法的優勢有機結合,將資料和預測結果中天然存在的不確定性納入考慮,提升AI模型的泛化能力,從而實現可靠可解釋的AI;

保證在建模過程中,從關鍵特徵和決策相關依據等不同維度給出解釋,增進人們對AI結果的理解;

通過對抗的方式發現AI演算法存在漏洞的機理,並通過對抗防禦技術指導魯棒AI演算法和系統研發;

將領域知識引入到AI建模中,實現知識與資料的共同驅動;

通過與密碼學和分散式系統結合的方式,實現在明文資料不出庫的情況下,解決AI場景下的資料流通問題。

也許你已經發現了,集合了這些新技術能力的AI,已經不是我們所熟悉的那個“阿爾法狗時代”的深度機器學習了,而是第三代人工智慧。

清華大學人工智慧研究院院長、中國科學院院士張鈸教授是這樣闡釋的,第三代 AI 的思路是把第一代的知識驅動和第二代的資料驅動結合起來,通過利用知識、資料、演算法和算力等 4 個要素, 建立新的可解釋和魯棒的AI,具備安全、可靠、可信和可擴充套件的特點。

沿著這一技術發展的底層思維邏輯演進,會發現在第三代人工智慧基座上搭建AI應用,也就自然而然地實現了“安全II”——主動式安全管理,讓AI的潛在風險能夠從源頭就被預測、準備、響應和監控。

解決AI安全隱憂任重道遠,第三代AI無疑是中國學術界所給出的領先方向和解法。

沒有新基礎設施,就沒有“頂天立地”的第三代AI

AI很好,但如何才能被企業用起來?第三代AI要“頂天立地”,既需要高屋建瓴的學術創新,也需要“接地氣”地對接產業。想要融入真實的產業需求,自然離不開平臺基礎設施作為樞紐,成功完成技術價值到商業價值的轉換。

打個比方,企業只是想做一個美味的蛋糕,不需要從種小麥開始,找到一個提供麵粉、黃油、模具的平臺採集到這種現成材料,是更省事省力有保障的選擇。

所以我們很欣喜能夠在AI助力數智化轉型的初始階段,就出現了RealAI這樣基於第三代人工智慧技術的技術企業。

在“2020第三代人工智慧產業論壇”上,RealAI釋出了兩款最新AI產品——隱私保護機器學習平臺RealSecure和人工智慧安全平臺RealSafe2.0 版本。

結合去年就推出的可解釋機器學習建模平臺RealBox,以及深度偽造檢測工具DeepReal,形成了一套從資料、演算法、應用全鏈條對AI進行安全賦能升級的基礎設施平臺。

資料層面,最新發布的RealSecure隱私保護機器學習平臺,通過其自研的“隱私保護AI編譯器”,能夠自動將普通機器學習演算法程式轉換為分散式、隱私安全程式。

這意味著,當銀行、政府、醫院等敏感場景想要實現資料流通又擔心隱私洩露等問題時,可以採用自動化隱私保護學習的方式,一鍵完成分散式隱私保護學習演算法的建模,讓多個資料擁有方可以在無需透露敏感資料的前提下,來訓練更高效能的AI模型,打消企業和個人使用者的安全顧慮。

演算法層面,升級後的RealSafe2.0版本,可以針對目標識別等演算法進行安全攻防,並增加後門漏洞檢測等功能。就像防毒軟體一樣,對應用的AI演算法進行全面“體檢”,讓AI安全性的標準化檢測和增強成為可能。

高可解釋性的機器學習建模平臺RealBox,則藉助貝葉斯概率機器學習,讓原本“黑箱”的模型訓練變得透明化、白盒化,各維度資料在決策過程中所佔的比重等等都可以被解釋,這樣的演算法做出的決策,自然更具有可信度。

應用層面,RealAI基於千萬級訓練資料打造了多特徵融合和多工學習、具備防禦對抗樣本攻擊能力的偽造識別演算法,推出DeepReal深度偽造檢測工具和一體機。

面對各種偽造App資料集和新增噪音來實施攻擊的行為,DeepReal可以對偽造內容和真實內容之間表徵差異性進行有效辨識,在多個主流深度偽造App資料集和各類學術資料集上的檢測準確率超過99%。

這些能力在AI應用的各個環節貫穿,也讓第三代人工智慧有了面向產業的價值釋放埠。RealAI CEO田天介紹道,人工智慧要成為新時代的水和電,普及到產業的各個角落,需要完備的基礎設施建設。但不同於以往的資料平臺、算力平臺為AI提供基礎運算條件,RealAI 打造的原生基礎設施從增強AI自身底層能力出發,圍繞“演算法可靠”、“資料安全”、“應用可控”三大能力,推動產業智慧化走向安全可信的全新階段。

跨越鴻溝:“吃螃蟹”需要哪些動力?

對於產業端來說,最怕的不是投入,而是未知,這也是為什麼在每一次轉型浪潮時,常常會有企業望而卻步。

每個行業與企業都有著自身的獨特性與具體需求,通用性AI往往難以施展拳腳;加上各自的技術基礎與認知階段不同,會出現有的企業急切想要構建全面的數智化系統,有的甚至連AI能做什麼不能做什麼都不知道。

如何讓企業願意成為“第一個吃螃蟹的人”,AI技術公司需要做的不僅僅是大聲吆喝,更需要躬身潛行,做好平臺服務。

面對這一道難題,RealAI的“學霸們”做了三件事:

第一,打造自主可控的創新技術和底層框架,讓各行各業可以放心將資料、模型跑在上面。

最典型的,是此次釋出的RealSecure所搭載的“隱私保護AI編譯器”。傳統聯邦學習往往都需要各個資料擁有方重新組建一個隱私保護學習團隊,或者堆人力將原來的機器學習程式碼一點點改寫成隱私保護學習程式碼,費時費力不說,還難以保證效能和適配性。

RealAI沒有沿著老思路“縫縫補補”,而是直接用底層編譯的方式,將聯邦學習演算法結構成運算元,通過運算元的靈活組合來適配多種多樣的機器學習演算法公式,就像“活字印刷術”中的“字模”一樣,可以被標準化、靈活取用。

另外在訓練過程中,首創以底層資料流圖的方式,讓資料的擁有方、參與執行方,以及通訊是否需要加密,所有流程視覺化展現,讓整個計算過程變得安全透明。

第二,鍛造成熟的垂直行業解決方案,為AI產業化“打樣”。

對於一些行業普遍存在的通用性問題,聯合頭部企業打磨出相應的解決方案,能夠給更多觀望者有所參考和啟發。

比如,在金融領域的信貸場景中,RealAI發現“資料有偏”是一個非常突出的問題,傳統建模過程中用到的資料都是經過層層篩選、最終跑過整個借貸業務流程的“好”樣本,但沒有貸後表現資料的客群中就沒有優質客戶了嗎?怎樣挖掘並服務好這群“資料隱形人”,RealAI以自研半監督回撈模型,判斷之前被拒絕的客戶究竟是否為優質資產,從中挖掘出10%與通過客群一樣的優質客戶,助力某銀行在無成本的前提下回撈拒絕客戶,實現了20%的資產規模增長。

工業領域的核心痛點則是演算法可靠性。以智慧檢測為例,重大裝置的健康程度會直接影響企業生產效率和資產壽命,以往只能通過有經驗的維修人員來定期檢查、維護,效率低下,加上新生代檢修工人培養越來越困難,這時就需要高可靠性的AI來幫忙。

RealAI幫助工業企業打造的PHM裝置健康診斷與預測性維護解決方案,就通過序列分析演算法分析裝置的監測資料,進行故障的實時診斷和預測,幫助規劃運維活動,避免停機和降低維修損失。在大壩安全智慧監測場景中,提升50%的預測準確率。在光伏製造、油氣管道監測等場景中同樣可以發光發熱。

另外在公共安全領域,人臉識別技術被廣泛應用於刷臉支付等身份認證場景,背後與個人財產安全繫結,但識別模型本身卻存在被攻破的風險。RealAI與某大型支付企業合作,利用AI對抗攻擊演算法全面發掘和修復人臉比對模型漏洞,提供防禦方案,實現更加安全的刷臉支付。

類似的行業垂直解決方案還有很多,這些都是RealAI基於自身AI基礎能力,結合對於行業業務的理解,對產業智慧化升級方向的洞察,所打造出的落地產品和解決方案,在不斷消弭技術到應用之間的鴻溝。

第三,“開箱即用”的一站式基礎保障。

通過此次釋出的AI基礎設施平臺,我們發現,RealAI把相關技術力都封裝成了對應的工具和框架,企業碰到AI應用難題時,可以快速完成部署。

比如RealSafe平臺通過封裝多種自研的黑盒攻擊、白盒攻擊演算法,以及業內首創的黑盒測評能力等等,通過介面化的操作,幫助使用者即便不具備專業的演算法知識和程式設計開發經驗,也能輕易上手從根源上檢測跟防禦潛在漏洞。

包括DeepReal平臺,通過軟硬體結合與適配,讓演算法效能最大化,不需要企業再費勁進行調配。

今天,圍繞新基建展開的數智化升級,已經公認會給中國帶來長期的經濟紅利。其中,AI技術的普及速度與安全可靠,無疑是影響全域性的關鍵變數。二者如同“DNA雙螺旋”一樣交織發展,才能夠開啟人工智慧產業“第二增長曲線”。

如果說智慧化是一架高速飛馳向產業界的飛機,那麼第三代AI技術及其基礎設施,就是這架飛機的安全裝置。

冒險,並非在任何時候都是一種美德。埃裡克·郝納根就認為,企業在安全管理上應該更注重成功,而不是想當然地忽視風險,積極主動地引導各個業務環節向順利的方向發展,不要等待事故發生後“亡羊補牢”。

這或許也應該成為產業應用AI時的一種常識,而RealAI正在為我們補上這堂“常識課”。

來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/31561483/viewspace-2742550/,如需轉載,請註明出處,否則將追究法律責任。

相關文章