數學家竟然藉助神經網路求解世界上最難的方程式?

發表於2021-04-30

這是來自 quantamagazine的一篇報導,當前使用人工智慧的深度神經網路求解數學中偏微分方程的整個族,從而使得數學對複雜系統的建模更加容易,並且速度更快。

 

很難求解的方程式

高中物理學中,我們通過作用在某個質量物體上的單個力(例如重力)的簡單示例,瞭解牛頓的第二運動定律:力等於質量乘以加速度。在唯一的獨立變數是時間的理想情況下,第二定律實際上是一個“常微分方程”,通過求解該定律,可以隨時計算物件的位置或速度。

但是在更復雜的情況下,隨著時間的流逝,多種力作用於複雜系統的許多運動部件上。為了模擬客機在空中飛行,在地球上的地震波或疾病在人群中的傳播,包括基本力和粒子的相互作用,工程師,科學家和數學家訴諸於“偏微分方程”。 (PDE)可以描述涉及許多獨立變數的複雜現象。

問題在於,偏微分方程式(如在科學和工程學中一樣必不可少和普遍存在)很難計算,這是眾所周知的。可以使用近似方法來解決它們,但是即使那樣,仍可能需要數百萬個CPU小時才能整理出複雜的PDE。隨著我們所解決的問題變得越來越複雜,從設計更好的火箭發動機到模擬氣候變化,我們將需要更好,更有效的方法來解決這些問題。

 

深層神經網路來幫忙

70多年前,處於人工智慧研究前沿的研究人員引入了神經網路,這是一種思考大腦工作方式的革命性方法。在人腦中,數十億個連線的神經元網路可以感知資料,使我們能夠從經驗中學習。人工神經網路還可以按照自己教給自己的規則,通過連線的層過濾大量資料,以進行預測和識別模式。(banq:神經網路是對大腦神經元運作的模擬模擬)

現在,研究人員已經建立了新型的人工神經網路,可以比傳統的PDE求解器更快地近似偏微分方程的解。並且經過培訓後,新的神經網路不僅可以解決單個PDE,而且可以解決整個PDE族,而無需重新訓練。

研究人員使用相關資料訓練他們的神經網路,以學習這些輸入和輸出之間的相關性。訓練包括為網路提供輸入,並讓其產生一些輸出,然後將其與預期輸出進行比較。然後,演算法會調整神經元的權重,以最大程度地減少生成的輸出和預期輸出之間的差異。重複此過程,直到網路在某個可接受的錯誤限制內可靠地使它正確為止。一旦經過訓練,就可以向網路顯示一個新的輸入,並且很可能會產生正確的輸出。

同時,科學家們正在將深度神經網路-人工智慧的現代帶入這個領域。

深層神經網路的基本元素是人工神經元,它接收一組輸入,將每個輸入乘以權重,然後將結果相加,然後,神經元基於該總數確定輸出,例如,如果總和低於某個閾值,則為零,否則為總和。現代的神經網路具有一個輸入層,一個輸出層和至少一個夾在它們之間的“隱藏”層。僅具有一個隱藏層的網路通俗地稱為“淺”網路。否則,它們被稱為深度神經網路。

通常的神經網路是將資料從一個有限維空間(例如,影像的畫素值)對映或轉換為另一個有限維空間(例如,對影像進行分類的數字,例如1代表貓,2代表狗) 。但是,新的深層網路所做的事情卻大不相同,它們在無限維空間和無限維空間之間對映。

毫無疑問,這樣的技術將加速涉及PDE的許多模型求解。最終目標是替換非常慢的非常昂貴的傳統求解器。 

加州理工學院的Anima Anandkumar(左)和普渡大學的Kamyar Azizzadenesheli建立了一個稱為傅立葉神經運算元的神經網路,該網路可以有效地學習一次求解整個PDE族的過程。

更多點選標題! 

 

banq評:神經網路本質上是一種對複雜系統的模擬人類大腦執行的模擬方式,現在可以藉助這種模擬模擬模型來求解數學上方程式,是不是主導精確確定性數學到了盡頭?也需要藉助中醫脈絡這樣模擬”練金術“來求解?總之,科學探索無禁忌,沒有這個是科學,那個不是科學的武斷教條主義。

神經網路求解數學公式難題在於兩者不相容,數學是追求確定性結果,而神經網路是概率計算,能夠識別模式,巴黎的Facebook AI研究小組工作的方法不是讓神經網路求解逼近數字運算或數值,相反,他們發揮了神經網路的優勢,根據實際解決的問題(語言翻譯)重新定義了數學問題。有興趣瞭解這裡

 

相關文章