物理學在更高的維度上指引人工智慧發展方向 - quantamagazine

banq發表於2020-01-10

物理和機器學習具有基本的相似性,兩個領域都涉及進行觀測,然後建立模型來預測未來。這兩個領域都尋求的模型並不侷限於單個事物(banq注:類似物件導向建模中,根據個別物件特徵建模為整個類class)。

摘錄幾個要點,原文點選標題進入:
等方差(或“協方差”,物理學家偏愛的術語)是自愛因斯坦以來依靠物理學家推廣其模型的假設。。就像愛因斯坦本人在1916年所說的那樣:“自然的一般定律應由對所有座標系都適用的方程式表示。”描述世界的物理理論表現出一種稱為“規範等方差”的性質,這意味著世界上的數量及其關係不依賴於任意的參照系(或“測量工具或觀察者”),無論觀察者是移動還是靜止不動,無論測量工具上的數字有多大,它們都保持一致。
例如,假設測量一個足球場的長度(以尺為單位),然後再次以米為單位進行測量,測量的結果數字將改變,但是以可預測的方式。同樣,兩位攝影師從兩個不同的有利位置拍攝物件的照片會產生不同的影像,但是這些影像可以彼此關聯。(banq注:雖然視角不同,但是同一個事物,盲人摸象摸的部位不同,但是摸的是同一頭大象)。
量規等方差可確保物理學家的現實模型保持一致,無論他們的觀點或測量單位如何。規範卷積神經網路CNN對資料也是做出了相同的假設。

神經網路在2D影像識別方面如此有效。此過程稱為“卷積”,它使用神經網路中一層對輸入資料的執行數學運算,然後將結果傳遞到神經網路中的下一層。可以將卷積視為滑動視窗,卷積神經網路將許多這些“視窗”滑動到資料上,像一種濾鏡,每一個濾鏡都旨在檢測資料中的某種模式,如果是貓照片,經過訓練的CNN可能會使用濾鏡來檢測原始輸入畫素中的低階特徵,例如邊緣形狀。這些特徵將傳遞到網路中的其他層,其他卷積會提取其他更高層的特徵,例如眼睛,尾巴或三角形的耳朵。接受過識別貓的CNN最終將使用這些分層卷積的結果為整個影像分配標籤:這是貓或不是貓(banq注:將盲人摸得耳朵 鼻子 尾巴拼圖在一起)。
但是這種方法只適合平面資料,當被分析得表面不是平面,資料變成彎曲時就會遇到麻煩。
在曲面上進行卷積(在幾何學上稱為流形),就像在地球儀前面拿著一小塊半透明的方格紙,然後試圖準確地追蹤某個大陸的海岸線。前提是不能在讓紙張起皺的情況下將正方形紙按在這塊高低不平的大陸上,因為,如果紙張變皺後測量到了的大陸海岸線,在紙張再次被放平時,透過這張紙測量的圖形將會變形。
Bronstein和他的合作者在2015年找到了解決非歐氏流形上的卷積問題的一種解決方案,方法是將滑動視窗重新想象成更像是圓形蜘蛛網而不是一張平面方格紙的形狀,這樣您就可以將其壓向地球(或任何彎曲的表面),而不會使視窗測量工具本身起皺、彎曲、拉伸或撕裂。
以這種方式改變滑動濾波器的屬性使CNN更好地“理解”某些幾何關係。例如,網路可以自動識別出彎曲成兩個不同姿勢的3D形狀是同一物件的兩個例項,而不是兩個完全不同型別的物件。這一變化也使神經網路的學習效率大大提高。

衡量機器學習演算法好壞的標準是訓練神經網路所需的資料示例越少越好,資料效率,如何用比通常需要的數千或數百萬個更少的示例來訓練神經網路。深度學習方法是非常緩慢的學習者,如果您正在訓練CNN來識別貓(網際網路提供了有無數的貓影像),那麼這幾乎沒有問題。但是,如果您希望網路檢測到更重要的內容(例如肺組織影像中的癌性結節),則必須找到足夠的訓練資料。
提高神經網路資料效率的一種方法是預先為資料設定某些假設前提,例如,即使肺腫瘤在內部旋轉或反射,它仍然是肺腫瘤。卷積網路必須透過在不同方向上訓練相同模​​式的許多示例來從頭開始學習此資訊。
2016年,Cohen和Welling合著了一篇論文,定義瞭如何將其中的一些假設編碼為幾何對稱的神經網路。這種方法行之有效,以至於到2018年,Cohen和合著者Marysia Winkels進一步推廣了該方法,證明了令人鼓舞的結果 CT掃描中識別肺癌的方法:他們的神經網路僅使用訓練其他網路所用資料的十分之一即可識別出該疾病的視覺證據。
阿姆斯特丹的研究人員不斷推廣這種幾何對稱的假設,這就是他們找到測量等方差的方式。(banq注:不管以米單位測量還是用以尺為單位測量,每個刻度之間距離是一樣的,幾何上對稱的。)

更多點選標題進入。












 

相關文章