人工智慧與機器學習有哪些不同

中興開發者社群發表於2017-12-08

點選上方“中興開發者社群”,關注我們

每天讀一篇一線開發者原創好文640?wx_fmt=png&wxfrom=5&wx_lazy=1

來自:51CTO.COM,作者:RickyHo,劉妮娜譯

連結:http://network.51cto.com/art/201707/545164.htm


在一些更具體的任務中,使用資料來適應函式的想法獲得了巨大的成功,這也構成了機器學習的基礎。在模仿方面,人工智慧在影像識別、語音識別和自然語言處理方面有著廣泛的應用。

人工智慧早已不是一個新名詞,它的發展歷史已經有幾十年。從80年代早期開始,當時電腦科學家設計出可以學習和模仿人類行為的演算法。在學習方面,最重要的演算法是神經網路,但由於模型過於強大,沒有足夠的資料支援,導致不是很成功。然而,在一些更具體的任務中,使用資料來適應函式的想法獲得了巨大的成功,這也構成了機器學習的基礎。在模仿方面,人工智慧在影像識別、語音識別和自然語言處理方面有著廣泛的應用。專家們花費了大量時間去建立邊緣計算,彩色型材,N-gram語言模型,語法樹等,不料所獲成績平平。

640?wx_fmt=jpeg&wxfrom=5&wx_lazy=1


傳統的機器學習機器學習(ML)技術在預測中發揮了重要作用,機器學習已經經歷了多代,有一套完備的模型結構,如:

  • 線性迴歸

  • Logistic迴歸

  • 決策樹

  • 支援向量機

  • 貝葉斯模型

  • 正則化模型

  • 整合模型

  • 神經網路


每一個預測模型都基於一定的演算法結構,引數可進行調整。訓練預測模型涉及以下步驟:

1.選擇模型結構(例如,邏輯迴歸、隨機森林等)。
2.用訓練資料(輸入和輸出)對模型進行反饋。
3.學習演算法將輸出最優模型(即具有特定引數的模型,使訓練誤差最小化)。

每個模型都有自己的特點,在某些任務中表現很好,在其他方面也卻不盡人意。但一般來說,我們可以把它們分為低功耗(簡單)模型和大功率(複雜)模型。在不同的模型之間進行選擇是一個非常棘手的問題。


傳統上,使用低功耗/簡單模型比使用高功率/複雜模型要好,原因如下:

  • 在我們擁有大量的處理能力之前,訓練高功率模型需要花費很長時間。

  • 直到我們有一個龐大的資料量,培養高功率模型會導致過擬合問題(由於高功率模型具有豐富的引數,可以適應多種資料的形狀,我們可能最終會訓練出一個與當前訓練資料非常相關的模型,而不是對未來資料進行預測)。


然而,選擇低功耗模型存在著所謂的"欠擬合"問題,即模型結構過於簡單,無法在較複雜的情況下適應訓練資料。(假設下面的資料有一個二次關係:y=5*X的平方;沒有方法可以擬合一個線性迴歸:y=A,B,B,B,無論我們選擇什麼樣的A和B。)

為了減輕"不適合的問題",資料科學家通常會應用他們的"領域知識"來產生"輸入特性",它與輸出有更直接的關係。(例如,返回到二次關係y=5*X的平方),然後通過選取a=5和b=0,擬合線性迴歸。

機器學習的一個主要障礙是這個特徵工程步驟,它要求領域專家在進入培訓過程之前識別重要的訊號。特徵工程步驟非常手工,需要大量的領域專門知識,因此成為當今大多數機器學習任務的主要瓶頸。換句話說,如果我們沒有足夠的處理能力和足夠的資料,那麼我們必須使用低功耗/簡單的模型,這需要我們花大量的時間和精力來建立適當的輸入特性。這是大多數資料科學家花時間做的事情。


神經網路的迴歸

在2000年代早期,隨著大容量資料時代大量的細粒度事件資料的收集,隨著雲端計算和大規模並行處理基礎設施的進步,機器處理能力得到了極大的提高。我們不再侷限於低功耗/簡單的模型。例如,當今最流行的兩種主流機器學習模型是隨機森林和梯度增強樹。然而,儘管它們都非常強大,並提供非線性模型擬合訓練資料,資料科學家仍然需要仔細地建立功能,以達到良好的效能。

與此同時,電腦科學家重新使用了許多層的神經網路來完成這些人類模擬任務。這給新出生的DNN(深度神經網路)在影像分類和語音識別的任務提供了一個重大的突破。

DNN的主要區別是,你可以發出原訊號,(例如,RGB畫素值)直接到DNN沒有創造任何特定於域的輸入特徵。通過多層次的神經元(這就是為什麼它被稱為"深"的神經網路),能夠自動生成相應的功能,通過各層最後提供了一個很好的預測。這大大節省了"特徵工程"的努力,也是資料科學家遇到的一個主要瓶頸。

DNN也演變成許多不同的網路結構,所以我們美國有線電視新聞網(卷積神經網路),RNN(神經網路)、LSTM(長短期記憶)、GAN(生成對抗網路),遷移學習,注意模型…整個光譜被稱為"深度學習",這是當今全機器學習界關注的焦點。

強化學習

另一個關鍵的部分是如何模仿一個人(或動物)學習。想象一下感知/行為/獎賞週期的非常自然的動物行為。一個人或動物首先會通過感知他或她處於什麼狀態來理解環境。基於這一點,他或她會選擇一個"動作"把他或她帶到另一個"狀態",然後他或她會得到一個"獎勵",如此迴圈重複。

這種學習方法(稱為強化學習)與傳統的有監督機器學習的曲線擬合方法有很大的不同。特別是,強化學習的發生非常迅速,因為每一個新的反饋(如執行一個動作和獲得一個獎勵)立即被髮送來影響隨後的決定。強化學習已經獲得了巨大的成功在自動駕駛汽車以及AlphaGO(下棋機器人)。

強化學習也提供了一個平滑的預測和優化整合,因為它保持一個信念的當前狀態和可能的轉移概率時採取不同的行動,然後作出決定,哪些行動會帶來最好的結果。


深度學習+強化學習=人工智慧


與經典機器學習技術相比,深度學習提供了一個更強大的預測模型,通常能產生良好的預測。與經典的優化模型相比,強化學習提供了更快的學習機制,並且更適應環境的變化。

640?wx_fmt=jpeg

相關文章