人工智慧簡介 - kdnuggets

banq發表於2020-10-29

介紹了AI的關鍵概念和方法,涵蓋了機器學習和深度學習,並提供了包括Narrow AI,Super Intelligence和Classic AI在內的最新廣泛列表,以及NeuroSymbolic AI,Neuroevolution和Federated的最新思想學習。
 

什麼是人工智慧(AI)
AI致力於開發能夠執行人類非常擅長的任務的計算機系統,例如識別物件,識別語音並在受限的環境中進行決策。

  • 狹窄的AI: 機器設計為執行單個任務的AI領域,並且機器非常擅長執行特定任務。但是,一旦對機器進行了培訓,它就不會泛化到看不見的領域。這就是我們今天擁有的AI形式,例如Google Translate。
  • 通用人工智慧(AGI): 一種AI的形式,可以完成人類可以完成的任何智力任務。它更具意識,並且做出的決策與人類做出決策的方式相似。目前,AGI仍然是一種願望,其預測範圍從2029年到2049年,甚至永遠不會出現。它可能會在未來20年左右的時間內問世,但是它面臨著與硬體,當今功能強大的機器所需的能源消耗以及解決影響甚至當今最先進的深度學習演算法的災難性記憶體丟失的需求有關的挑戰。
  • 超級情報: 是一種超越人類在所有領域(如尼克·博斯特羅姆所定義)的效能的情報。這指的是諸如一般智慧,解決問題和創造力之類的方面。
  • 古典人工智慧: 是演算法和方法,包括基於規則的系統,需要進行不知情搜尋的搜尋演算法(廣度優先,深度優先,通用成本搜尋),以及有根據的搜尋,例如A和A *演算法。這些為如今更適合大型搜尋空間和大資料集的更高階方法奠定了堅實的基礎。它還需要邏輯方法,包括命題和謂詞演算。儘管此類方法適用於確定性方案,但現實世界中遇到的問題通常更適合於機率方法。

近年來,該領域在各個領域都產生了重大影響,包括醫療保健,金融服務,零售,市場營銷,運輸,安全,製造和旅行等領域。
隨著網際網路,智慧移動裝置和社交媒體的到來,大資料的出現使AI演算法(尤其是來自機器學習和深度學習的AI演算法)能夠利用大資料並更最佳化地執行其任務。這與更便宜,更強大的硬體(例如圖形處理單元(GPU))相結合,使AI能夠發展成為更復雜的架構
  

機器學習
機器學習定義為AI領域,它應用統計方法使計算機系統能夠從資料中學習以達到最終目標。這個術語是1959年由亞瑟·塞繆爾(Arthur Samuel)提出的。
關鍵術語:

  • 特徵/屬性:這些特徵/屬性用於以演算法可以理解和處理的形式表示資料。例如,影像中的特徵可以表示邊緣和拐角。
  • 熵:隨機變數中的不確定性量。
  • 資訊獲取:由於某些先驗知識而獲得的資訊量。
  • 監督學習:一種學習演算法,可以處理帶有標籤(帶註釋)的資料。例如,學習將帶有標籤影像的水果分類為蘋果,橙子,檸檬等。
  • 無監督學習:一種學習演算法,用於發現隱藏在未標記(帶註釋)的資料中的模式。一個示例是將客戶細分為不同的叢集。
  • 半監督學習:僅當一小部分資料被標記時的一種學習演算法。
  • 主動學習 涉及一種演算法可以主動向老師詢問標籤的情況。詹妮弗·普倫奇Jennifer Prendki) 將其定義 為“ ...一種半監督學習(同時使用標記和未標記的資料)...主動學習是指在訓練階段對資料進行增量和動態標記以允許演算法以確定哪種標籤最有資訊,以便更快地學習。”
  • 損失函式:是地面實際情況與演算法所學知識之間的差異。在機器學習中,目標是最小化損失函式,以便演算法可以繼續推廣並在看不見的情況下執行。

(深度學習方法見原文)
 

深度學習
深度學習是指具有多個隱藏層的神經網路領域。這樣的神經網路通常被稱為深度神經網路。
當今使用的幾種主要的深度神經網路型別是:

  • 卷積神經網路(CNN): 卷積神經網路是一種使用卷積以分層方式從輸入資料中提取模式的神經網路。它主要用於具有空間關係的資料,例如影像。在核心上滑動卷積的卷積操作提取與任務相關的功能。
  • 遞迴神經網路(RNN): 遞迴神經網路,尤其是LSTM,用於處理順序資料。時間序列資料(例如,股票市場資料,語音,來自感測器的訊號以及能源資料)具有時間依賴性。LSTM是一種更有效的RNN型別,可以緩解梯度消失的問題,使它能夠在短期和歷史上都記住。
  • 受限玻爾茲曼機(RBM): 基本上是一種具有隨機屬性的神經網路。使用稱為“對比發散”的方法訓練受限的玻爾茲曼機。訓練後,隱藏層就是輸入的潛在表示。RBM學習輸入的機率表示。
  • 深度信仰網路: 由受限的玻爾茲曼機器組成,每層充當下一層的可見層。在向網路新增其他層之前,對每個層進行了培訓,這有助於機率地重建輸入。使用分層的無監督方法來訓練網路。
  • 可變自動編碼器(VAE):是自動編碼 器的改進版,用於學習輸入的最佳潛在表示形式。它由具有損耗功能的編碼器和解碼器組成。VAE使用機率方法,並在潛在的高斯模型中引用近似推斷。
  • GAN: 生成對抗網路是一種使用生成器和鑑別器的CNN。生成器連續生成資料,同時鑑別器學會從真實資料中鑑別出偽造品。這樣,隨著訓練的進行,生成器將不斷地擅長於生成看起來真實的偽造資料,而鑑別器則能夠更好地學習偽造與真實之間的區別,進而幫助生成器進行自我改進。經過培訓後,我們便可以使用生成器生成看起來真實的偽造資料。例如,在面部受過訓練的GAN可用於生成不存在且看起來非常真實的面部影像。
  • 變壓器transformer:開發用於處理順序資料,尤其是在自然語言處理(NLP)領域中,具有文字資料任務,例如語言翻譯。該模型於2017年在題為“注意就是你所需要的一切”的論文中引入“ Transformer模型的體系結構需要編碼器和解碼器的應用,以及涉及到注意輸入序列各個位置然後生成序列表示的能力的自我關注。它們比RNN具有以下優勢:他們不需要按順序處理順序資料的事實,這意味著在句子的情況下,不需要在句子的結尾之前就開始句子的處理,眾所周知的Transformer模型包括雙向編碼器表示法來自Transformers(BERT)和GPT變體(來自OpenAI)。
  • 深度強化學習: 深度強化學習演算法可處理對以儘可能最佳方式學習與環境互動的代理進行建模的過程。代理會持續採取行動,牢記目標,環境會分別獎勵或懲罰代理採取好或壞的行動。這樣,代理就學會以最佳方式行事,從而達到目標。DeepMind的AlphaGo是代理人如何學會玩圍棋遊戲並能夠與人類競爭的最好例子之一。
  • Capsules:仍然是研究的活躍領域。眾所周知,CNN可以學習通常無法解釋的資料表示。另一方面,已知Capsules網路會從輸入中提取特定種類的表示形式,例如,它保留了物件部分之間的分層姿勢關係。Capsules網路的另一個優點是,它能夠以比CNN所需要的資料少的資料來學習表示。
  • 神經進化: 由肯尼斯·斯坦利Kenneth O. Stanley)定義  為,“除試圖在計算機內部之外,試圖觸發類似於人類大腦的進化過程。換句話說,神經進化試圖透過進化來發展神經網路的手段。進化演算法。” Uber實驗室的研究人員認為,神經進化 方法與基於梯度下降的深度學習演算法相比具有競爭優勢,部分原因是被困在區域性極小值中的可能性降低了。 斯坦利等。表示:“我們的希望是激發人們對該領域的新興趣,因為它可以滿足當今日益增長的計算潛力,並著重強調其許多思想可以為深度學習,深度強化學習和機器學習社群,並解釋在長期追求人工智慧方面神經進化如何被證明是至關重要的工具。”
  • NeuroSymbolic AI:由MIT-IBMWatsonAILab定義  為AI方法的融合,這些方法結合了神經網路,這些神經網路從原始資料檔案(例如,有關影像和聲音檔案的上下文)中提取統計結構以及問題和邏輯的符號表示。“透過融合這兩種方法,我們正在構建一類新的AI,它將比其各個部分的總和強大得多。這些神經符號混合系統需要較少的訓練資料並跟蹤進行推理和得出結論所需的步驟他們還可以更輕鬆地跨域傳輸知識。我們相信,這些系統將迎來AI的新時代,在該時代,機器可以透過將單詞與影像聯絡在一起並掌握抽象概念來像人類一樣學習更多。”
  • 聯合學習:也稱為 協作學習, 在Wikipedia中被定義 為機器學習中的一種技術,它使演算法可以在許多本地分散有資料而無需交換資料的分散伺服器(或裝置)上進行訓練。 差異隱私 旨在透過測量聯合學習各要素之間通訊中的隱私損失來增強資料隱私保護。該技術可以應對與異構資料相關的資料隱私和安全性的關鍵挑戰,以及影響領域,例如物聯網(IoT),醫療保健,銀行,保險以及其他領域,其中資料隱私和協作學習至關重要,並且隨著AI IoT規模的擴大,它很可能成為5G和邊緣計算時代的一項關鍵技術。