報告下載:新增199IT官方微信【i199it】,回覆關鍵詞【人工智慧之機器學習】即可
機器學習已經成為了當今的熱門話題,但是從機器學習這個概念誕生到機器學習技術的普遍應用經過了漫長的過程。在機器學習發展的歷史長河中,眾多優秀的學者為推動機器學習的發展做出了巨大的貢獻。
從 1642 年 Pascal 發明的手搖式計算機,到 1949 年 Donald Hebb 提出的赫布理論——解釋學習過程中大腦神經元所發生的變化,都蘊含著機器學習思想的萌芽。事實上, 1950 年圖靈在關於圖靈測試的文章中就已提及機器學習的概念。到了 1952 年, IBM 的亞瑟·塞繆爾(Arthur Samuel, 被譽為“機器學習之父”)設計了一款可以學習的西洋跳棋程式。塞繆爾和這個程式進行多場對弈後發現,隨著時間的推移, 程式的棋藝變得越來越好。塞繆爾用這個程式推翻了以往“機器無法超越人類,不能像人一樣寫程式碼和學習”這一傳統認識。並在 1956 年正式提出了“機器學習”這一概念。
本期的智慧內參,我們推薦清華人工智慧研究院的研究報告《人工智慧之機器學習》,從機器學習的發展史、技術特點、人才概況、行業應用和未來趨勢五大維度剖析機器學習技術。如果想收藏本文的報告(人工智慧之機器學習),可以在智東西(公眾號:zhidxcom)回覆關鍵詞“nc427”獲取。
什麼是機器學習?
對機器學習的認識可以從多個方面進行,有著“全球機器學習教父”之稱的 Tom Mitchell 則將機器學習定義為:對於某類任務 T 和效能度量 P,如果計算機程式在 T 上以 P衡量的效能隨著經驗 E 而自我完善,就稱這個計算機程式從經驗 E 學習。
普遍認為,機器學習(Machine Learning,常簡稱為 ML)的處理系統和演算法是主要通過找出資料裡隱藏的模式進而做出預測的識別模式,它是人工智慧(Artificial Intelligence,常簡稱為 AI)的一個重要子領域。
從機器學習發展的過程上來說,其發展的時間軸如下所示:
機器學習演算法可以按照不同的標準來進行分類。比如按函式 f (x, θ)的不同, 機器學習演算法可以分為線性模型和非線性模型;按照學習準則的不同,機器學習演算法也可以分為統計方法和非統計方法。但一般來說,我們會按照訓練樣本提供的資訊以及反饋方式的不同,將機器學習演算法分為監督學習、無監督學習和強化學習。
1980 年機器學習作為一支獨立的力量登上了歷史舞臺。在這之後的 10 年裡出現了一些重要的方法和理論,典型的代表是:分類與迴歸樹(CART, 1984) 、 反向傳播算(1986)、卷積神經網路(1989)。從 1990 到 2012 年,機器學習逐漸走向成熟和應用,在這 20 多年裡機器學習的理論和方法得到了完善和充實,可謂是百花齊放的年代。代表性的重要成果有:支援向量機(SVM, 1995) 、 AdaBoost 演算法(1997)、 迴圈神經網路和 LSTM(1997)、 流形學習(2000)、 隨機森林(2001) 。機器學習代表演算法包括:
1、 生成對抗網路及對抗機器學習
生成對抗網路(Generative Adversarial Networks, GAN) 是用於無監督學習的機器學習模型,由 Ian Goodfellow 等人在 2014 年提出, 由神經網路構成判別器和生成器構成,通過一種互相競爭的機制組成的一種學習框架, GAN 在深度學習領域掀起了一場革命。傳統的生成模型最早要追溯到 80 年代的 RBM,以及後來逐漸使用深度神經網路進行包裝的AutoEncoder, 然後就是現在稱得上最火的生成模型 GAN。
對抗機器學習是一個機器學習與電腦保安的交叉領域。對抗機器學習旨在給惡意環境下的機器學習技術提供安全保障。由於機器學習技術一般研究的是同一個或較為穩定的資料分佈,當部署到現實中的時候,由於惡意使用者的存在,這種假設並不一定成立。比如研究人員發現,一些精心設計的對抗樣本(adversarial example) 可以使機器學習模型失敗輸出正確的結果。針對模型的攻擊問題,我們主要分為兩大類,就是從訓練階段和推理(inference)階段來進行討論。
訓練階段的攻擊 。訓練階段的惡意攻擊(Training in Adversarial Settings) ,主要的目的就是針對模型的引數進行微小的擾動,從讓而模型的效能和預期產生偏差。這樣的行為主要是通過資料投毒來完成的。
推理階段的攻擊(Inference in Adversarial Settings) 。當訓練完成一個模型之後,這個模型就可以看做一個 BOX,那麼這個盒子中,對於我們如果是透明的話,我們就把它當成是“白盒”模型,如果這個盒子中,我們什麼都看不了,我們就把它當成“黑盒”模型。(我們在這個部分不討論灰盒模型)那麼針對白盒和黑盒的進攻手段自然是不同的,但是最終的目的都是希望能對模型的最終結果產生破壞,與預期脫離。其影響力以及攻擊的構造粒度也是有所不同的。
2、自動機器學習
自動機器學習(AutoML)旨在通過讓一些通用步驟(如資料預處理、模型選擇和調整超引數) 自動化,來簡化機器學習中生成模型的過程。AutoML 是指儘量不通過人來設定超引數,而是使用某種學習機制,來調節這些超引數。這些學習機制包括傳統的貝葉斯優化,多臂老虎機(multi-armed bandit),進化演算法,還有比較新的強化學習。自動機器學習不光包括大家熟知的演算法選擇,超引數優化,和神經網路架構搜尋,還覆蓋機器學習工作流的每一步。自動機器學習的用處就在於此,它幫助研究人員和從業者,自動構建機器學習管道,將多個步驟及其對應的多個選項整合為工作流,以期快速找到針對給定問題的高效能機器學習模型。AutoML 的基本過程如下圖所示:虛框是配置空間,包括特徵、超引數和架構;左邊訓練資料進入,上面的優化器和它相連,定義的測度發現最佳配置,最後出來的是模型;測試資料在模型中執行,實現預測的目的。
近日,在 ACM CHI 計算系統中人的因素會議上,麻省理工學院,香港科技大學和浙江大學的研究人員共同研發出一種工具,將 AutoML 方法的分析和控制權給到使用者手中。該工具名為 ATMSeer,它將 AutoML 系統、資料集和有關使用者任務的一些資訊作為輸入,然後在使用者友好型的介面內實現視覺化搜尋過程,介面中還能提供更多關於模型效能的資訊。
上圖是 ATMSeer 生成的一個使用者友好介面,顯示有關所選模型效能的深入資訊,以及可調整的演算法和引數的選項。對沒有 AutoML 經驗的機器學習專家的案例研究表明,讓使用者掌握控制權確實有助於提高 AutoML 應用的效能和效率。對生物學、金融等不同科學領域的 13 位研究生的研究也表明,確定使用者對 AutoML 的搜尋的自定義關鍵有三點:搜尋的演算法數量、系統執行時間以及查詢表現最好的模型。研究人員表示,這些資訊可用來為使用者量身定製系統。
3、可解釋性機器學習
可解釋性是指人類能夠理解決策原因的程度。機器學習模型的可解釋性越高,人們就越容易理解為什麼做出某些決定或預測。模型可解釋性指對模型內部機制的理解以及對模型結果的理解。其重要性體現在:建模階段,輔助開發人員理解模型,進行模型的對比選擇,必要時優化調整模型;在投入執行階段,向業務方解釋模型的內部機制,對模型結果進行解釋。比如基金推薦模型,需要解釋:為何為這個使用者推薦某支基金。
機器學習流程步驟:收集資料、清洗資料、訓練模型、基於驗證或測試錯誤或其他評價指標選擇最好的模型。第一步,選擇比較小的錯誤率和比較高的準確率的高精度的模型。第二步,面臨準確率和模型複雜度之間的權衡,但一個模型越複雜就越難以解釋。一個簡單的線性迴歸非常好解釋,因為它只考慮了自變數與因變數之間的線性相關關係,但是也正因為如此,它無法處理更復雜的關係,模型在測試集上的預測精度也更有可能比較低。而深度神經網路處於另一個極端,因為它們能夠在多個層次進行抽象推斷,所以他們可以處理因變數與自變數之間非常複雜的關係,並且達到非常高的精度。但是這種複雜性也使模型成為黑箱,我們無法獲知所有產生模型預測結果的這些特徵之間的關係,所以我們只能用準確率、錯誤率這樣的評價標準來代替,來評估模型的可信性。事實上,每個分類問題的機器學習流程中都應該包括模型理解和模型解釋。
4、 線上學習
傳統的機器學習演算法是批量模式的,假設所有的訓練資料預先給定,通過最小化定義在所有訓練資料上的經驗誤差得到分類器。這種學習方法在小規模規模上取得了巨大成功,但當資料規模大時,其計算複雜度高、響應慢,無法用於實時性要求高的應用。與批量學習不同,線上學習假設訓練資料持續到來,通常利用一個訓練樣本更新當前的模型,大大降低了學習演算法的空間複雜度和時間複雜度,實時性強。在大資料時代,大資料高速增長的特點為機器學習帶來了嚴峻的挑戰,線上學習可以有效地解決該問題,引起了學術界和工業界的廣泛關注。早期線上學習應用於線性分類器產生了著名的感知器演算法,當資料線性可分時,感知器演算法收斂並能夠找到最優的分類面。經過幾十年的發展,線上學習已經形成了一套完備的理論,既可以學習線性函式,也可以學習非線性函式,既能夠用於資料可分的情況,也能夠處理資料不可分的情況。下面我們給出一個線上學習形式化的定義及其學習目標。
根據學習器在學習過程中觀測資訊的不同,線上學習還可以再進一步分為:完全資訊下的線上學習和賭博機線上學習。前者假設學習器可以觀測到完整的損失函式,而後者假設學習器只能觀測到損失函式在當前決策上的數值,即, 以線上分類為例,如果學習器可以觀測到訓練樣本,該問題就屬於完全資訊下的線上學習,因為基於訓練樣本就可以定義完整的分類誤差函式;如果學習器只能觀測到分類誤差而看不到訓練樣本,該問題就屬於賭博機線上學習。由於觀測資訊的不同,針對這兩種設定的學習演算法也存在較大差異,其應用場景也不同。
5、 BERT
BERT 的全稱是 Bidirectional Encoder Representation from Transformers,即雙向 Transformer 的 Encoder。可以說是近年來自殘差網路最優突破性的一項技術了。BERT 主要特點以下幾點:
1) 使用了 Transformer 作為演算法的主要框架, Trabsformer 能更徹底的捕捉語句中的雙向關係;
2) 使用了 Mask Language Model(MLM) [14]和 Next Sentence Prediction(NSP) 的多工訓練目標;
3) 使用更強大的機器訓練更大規模的資料,使 BERT 的結果達到了全新的高度,並且Google 開源了 BERT 模型,使用者可以直接使用 BERT 作為 Word2Vec 的轉換矩陣並高效的將其應用到自己的任務中。
BERT 的本質上是通過在海量的語料的基礎上執行自監督學習方法為單詞學習一個好的特徵表示,所謂自監督學習是指在沒有人工標註的資料上執行的監督學習。在以後特定的NLP 任務中,我們可以直接使用 BERT 的特徵表示作為該任務的詞嵌入特徵。所以 BERT提供的是一個供其它任務遷移學習的模型,該模型可以根據任務微調或者固定之後作為特徵提取器。BERT 的原始碼和模型已經在 Github 上開源,簡體中文和多語言模型也已開源。
BERT 的網路架構使用的是“Attention is all you need”中提出的多層 Transformer 結構,其最大的特點是拋棄了傳統的 RNN 和 CNN,通過 Attention 機制將任意位置的兩個單詞的距離轉換成 1,有效的解決了 NLP 中棘手的長期依賴問題。Transformer 的網路架構如下圖所示, Transformer 是一個 encoder-decoder 的結構,由若干個編碼器和解碼器堆疊形成。下圖的左側部分為編碼器,由 Multi-Head Attention 和一個全連線組成,用於將輸入語料轉化成特徵向量。右側部分是解碼器,其輸入為編碼器的輸出以及已經預測的結果,由 Masked Multi-Head Attention, Multi-Head Attention 以及一個全連線組成,用於輸出最後結果的條件概率。
6、卷積與圖卷積
兩個函式的卷積,本質上就是先將一個函式翻轉,然後進行滑動疊加。在連續情況下,疊加指的是對兩個函式的乘積求積分,在離散情況下就是加權求和,為簡單起見就統一稱為疊加。教科書上一般定義函式 f, g 的卷積 f * g(n)如下:
從計算的方式上對公式進行的解釋為:先對 g 函式進行翻轉,相當於在數軸上把 g函式從右邊褶到左邊去,也就是卷積的“卷”的由來。然後再把 g 函式平移到 n,在這個位置對兩個函式的對應點相乘,然後相加,這個過程是卷積的“積”的過程。整體看來是這麼個過程:
翻轉→滑動→疊加→滑動→疊加→滑動→疊加
多次滑動得到的一系列疊加值,構成了卷積函式。卷積的“卷”,指的的函式的翻轉,從 g(t)變成 g(-t)的這個過程;同時,“卷”還有滑動的意味在裡面。如果把卷積翻譯為“褶積”,那麼這個“褶”字就只有翻轉的含義了。卷積的“積”,指的是積分/加權求和。對卷積的意義的理解如下:
1) 從“積”的過程可以看到,我們得到的疊加值,是個全域性的概念。以訊號分析為例,卷積的結果是不僅跟當前時刻輸入訊號的響應值有關,也跟過去所有時刻輸入訊號的響應都有關係,考慮了對過去的所有輸入的效果的累積。在影像處理的中,卷積處理的結果,其實就是把每個畫素周邊的,甚至是整個影像的畫素都考慮進來,對當前畫素進行某種加權處理。所以說,“積”是全域性概念,或者說是一種“混合”,把兩個函式在時間或者空間上進行混合。
2) 進行“卷”(翻轉)的目的其實是施加一種約束,它指定了在“積”的時候以什麼為參照。在訊號分析的場景,它指定了在哪個特定時間點的前後進行“積”,在空間分析的場景,它指定了在哪個位置的周邊進行累積處理。
要理解圖卷積網路的核心操作圖卷積,可以類比卷積在 CNN 的地位。如下圖所示,數字影像是一個二維的離散訊號,對數字影像做卷積操作其實就是利用卷積核(卷積模板)在影像上滑動,將影像點上的畫素灰度值與對應的卷積核上的數值相乘,然後將所有相乘後的值相加作為卷積核中間畫素對應的影像上畫素的灰度值,並最終滑動完所有影像的過程。
現實中更多重要的資料集都是用圖的形式儲存的,例如社交網路資訊、 知識圖譜、 蛋白質網路、 全球資訊網等等。這些圖網路的形式並不像影像,是排列整齊的矩陣形式,而是非結構化的資訊,那有沒有類似影像領域的卷積一樣,有一個通用的正規化來進行圖特徵的抽取呢?這就是圖卷積在圖卷積網路中的意義。對於大多數圖模型,有一種類似通式的存在,這些模型統稱圖卷積網路。因此可以說,圖卷積是處理非結構化資料的大利器,隨著這方面研究的逐步深入,人類對知識領域的處理必將不再侷限於結構化資料,會有更多的目光轉向這一存在範圍更加廣泛,涵蓋意義更為豐富的知識領域。
深度學習
深度學習是近 10 年機器學習領域發展最快的一個分支, 由於其重要性,三位教授(Geoffrey Hinton、 Yann Lecun、 Yoshua Bengio)因此同獲圖靈獎。深度學習模型的發展可以追溯到 1958 年的感知機( Perceptron)。1943 年神經網路就已經出現雛形(源自NeuroScience), 1958 年研究認知的心理學家 Frank 發明了感知機,當時掀起一股熱潮。後來 Marvin Minsky(人工智慧大師)和 Seymour Papert 發現感知機的缺陷:不能處理異或迴路等非線性問題,以及當時存在計算能力不足以處理大型神經網路的問題。於是整個神經網路的研究進入停滯期。
1、 深度學習近期重要進展
在過去幾年中,深度學習改變了整個人工智慧的發展。深度學習技術已經開始在醫療保健,金融,人力資源,零售,地震檢測和自動駕駛汽車等領域的應用程式中出現。至於現有的成果表現也一直在穩步提高。本小節將介紹深度學習近期的一些重要進展。
2018年三大進展:
BERT 模型 。BERT 的全稱是 Bidirectional Encoder Representation from Transformers,是基於深度雙向Transformer 的預訓練模型,能用所有層的上下文語境訓練深度雙向表徵。自 Google 在 2018年公佈 BERT 在 11 項 nlp 任務中的卓越表現後, BERT 就成為 NLP 領域大火的模型。
視訊到視訊合成(Video-to-Video Synthesis) 。 我們通常習慣由圖形引擎建立的模擬器和視訊遊戲進行環境互動。雖然令人印象深刻,但經典方法的成本很高,因為必須精心指定場景幾何、材料、照明和其他引數。一個很好的問題是:是否可以使用例如深度學習技術自動構建這些環境。NVIDIA 的研究人員解決了這個問題。他們的目標是在源視訊和輸出視訊之間提供對映功能,精確描繪輸入內容。作者將其建模為分佈匹配問題,其目標是使自動建立視訊的條件分佈儘可能接近實際視訊的條件分佈。為實現這一目標,他們建立了一個基於生成對抗網路(GAN)的模型。在 GAN 框架內的關鍵思想是,生成器試圖產生真實的合成資料,使得鑑別器無法區分真實資料和合成資料。他們定義了一個時空學習目標,旨在實現暫時連貫的視訊。
圖網路(Graph Network) 。 DeepMind 聯合谷歌大腦、MIT 等機構 27 位作者發表重磅論文“Relational inductive biases, deep learning, and graph networks”,提出“圖網路”(Graph network),將端到端學習與歸納推理相結合,有望解決深度學習無法進行關係推理的問題。作者認為組合泛化是人工智慧實現與人類相似能力的首要任務,而結構化表示和計算是實現這一目標的關鍵,實現這個目標的關鍵是結構化的表示資料和計算。該論文討論了圖網路如何支援關係推理和組合泛化,為更復雜的、可解釋的和靈活的推理模式奠定基礎。
2019年三大進展:
XLNet 模型 。XLNet 是 CMU 與谷歌大腦提出的全新 NLP 模型,在 20 個任務上超過了 BERT 的表現,並在 18 個任務上取得了當前最佳效果,包括機器問答、自然語言推斷、情感分析和文件排序。
MoCo 。何愷明在其工作“Momentum Contrast for Unsupervised Visual Representation Learning”中提出了動量對比度(MoCo)用於無監督的視覺表示學習。 從作為字典查詢的對比學習的角度來看,作者構建了一個帶有佇列和移動平均編碼器的動態字典。這樣就可以實時構建大型且一致的詞典,從而促進對比性的無監督學習。 MoCo 在 ImageNet 分類的通用線性協議下提供了競爭性的結果。更重要的是, MoCo 學習到的表示將轉移到下游任務。 MoCo 可以勝過在 PASCAL VOC, COCO 和其他資料集上進行監督的預訓練對等任務中的檢測/細分任務,有時會大大超過它。這表明在許多視覺任務中,無監督和有監督的表徵學習之間的鴻溝已被大大消除。
DL System 2 。 Yoshua Bengio在NeuIPS 2019上的報告“FROM SYSTEM 1 DEEP LEARNING TO SYSTEM2 DEEP LEARNING”討論了深度學習發展的方向,引起了廣泛關注, 清華大學的唐傑教授對其進行了深度解讀。
人才
1、 學者情況概覽
學者地圖用於描述特定領域學者的分佈情況,對於進行學者調查、分析各地區競爭力現況尤為重要,下圖為機器學習領域全球學者分佈情況:
地圖根據學者當前就職機構地理位置進行繪製,其中顏色越深表示學者越集中。從該地圖可以看出,美國的人才數量遙遙領先且主要分佈在其東西海岸;歐洲中西部也有較多的人才分佈;亞洲的人才主要分佈於我國東部及日韓地區;其他諸如非洲、南美洲等地區的學者非常稀少;機器學習領域的人才分佈與各地區的科技、經濟實力情況大體一致。此外,在性別比例方面,機器學習領域中男性學者佔比 89.8%,女性學者佔比 10.2%,男性學者佔比遠高於女性學者。
h-index 分佈 。機器學習學者的 h-index 分佈如下圖所示,大部分學者的 h-index 都在 30 以上,其中 hindex 小於 30 的人數最多,有 591 人, 佔比 29.1%。
我國專家學者在機器學習領域的分佈如上圖所示。通過上圖我們可以發現,京津地區在本領域的人才數量最多,其次是長三角和珠三角地區,相比之下,內陸地區的人才較為匱乏,這種分佈與區位因素和經濟水平情況不無關係。同時,通過觀察中國周邊國家的學者數量情況,特別是與日韓、東南亞等亞洲國家相比,中國在機器學習領域學者數量較多。
中國與其他國家在機器學習的合作情況可以根據 AMiner 資料平臺分析得到,通過統計論文中作者的單位資訊,將作者對映到各個國家中,進而統計中國與各國之間合作論文的數量,並按照合作論文發表數量從高到低進行了排序,如下表所示。
從上表資料可以看出,中美合作的論文數、引用數、平均引用數、學者數遙遙領先,表明中美間在機器學習領域合作之密切;從地域角度看,中國與歐洲的合作非常廣泛,前 10名合作關係裡中歐合作共佔 4 席;中國與印度合作的論文數雖然不是最多,但是平均引用數依然位列第二,說明在合作質量上中印合作也達到了較高的水平。
行業應用
1、 金融行業應用
欺詐檢測 。使用機器學習進行欺詐檢測時,先收集歷史資料並將資料分割成三個不同的部分,然後用訓練集對機器學習模型進行訓練,以預測欺詐概率。最後建立模型,預測資料集中的欺詐或異常情況。與傳統檢測相比,這種欺詐檢測方法所用的時間更少。由於目前機器學習的應用量還很小,仍然處於成長期,所以它會在幾年內進一步發展,從而檢測出複雜的欺詐行為。
股票市場預測 。當今,股票市場儼然已成為大家關注的熱點, 但是,如果不瞭解股票運作方式和當前趨勢,要想擊敗市場則非常困難。隨著機器學習的使用,股票預測變得相當簡單。這些機器學習演算法會利用公司的歷史資料,如資產負債表、損益表等,對它們進行分析,並找出關係到公司未來發展的有意義的跡象。
財資部(Treasury) /客戶關係管理(CRM) /現貨交易(Spot Transactions) 。客戶關係管理(CRM)在小額銀行業務中佔有十分突出的地位,但在銀行內部的財資空間卻沒什麼作用。因為財資部有自己的產品群,如外匯、期權、掉期交易(Swaps)、遠期交易(Forwards)以及更為重要的現貨交易(Spots)。線上交易需要結合這些產品的複雜程度、客戶風險、市場與經濟行為以及信用記錄資訊,這對銀行來說幾乎是一個遙遠的夢想。
聊天機器人/私人財務助理 。聊天機器人可以擔當財務顧問,成為個人財務指南, 可以跟蹤開支,提供從財產投資到新車消費方面的建議。財務機器人還可以把複雜的金融術語轉換成通俗易懂的語言,更易於溝通。一家名為 Kasisto 的公司的聊天機器人就能處理各種客戶請求,如客戶通知、轉賬、支票存款、查詢、常見問題解答與搜尋、內容分發渠道、客戶支援、優惠提醒等。
2、自動駕駛
將汽車內外感測器的資料進行融合,藉此評估駕駛員情況、進行駕駛場景分類,都要用到機器學習。自動駕駛汽車的設計製造面臨著諸多挑戰,如今,各大公司已經廣泛採用機器學習尋找相應的解決方案。汽車中的 ECU(電子控制單元)已經整合了感測器資料處理,如何充分利用機器學習完成新的任務,變得至關重要。潛在的應用包括將汽車內外感測器的資料進行融合,藉此評估駕駛員情況、進行駕駛場景分類。這些感測器包括像鐳射雷達,雷達,攝像頭或者是物聯網。
車載資訊娛樂系統所執行的應用,能從感測器資料融合系統中獲取資料。舉個例子,如果系統察覺駕駛員發生狀況,有能力把車開到醫院。基於機器學習的應用,還包括對駕駛員的語言和手勢識別以及語言翻譯。相關的演算法被分類為非監督和監督演算法。它們兩者的區別在於學習的方式。
在自動駕駛汽車上,機器學習演算法的一個主要任務是持續渲染周圍的環境,以及預測可能發生的變化。這些任務可以分為四個子任務:目標檢測、 目標識別或分類、 目標定位、 運動預測。
機器學習演算法可以簡單地分為 4 類:決策矩陣演算法、聚類演算法、模式識別演算法和迴歸演算法。可以利用一類機器學習演算法來完成兩個以上的子任務。例如,迴歸演算法能夠用於物體定位和目標識別或者是運動預測。
3、 健康和醫療
為了更好地瞭解人工智慧和機器學習正如何改變醫療保健行業, 我們通過一些具體案例,並且這些案例可以有力證明這些前沿技術的實用價值。
判斷髮展中國家的結核病情況。識別影像中的模式(Pattern)是現有人工智慧系統中最強有力的一點,研究人員現在正在訓練人工智慧檢查胸部 x 光片, 識別結核病。這項技術可以為缺乏放射學家的結核病流行地區帶來有效的篩查和評估手段。
一種治療退伍軍人創傷後應激障礙(PTSD) 的人工智慧 。退伍軍人創傷後成長計劃與 IBM Watson 合作使用人工智慧和分析技術,以確保更多患有創傷後應激障礙的退伍軍人能夠完成心理治療。使用這些技術,他們的完成率從不到 10%上升到 73%。根據退伍軍人事務部的統計, 80%的患有創傷後應激障礙的退伍軍人在確診後一年內完成治療計劃,然後康復。 在 300 萬阿富汗和伊拉克戰爭老兵中,大約五分之一患有創傷後應激障礙。
檢測腦出血 。以色列醫療技術公司 MedyMatch 和 IBM Watson Health 正在使用人工智慧,通過檢測顱內出血,幫助醫院急診室的醫生更有效地治療中風和頭部外傷患者。 AI 系統使用臨床洞察力(clinical insight)、深度學習、患者資料和機器視覺來自動標記潛在的腦出血,以供醫生檢查。
優化管理工作流程並消除等待時間。行政和助理工作是 AI 起作用的主要領域。埃森哲表示,語音到文字轉錄等省時的工作流功能有可能替代為醫療專業人員訂購測試和處方以及在圖表中寫筆記等任務—任何涉及非患者護理的任務。這相當於節省了 17%的醫生工作時間和 51%的註冊護士工作時間。
檢測阿爾茨海默病 。現在,人工智慧機器人只需要不到一分鐘的時間,就可以根據語音模式和聲音來診斷阿爾茨海默氏病,準確率達到 82%,而且這種準確率還在不斷提高。人工智慧系統可以處理單詞之間的停頓長度、處理代詞優於專有名詞的任何偏好、處理過於簡單的描述以及語音訊率和幅度的變化。所有這些因素對於人類聽眾來說都很難高精度地記錄和檢測,但人工智慧系統卻能夠進行客觀和可量化的分析。
癌症診斷 。用於檢測和診斷癌症的傳統方法包括計算機斷層掃描(CT) 、磁共振成像(MRI) 、超聲和 X 射線。不幸的是,許多癌症無法通過這些技術得到足夠準確的診斷,從而可靠地挽救生命。微陣列基因圖譜的分析是一種替代方法,但這項技術需要計算很多小時,除非這項技術可以使用 AI 替換。現在已經被證明,史丹佛大學的人工智慧診斷演算法與由 21 名經委員會認證的皮膚科醫生的團隊一樣有效地從影像中檢測潛在的皮膚癌。 Startup Enlitic 正在使用深度學習來檢測 CT 影像中的肺癌結節,其演算法比作為一個團隊工作的專家胸科醫生的準確率高 50%。
機器人輔助手術 。 在價值潛力方面,機器人輔助手術是人工智慧輔助方向的佼佼者。AI-enabled 機器人技術可以通過整合實時操作矩陣、來自實際手術醫生的資料以及來自手術前病歷的資訊來提高和指導手術器械的精度。事實上,埃森哲報告說,人工智慧機器人技術帶來的進步縮短了 21%的停留時間。
4、 零售業
IDC 副總裁 Ivano Ortis 最近分享了他的觀點“人工智慧將把分析帶到一個新的水平,並將成為零售創新的基礎,這已經得到了全球半數零售商的認可。人工智慧可以實現規模化、自動化和前所未有的精度,當適用於超細微客戶細分和上下文互動的時候,可推動客戶體驗”。
鑑於人工智慧和機器學習的能力,很容易看到人工智慧和機器學習是如何成為零售商強大的工具。現在,計算機可以讀取、傾聽和了解資料,從資料中進行學習,立即且準確地推薦下一個最佳動作,而不需要明確的程式設計。這對那些希望能夠準確預測需求、預期客戶行為、優化和個性化客戶體驗的零售商來說是一個福音。
零售商正在通過機器學習結合物聯網技術來預測需求,優化商店業務並減輕員工負擔。
基於店內攝像頭檢測提供個性化的廣告,承擔店員部分的半手動的、通過在平板電腦或者觸屏終端裝置檢視客戶的消費記錄。
零售商可以監控排隊結賬的等候時間,以瞭解個別店面的流量和商店銷售效率,然後進行分類和調整店面佈局來實現購物籃、滿意度和銷售的最大化。
系統現在可以通過把計劃調整為按需活動,來識別和預測客戶行為,改善員工生產效率。
攝像頭系統可以在店內員工之前檢測易腐產品的新鮮狀態。
實體店正在實現很多操作任務的自動化,例如設定貨架定價,確定產品分類和混合,優化促銷等。
店內應用可以顯示客戶在特定通道停留了多長時間,根據個人消費記錄和偏好資料,提供有針對性的優惠和建議(通過他/她的移動裝置) 。
機器學習可以幫助減輕推動利用可用資料所需的分析任務。當部署了一個全公司範圍的、實施的分析平臺時,這將成為所有公司職能優化決策所依賴的事實來源。
5、 製造業
與自動駕駛汽車一樣,隨著物聯網的發展,製造業企業可以從安置在生產線各環節的感測器收集大量的生產資料。
然而,這些資料並沒有被充分利用。隨著從複雜系統收集到眾多引數的資料,資料分析變成了一項艱鉅的任務。機器學習在製造業中的最大應用將是異常檢測。
據統計,到 2030 年,全球的淡水需求預計將超過供應近 40%。為協助各企業實現淨零水迴圈使用的目標,美國水處理公司 Ecolab(藝康集團)正通過包括 Azure 和 Dynamics CRM Online 在內的微軟雲平臺幫助全球企業實現可持續運營。
與全球各地數以千計感測器相連的雲平臺能收集實時用水資料,並通過機器學習和商業智慧分析全球各地的生產用水運營解決方案,不僅提高效率,還能降低水、能源消耗及運營成本。
儘管在這個領域之前已經進行過一些分析嘗試,未來將會有更多機器學習通過監督學習和建模來預測風險和失敗。
此外, 機器學習也將推動工業自動化的實現,通過觀察生產線和資料流來學習,並能夠精確優化生產過程,降低生產成本,加快生產週期,從而節省人工分析資料的時間成本和資金成本。
趨勢
技術趨勢分析描述了技術的出現、變遷和消亡的全過程,可以幫助研究人員理解領域的研究歷史和現狀,快速識別研究的前沿熱點問題。圖中每條色帶表示一個話題,其寬度表示該術語在當年的熱度,與當年該話題的論文數量呈正相關, 每一年份中按照其熱度由高到低進行排序。通過技術趨勢分析可以發現當前該領域的熱點研究話題 Top10 是:Neural Network、 Machine Learning、 Deep Neural Networks、 Deep Learning、Support Vector Machine、 Reinforcement Learning、 Feature Selection、 Deci Tree、 Data Mining、Artificial Neural Network。
根據技術趨勢分析我們可以發現, 該領域當前最熱門的話題是 Neural Network,從全域性熱度來看, Neural Network 一直保持著較高的話題熱度, 2002-2006 年期間保持著最高的熱度並於 2018 年重登榜首。
智東西認為, 機器學習的處理系統和演算法是主要通過找出資料裡隱藏的模式進而做出預測的識別模式,是人工智慧的一個重要子領域。 雖然機器學習只是人工智慧的一個子集,但近些年機器學習技術的火爆,機器學習依然成為人工智慧的代名詞。 在過去幾年中,包括深度學習在內的機器學習改變了整個人工智慧的發展,在金融、自動駕駛、醫療、零售和製造業等行業已經開始產生了重要影響,按照現在的趨勢,幾年後以機器學習為代表的人工智慧技術就將給人類社會帶來一場廣泛而深刻的變革。
報告下載:新增199IT官方微信【i199it】,回覆關鍵詞【人工智慧之機器學習】即可