下一個十年,AI將會有怎樣的趨勢

AI科技大本營發表於2019-02-28

未來十年,那些最強大的公司必將是現階段的創業公司。這些創業公司不僅擁有當下大型科技巨頭所不具備的特殊的資料集,並且還在利用這些資料集訓練自己的神經網路模型,使得產品的效能獲得了極大的提升。

八十年代是 PC(膝上型電腦)的時代,九十年代是網際網路的時代,2000年至今是智慧手機的時代。從現在起一直到未來十年,我們將逐漸邁入深度學習神經網路的時代。這種狀態將一直持續,直到下一個正規化轉變,大眾技術獲得突破。這種突破不僅僅是 AI 或機器學習方面的突破,具體來說,主要是指深度學習神經網路。如果你只能看一篇文章,那麼我建議你跳過這篇文章,直接閱讀連結中的這篇來自紐約時報的文章(https://www.nytimes.com/2016/12/14/magazine/the-great-ai-awakening.html),文章雖然很長,但是卻非常的詳細,主要討論的是下一個十年的重要的轉變趨勢。

下一個十年,AI將會有怎樣的趨勢

如果可以用數字化的形式來表示(例如影像),或者是像資料一樣從資料庫中獲取,那麼就會有大量的資料樣本用於深度神經網路的訓練。以下是其簡要概述:

人類大腦是如何學習的?

下一個十年,AI將會有怎樣的趨勢

人類大腦大約由1000億個神經元組成,神經元之間相互連線形成大約100萬億個突觸。對於特定的輸入,神經元要麼處於關閉狀態,要麼處於開啟的狀態。神經元之間的互連作用建立在積極強化的概念上——每組輸入對應特定的輸出,“大腦”會正確地記住該路徑,並且以關聯的方式進行“學習”。積極的反饋會被記住,相應地,連線之間也會起到相互促進的作用。隨著計算能力和其他研究在未來的進一步突破,也許在2030年將會出現更好的腦機介面技術或者其他相關的技術。當然,現在我們只能學習深度學習神經網路。所以,今天我們就來學習一下深度學習神經網路。

什麼是深度學習神經網路?

下一個十年,AI將會有怎樣的趨勢

從計算模型來講,深度神經網路就只是一個數學公式——這是現今模仿人類大腦功能的最佳相似模型,雖然沒有一個地方是非常接近的,因為人類的大腦比任何設計出來的機器大腦都更加複雜和強大。但是,我們能夠設計出一個僅僅擅長一項或者多項任務的神經網路,而且這個神經網路能在特定的任務中良好的學習,甚至比人類的表現更好,但是這並不是我們所理解的“智慧”。它不會將在某一個任務中學到的知識遷移到另一個任務中來使用。機器學習的應用是一種特殊的技術,目前已經從研究階段過渡到應用階段,任何人都可以去建立和訓練自己的神經網路模型。

深度學習神經網路如何學習?

下一個十年,AI將會有怎樣的趨勢

人工神經元(又稱感知器或者S形神經元等等)經設計已經應用於計算模型之中,該計算模型通過其所獲取的一組輸入資料和關鍵引數來構建模式匹配模型,並且形成一定的正反饋路徑,從而得到預期的輸出結果。例如,從一張圖片中識別出鍵盤的過程。圖片中最基本、最核心的元素是處於開啟或者關閉狀態的按鍵畫素點,這些畫素點非常小。然後,模式匹配模型會通過這些畫素點推匯出按鍵圖案。最後,模式匹配模型再通過其識別出的按鍵推匯出計算機鍵盤。

上述神經網路通過成千上萬個已經標記好的資料(這裡是鍵盤圖片)進行訓練,從而得到一個正反饋模型。訓練神經網路的資料質量越高,模型得到的效果也就越好。如果資料本身就存在一定的偏差,那麼訓練出的模型的識別系統仍將很差。這裡並沒有什麼“智慧”——系統只是具備了你教給它的一些功能而已。

下一個十年,AI將會有怎樣的趨勢

http://bit.ly/mentorcontest

為什麼現在是神經網路的時代?

大資料、機器學習和計算能力的顯著提高都是推動深度學習不斷髮展的關鍵因素。如果沒有訓練神經網路的資料,那麼就沒有 AI,更沒有什麼奇蹟可言。

雖然神經網路的概念已經存在了一段時間了,但是直到2012年,Geoffrey Hinton 等研究人員才讓神經網路又一次成為熱門的基礎研究。Google 率先進行了某些非常有意思的實驗,Google Brain 團隊將神經網路的理論轉換成了現實。先是“發現貓”的實驗演示,研究人員使用 YouTube 中貓的圖片去訓練神經網路模型,經過一段時間之後,模型竟然可以從沒有標記的資料中識別出“貓”的圖片。研究人員瞬間被震驚了。

Google翻譯——從規則表達模型轉換到深度神經網路模型

真正的轉折點發生在2016年11月,Google 將它們的翻譯模型從原來的規則表達模型轉換到了深度神經網路模型。新的模型能夠學習先前十多年的翻譯資料,翻譯效果要好得多。

下一個十年,AI將會有怎樣的趨勢

TensorFlow

同時,Google 還開源了自身產品使用的機器學習平臺,這個平臺叫做 TensorFlow。在 Google 提供的預先訓練好的深度學習模型的幫助下,任何人都能進行深度學習。一名日本的研究員曾使用 TensorFlow 讓機器實現了以下功能:根據黃瓜的外形,自動進行分類。之所以這樣做是因為他的父母都是農民,如果僱傭一名員工來分揀黃瓜,將會十分麻煩。

所有科技巨頭都對人工智慧進行了大量的投資

隨著 Google、微軟、Facebook、百度和其他科技巨頭研究水平的提高,肯定會誕生很多好的、技術過硬的產品,這些公司相當於我們這一代的“貝爾實驗室”。博士再次成為了熱門人選,我在一個關注深度學習的投資者的部落格中看到,一個剛剛畢業的深度學習博士生價值高達幾百萬美元。在紐約時報的文章中, Facebook 的執行長馬克·祖克伯親自花時間和深度學習領域的傑出人才見面。

投資者們已經為 AI 初創公司投資了10億多美元。

在哪裡會用到神經網路模型?

下一個十年,AI將會有怎樣的趨勢

其實,神經網路模型不但可以識別/分類目標,還可以進行預測。

例如,我們只能看到一張圖片的一部分,要把剩下的圖片補全。其中一個應用在 Google 的一個叫做 RAZR 的專案中被廣泛的測試應用。使用者先從手機上面下載一張低解析度的影像,然後通過機器學習把解析度提高,這能幫助我們節約很多流量。

那麼,我們是否也可以改善放射科醫生的診斷報告呢?比如,讓全國最好的放射科醫生提供最好的資料,然後用這些資料去訓練神經網路。接下來,這個神經網路模型就可以讀取你的報告,並且分析得到結果。這種服務,是不是會比單個放射科醫生給出的報告更加的好呢?或者更加的可靠

神經網路是否還能去規劃路線呢?比如,找到從點A到點B的最便利路徑。如果可以實現這個功能,那麼就能超越現在所有預設的地圖應用程式。事實上,Google 的 Waze 地圖應用已經積累了很多的使用者資料,這些資料可以用來訓練神經網路模型,從而給使用者提供更好的路線規劃。

在體育方面,我們可以讓神經網路“學習”競爭對手的視訊資料,幫助教練設計更好的訓練方案。

下一個十年,AI將會有怎樣的趨勢

如果結合 AR 技術,使用手機掃描餐桌上面的食物,你馬上就能知道桌上的食物是什麼,它們包含了哪些營養成分。這個功能可以幫助人們吃得更加健康。這樣一來,對食物過敏的人,可以吃的更加放心,因為平時根本不能100%的保證食品的安全。

下一個十年,AI將會有怎樣的趨勢

A picture of a bread analyzed and associated labels identified by a Google service

談談聊天機器人?

目前,人們對聊天機器人的熱情非常高。但是,目前的聊天機器人基本上都是一些面向使用者的介面產品。雖然,深度學習已經成為了自然語言處理的基礎,它會去推斷使用者在說些什麼,並且儘可能的像人類一樣做出答覆。但是真正的交易是神經網路從大量的資料中推匯出來的高質量的對話,而這些對話可以讓產品變得更加友好。這就好比麥當勞,即使你把選單做的比過去更加漂亮,更加友好,但是人們最關心的依舊是它的實際的產品——食物。利用深度學習可以讓產品變得越來越好——這會越來越有趣。

深度學習神經網路並不是一個時髦的東西,它其實很早就存在了,只是最近才從實驗室走出來,出現在消費者的面前,並且進入了一個快速增長的階段,滲透到了我們生活的方方面面。對於那些想要取得重大突破而又雄心勃勃的創業公司來說,深度學習神經網路沒有什麼捷徑。必須設計出自己特定的模型,更具體的說,就是讓科技巨頭很難複製自己的模型。

利用神經網路構建圖模型

下一個十年,AI將會有怎樣的趨勢

本章節是我比較喜歡的——對我來說,最有趣的事情之一就是在圖上進行神經網路的訓練。如果你的社交網路上有你的朋友 Mark,那麼你將非常有可能認識 Maria 和 Jenny,這會增強你的參與感,體驗過程也會更加愉悅。這個過程非常迷人,充滿了無盡的可能性。

AI 的下一步是什麼?

David Quail 在另外一個論壇中對本篇文章做出了相關的評論,因為我認為這個評論跟今天的文章非常相關,所以摘錄如下:

“深度神經網路是非常酷的,但是他們並不會自己向自己學習,然後去建立另一個機器。這就是深度學習(通常是指監督學習)所面臨的問題。深度神經網路需要一個老師。對於一個非常簡單的問題,深度神經網路需要一個人類專家告訴它們正確的答案,這個答案通常會有數百萬個或者數十億個。此種方法顯然非常有效。但是,這是一種機械的學習方法,深度神經網路不會對其進行擴充套件,因為它很難進行自我學習。

這就是為什麼人們對強化學習與深度學習的結合如此激動的原因。常規預測是基於經驗的學習,不需要人類專家反反覆覆(數百萬次甚至是數千萬次)告知系統正確的答案。

在今年的 NIPS 上,Facebook 的主管 Yann LeCun 曾談論 AI 的未來,包含許多重要核心的內容。如果你對這一領域感興趣,那麼快去學習吧。”

https://drive.google.com/file/d/0BxKBnD5y2M8NREZod0tVdW5FLTQ/view

在真實世界裡,AI 應當具備基本的“常識”,應當能夠預測諸如“視訊下幾個幀是什麼”這樣的問題。這將是一個新的機遇和挑戰,但是我不知道多久才能實現。

我認為,目前的深度學習神經網路已經足夠好了,即使它需要訓練一個非常大的資料集才能完成訓練過程,並且只能在某個特定的任務上面才能正常工作。我們需要通過大眾應用程式(例如,Waze 採用的方法)或者通過其他方式(比如,特定播放器或者團隊的體育視訊存檔)來提供大量的優質資料集。世界對於我們來說本來就是可視的——如果我們拍一張照片,我們可以把這張照片進行數字化處理,從而進行分析並訓練神經網路。有些創業公司已經開始去設計自己的特定的資料收集路線,並且把這些資料用於訓練自己的神經網路模型,向使用者提供更好的服務。這些公司在未來將會獲得更多的收益。

強化人類,而不是在職業上直接替換人類?

下一個十年,AI將會有怎樣的趨勢

在一個擁有70多億人口的地球上,人們的預期壽命比以往任何一個時候都要長。那麼,在我們改變對 AI 的態度之前,它還有多少進步空間呢?不管怎麼樣,我們都需要採取一些防範措施,防止大量失業現象。如果零售商、計程車司機、客服人員、教練、放射科醫生、甚至是藝術家等都被 AI 替代,因為 AI 能做的更好而且也更加便宜,那麼人類會做什麼工作來謀生呢?他們又需要什麼技能?

即使作為一個有些水平的計算機程式設計師和資料分析師——我也不能確定,在10年後,計算機程式設計師和資料分析師是否還是一個由人類工作的職業——如果能設計出一個神經網路,它就可以編寫更好的程式碼,並且其分析能力比我更好。因為我編寫程式碼和分析資料時都有一個特定的模式,AI 可以對我的工作進行分析,然後重新對自身進行程式設計,從而取代我的工作。而且,AI可以從不同的角度以更好的方式進行學習和預測。根據 WSJ 的這篇文章,即使讓 AI 自動編碼,管理世界上最大的對衝基金也不是問題。

下一個十年,AI將會有怎樣的趨勢

http://www.wsj.com/articles/the-worlds-largest-hedge-fund-is-building-an-algorithmic-model-of-its-founders-brain-1482423694

那麼,我該怎麼辦呢?或許是開始建立自己的大眾應用程式,獲取大量的資料(在還沒有人做的垂直領域上),構建自己的深度學習神經網路,並且把結果針對產品不斷進行反饋,不斷迭代更新。如果不這麼做,那麼就開個咖啡店或者什麼吧,因為在這些領域 AI 還不能很快地取代人力。但是如果人們剛剛因為 AI 失去了工作,那麼他們還會到你這邊來享受這些食物嗎?

你的計劃是什麼呢?

因為目前機器還不會思考,所以我的部落格還是安全的。雖然我相信,不久之後網際網路上就會出現很多機器人寫的內容(包括新聞,部落格之類的)。

接下來,是本文最好的部分:

AI軟體學習構建AI軟體

有一個有趣的轉折點——Google 的研究人員已經開始設計一種神經網路了,這種神經網路模型可以學習建立自己的神經網路模型,不依賴於人類專家。瞧,這是一個多麼令人興奮的未來啊!

下一個十年,AI將會有怎樣的趨勢

https://www.technologyreview.com/s/603381/ai-software-learns-to-make-ai-software/

人類將如何適應這樣的世界呢?或者說,是我們如何適應這樣的世界呢?我們會不會參與設計我們自己?有些人將其稱之為“人類的最後一個發明”。又或者,人工智慧會釋放我們人類,讓我們的大腦可以從事更高階的分析工作。這會是文藝復興的新時代嗎?

在幾年以後,某些機器學習演算法可能會閱讀到這篇部落格,並且會對這篇文章做出進行評價。這些演算法如果認為這是一篇優秀的文章,那麼會給予一些獎勵。但也有可能會是嘲笑或者譏諷吧。

參考

Learn TensorFlow and deep learning, without a Ph.D.

https://cloud.google.com/blog/big-data/2017/01/learn-tensorflow-and-deep-learning-without-a-phd

Deep Learning online book: http://neuralnetworksanddeeplearning.com/index.html

http://www.deeplearningbook.org/ — by IanGoodfellow and Yoshua Bengio and Aaron Courville

Matt Turck: Deep Learning VC

http://mattturck.com/2016/09/29/building-an-ai-startup/

AMA with Geoffrey Hinton on Reddit:

AMA Geoffrey Hinton from MachineLearning

Geoffrey Hinton’s Machine Learning course on Coursera:

https://www.coursera.org/learn/neural-networks

A CS PhD student at Stanford’s take on deeplearning: http://karpathy.github.io/neuralnets/

AMA with Google Brain team on Reddit:

AMA: We are the Google Brain team. We’d love to answer your questions about machine learning. from MachineLearning

Paper published by a Stanford University prof describing DeepLearning:

http://www.mitpressjournals.org/doi/pdf/10.1162/COLI_a_00239

https://cloud.google.com/blog/big-data/2016/08/how-a-japanese-cucumber-farmer-is-using-deep-learning-and-tensorflow

Graph Convolutional Networks:

https://tkipf.github.io/graph-convolutional-networks/

TensorFlow:

https://www.tensorflow.org/tutorials/

https://matthewearl.github.io/2016/05/06/cnn-anpr/

https://bamos.github.io/2016/08/09/deep-completion/

https://research.googleblog.com/2016/03/train-your-own-image-classifier-with.html

What’s Next in Computing?

本文作者 Varun 是華爾街一家創業公司的創始人,致力於大資料與神經網路的研究。

原文連結:

https://medium.com/@startuphackers/building-a-deep-learning-neural-network-startup-7032932e09c

相關文章