不久我們將不用計算機程式設計,只需像狗一樣訓練它們

banq發表於2016-05-25
這是一篇有關人的大腦與人工智慧之間關係的思考文章,雖然標題有點忽悠,但是涉及的一些觀點和知識還是值得一看。

計算機發明之前,大多數實驗心理學家認為大腦是一個不可知的黑盒子,可以分析出物件的行為比如狗聽到響鈴流口水等此類條件反射現象,但是對於記憶情緒等卻很模糊難以測量,這些超出了科學的範疇,因此這些自稱行為主義者一直在進行刺激反應 反饋和強化等條件反射的研究工作,他們放棄試圖瞭解頭腦的內部運作原理的努力,這種方式統治了四十年之久。

然而,在50年代中期,一群叛逆的心理學家、語言學家和資訊理論家和早期人工智慧研究人員提出了關於大腦的不同概念,他們認為大腦不只是條件反射的集合,它們會吸取資訊、處理資訊,然後根據處理結果採取行動,它們會有系統的寫入儲存和呼叫記憶,它們會透過邏輯和形式語法進行操作,大腦不是什麼都沒有的黑盒子,它更像是一臺電腦。

這就是所謂的認知革命,隨著計算機在心理學實驗室成為標準裝置,它獲得了廣泛的認可,到了70年代後期,認知心理學推翻了行為主義,並以一個全新的語言體系談論精神生活。

隨著數字革命滲透到我們生活每個部分,在早期科學啟蒙時代,牛頓和笛卡爾啟發人們將宇宙作為一個精心製作的時鐘來思考,而在工業時代,它是一個帶有活塞的有能量的機器(心理學大師弗洛伊德的思路就是從蒸汽機的熱力學借鑑而來),現在大腦被看成是一臺電腦,而整個世界都是依靠人腦去認識的,那麼人腦是一臺電腦,那麼整個世界就是可以被編碼的。

程式碼必須是合乎邏輯,程式碼也會被破解,程式碼就是命運,這是數字時代的核心原則,Facebook的祖克伯認為:在人類關係的表象下面是底層的數學法則左右著人與他們關心的事情, 2013年Craig Venter宣佈在人類基因破解後的十年將允許人類創造人造生命,這個星球上生命是DNA軟體驅動的生物機器,你可以修改你自己的原始碼,對你的生活熱愛 睡眠習慣和消費習慣重新程式設計。

在這個世界上,寫程式碼的能力已經不只是一個理想的職業技能,變成權力的槓桿,如果你控制了程式碼,你就控制了世界。

但是,過去幾年,谷歌等人工智慧公司尋求一種機器學習的新方法,在傳統的程式設計中,工程師必須明確地寫明一道道指令,計算機嚴格遵循執行,隨著機器學習發展,編碼人員不需要這麼明確指令對計算機命令了,反而是他們訓練它們,如果你想教神經網路識別貓,那麼,你不是告訴它來尋找鬍子 耳朵 皮毛和眼睛,你只需要展示給它看成千上萬個貓的照片即可,如果它將狐狸錯誤劃分為貓,你不必重新編寫程式碼,你只要繼續保持訓練即可。

這種做法不新鮮,已經存在了幾十年,最近變得更加強大,歸功於深層神經網路的興起,它是模仿大腦神經元多層連線大規模分佈的計算機系統,Facebook使用它來決定哪些新聞資訊顯示給你看,谷歌用它來識別人臉,微軟Skype用來實時翻譯不同語言,自動駕駛汽車使用機器學習避免意外,即時谷歌的搜尋引擎,這麼多人編寫了如同高聳大樓的規則系統,也已經開始依賴這些深層神經網路,該公司已發起重大計劃使用新技術再培訓這些工程師,透過建立學習制度,今年秋天,谷歌將不必再人工編寫這些搜尋引擎規則了。

問題是,隨著機器學習發展,工程師卻從來不知道電腦是如何完成其任務的,神經網路的運作很大程度上是不透明,是莫測的,換言之,它就是一個黑盒子,隨著這些黑盒子承擔更多日常數字化任務,它不僅會改變我們的技術,還會改變我們如何看待自己,以及它裡面的我們的世界,我們身處何方?

如果說,舊時代的程式設計師像神,創造和支配計算機系統的規則法律,現在他們需要像父母或訓狗師,人與電腦之間這樣一個更加神秘的關係即將出現。

安迪·魯賓是安卓系統的共同創造者,他說:我進入電腦科學時候很年輕,我喜歡它,因為我可以投身並忘我地消失在計算機世界中,它是一個乾淨石板,一個空白的畫布,我可以從頭開始建立任何東西,很多年這給了我完整的控制感。

現在這個世界即將結束,魯賓投身於新的機器學習公司,因為機器學習將改變一個軟體工程師的定義。魯賓說:比如一個神經網路學會語言識別,程式設計師總不能進去看看這種識別是如何發生的?就像你不能劈開你的大腦看看你在想什麼一樣,當更多軟體工程師進入了深層次神經網路,他們看到的是數字的海洋,一個個巨大的多層次的微積分問題,不斷在數十億資料關係點之間進行推導,產生對世界的猜測。

幾年前,主流的AI研究人員還認為人工智慧不應該以這種方式工作,他們認為應該創造智慧,灌輸機器以正確的邏輯,編寫足夠的規則,最終我們會創造出足夠複雜能夠了解世界的系統,他們蔑視現在的這種機器學習為資料絞肉機,由於電腦沒有強大到足以真正證明這兩種方法的優劣,所以這成為哲學爭論之一,大部分這種爭論是基於對世界是如何組織以及大腦如何工作的分歧之上的,創造了谷歌自動駕駛 前史丹佛大學人工智慧教授塞巴斯蒂安史朗說:神經網路沒有符合和規則,只有數字。它對人類並不友好,是不合群的。

一個不可分析的機器語言的意義不只是對哲學符號學等研究的衝擊,而且對人才就業體系也形成衝擊,過去孩子家長將他們送到專業計算機院校學習就能找到可靠的就業,但是機器學習使得老的程式設計技能變得沒有用,程式設計師會很快自己感覺到一個什麼樣滋味的。

但是,O'Reilly 的技術大師Tim 說:傳統程式設計不會消失,我們仍然很長時間需要程式設計,正如牛頓定理不會被量子理論取代一樣,兩者會共存。

當然,人類需要訓練這些人工智慧系統,這是一個很少有的技能,這個工作需要高層次的數學把握和實踐中的直覺意識,這幾乎就像一種藝術形式,如果你想獲得這些系統的最佳表現,領導谷歌DeepMind AI的Demis Hassabis說,世界上目前只有幾百人能夠非常好地做到這點。但是,即使這麼微小的數字足以在短短几年改變整個技術行業。

不管如何,這種轉變在文化上的後果將更大,如機器學習可能會違抗人類分析執行自己的程式碼,目前谷歌正面臨在歐洲指責其搜尋結果施加不當影響的控訴,但是因為公司自己的工程師都不能說明有些內容為什麼會跑到首頁或首位上,它內部是如何工作的都無法說清,因為是依靠深層次神經網路自己的迭代學習導致的。

這種不確定性已經不是什麼新聞,即使簡單的演算法可以產生不可預知的突發行為,這可以追溯到混沌理論和隨機數發生器等。在過去幾年中,隨著網路變得更加交織,越來越複雜,程式碼似乎變成一個異己力量,像個鬼一樣變得難以捉摸和難以統治。

邏輯上的確定性和對自然的控制,這是一個世紀之久的年代的信仰,現在將結束,轉移到糾纏的年代,與我們是創造的主人正好相反,我們需要學會與他們討價還價,哄騙和引導它們,我們已經建立了自己的叢林,它們有自己的生命。

這一切是相當可怕的,以前編碼者至少是人,但是現在是這些科技精英也已經對自己的作品的駕馭能力減弱,去年夏天,谷歌進行快速道歉,因為其照片識別引擎把黑人照片分類為大猩猩類別。

但是不用害怕,我們只是要學會和新技術如何打交道,目前,工程師們正在尋求將深度學習系統引擎裡面的機制進行視覺化形象化的工作,即使我們永遠不能完全理解這些新機器是怎麼想的,不意味著我們在他們面前無能為力。在未來,我們將盡可能多地探究它們行為的深層根源,我們將專注於學習行為本身,這些比我們用來訓練它的資料和程式碼更重要。

事實上,培養了機器學習演算法的過程中經常被比作20世紀初的偉大行為主義實驗。 類似巴甫洛夫不斷訓練狗的條件反射一樣,我們只要透過一遍又一遍重複事件的資料序列提供給機器學習,並訓練它們。

對於瞭解計算機歷史的人來說,過去我們一直採取由內而外的視角,首先,我們編寫程式碼,讓機器執行表述它,這種世界暗示著是有可塑性的,也表明了它是一種基於規則決定的世界,從某種意義上說,底層本質是指令,而機器學習正好相反,這種程式碼是從外而內的視角,機器學習不只是決定行為,而且決定程式碼。

最終,我們將在手工編寫程式碼和機器學習演算法這兩種力量之間進行權衡設計。生物學家們已經開始搞清楚這一點了,基因編輯技術類似CRISPR,給了這些生物學家一種傳統軟體程式設計的程式碼控制力量,但是在遺傳學領域的發現表明:遺傳物質其實也不是不可變的指令集,而是動態根據其宿主所在環境和經歷進行動態調整一些開關的,細胞被認為是一種DNS軟體驅動DNA-software-driven機器,但也有人認為:一個細胞就是一個將經驗轉為生物的機器。

80年以前圖靈第一次勾畫了一個解決問題的機器,現在今天計算機已經成為一個將經驗轉為技術的機器,幾個世紀以來我們尋求安全的程式碼,能夠解釋,能調整,能最佳化我們的體驗,但是現在機器再也不是這樣工作了,我們面對更加複雜但是更值得關注的技術關係,我們從命令我們的裝置轉變到做它們的父母。

Soon We Won’t Program Computers. We’ll Train Them


[該貼被banq於2016-05-25 14:45修改過]

相關文章