AI 史話

堆碼志發表於2023-04-09

達特茅斯會議

1956 年,美國新罕布什爾州達特茅斯學院開了個學術討論會,與會者包括 John McCarthy、Marvin Minsky 等,來自電腦科學、數學、物理學等不同領域的科學家,目的是共同探索人為製造智慧能力的可能性。這可以認為是人工智慧歷史上的一個開創性事件。因為當前 AI 的很多概念,此次會議都討論到了。例如自然語言處理、機器學習等等。並且提出了人工智慧的願景,其中包括建立可以像人類一樣推理、學習和交流的智慧機器。這一願景引發了該領域的研究和創新浪潮。

會議前後,John McCarthy 和他的同事開發了第一種 AI 程式語言 LISP。這種語言成為人工智慧研究的基礎,並一直存在到今天。神之編輯器 Emacs 就是用它開發的。

這次會議還促成了幾所大學和研究機構的人工智慧研究實驗室的建立,包括麻省理工學院、卡內基梅隆大學和史丹佛大學。

除此之外,達特茅斯會議還促進了圖靈測試的發展。圖靈測試是英國數學家艾倫·圖靈提出來的,用以確定機器是否可以表現出與人類相同的智慧行為。這個概念在會議上進行了深入討論,併成為人工智慧研究領域的中心思想。直到今天為止,圖靈測試仍然是衡量人工智慧研究進展的重要基準。

感知器

感知器是由心理學家弗蘭克·羅森布拉特於 1958 年設計的人工神經網路架構,它極大的促進了對人工大腦、即用人工智慧來模仿人類大腦的發展。

技術上講,感知器是一個二元分類器,可以學習將輸入模式分為兩類。它的工作原理是依據一個閾值函式,獲取一組輸入值,然後計算這些值的加權和,用於確定輸出是 1 還是 0。在訓練過程中,可以調整權重以最佳化分類器的效能。

感知器被視為人工智慧的一個重要里程碑,因為它展示了機器學習演算法模仿人類智慧的潛力。它表明,機器可以從經驗中學習,並隨著時間的推移提高它們的效能,就像人類一樣。

達特茅斯會議從理論上引起了人們對人工智慧潛力的極大興奮,但是感知器是人工智慧的實際實現,表明該概念可以變成一個工作系統。

感知器最初被吹捧為人工智慧的突破,並受到媒體的廣泛關注。然而,後來發現該演算法有侷限性,特別是在對複雜資料進行分類時。這導致在 1960 年代末和 1970 年代對感知器和人工智慧研究的興趣下降。

然而,感知器後來被複興並整合到更復雜的神經網路中,促成了深度學習和其他形式的現代機器學習的發展。今天,感知器被視為人工智慧歷史上的一個重要里程碑,並繼續被研究和用於開發新的人工智慧技術。

六十年代人工智慧熱潮

上世紀 60 年代的 AI 熱潮是人工智慧發展取得重大進展和興趣的時期。這是因為當時電腦科學家和研究人員正在探索創造智慧機器的新方法,並對它們進行程式設計,以執行傳統上認為需要人類智慧的任務。在 20 世紀 60 年代,感知器的明顯缺陷被發現,因此研究人員開始探索感知器以外的其他人工智慧方法。他們專注於符號推理、自然語言處理和機器等領域。

這些研究引導了新的程式語言和工具的開發,如 LISP 和 Prolog,它們是專門為人工智慧應用程式設計的。這些新工具使研究人員更容易試驗新的人工智慧技術並開發更復雜的人工智慧系統,在此期間,美國政府也對人工智慧產生了興趣,並開始透過國防高階研究計劃局(DARPA)等機構資助研究專案。這筆資金加速了人工智慧的發展,併為研究人員提供了他們需要的資源,以解決越來越多的問題

六十年代的人工智慧熱潮最終產生了幾個具有里程碑意義的人工智慧系統的發展。一個例子是由 Herbert Simon,J.C. Shaw 和 Allen Newell 建立的通用問題解決器(GPS)。GPS 是一種早期的人工智慧系統,可以透過搜尋可能的解決方案來解決問題。另一個例子是由 Joseph Weizenbaum 建立的 ELIZA 程式,這是一個模擬心理治療師的自然語言處理程式。

總的來說,上世紀六十年代的人工智慧熱潮是人工智慧研發取得重大進展的時期。當時,研究人員探索了新的人工智慧方法,並開發了專門為人工智慧應用程式設計的新程式語言和工具,為未來的人工智慧發展鋪平了道路。

八十年代的 AI 寒冬

20 世紀 80 年代的 AI 寒冬是指人工智慧(AI)領域的研究和開發經歷了顯著放緩的一段時間。這一停滯期大約從 1974 年開始,到 1993 年結束。

正如上一節所討論的,20 世紀 60 年代的人工智慧熱潮的特點是人工智慧研究和應用的爆炸式增長,但緊接著發生在 20 世紀 80 年代的人工智慧寒冬,這是由於在人工智慧熱潮期間開發的許多人工智慧專案未能兌現他們的承諾,人工智慧研究社群對該領域缺乏進展越來越失望。這導致了資金削減,許多人工智慧研究人員被迫放棄他們的專案,徹底離開這個領域。

上世紀 80 年代 AI 寒冬的特點是,用於 AI 研究的資金大幅下降,投資者和公眾對該領域普遍缺乏興趣。這導致正在開發的 AI 專案數量顯著下降,許多仍然活躍的研究專案由於缺乏資源而無法取得重大進展。

儘管人工智慧之冬充滿挑戰,但人工智慧領域並沒有完全消失。一些研究人員繼續致力於人工智慧專案,並在此期間取得了重要進展,包括神經網路的發展和機器學習的開始。然而,該領域的進展緩慢,直到 20 世紀 90 年代,人們對人工智慧的興趣才開始重新升溫。

儘管如此,20 世紀 80 年代的 AI 寒冬是人工智慧歷史上的一個重要里程碑,因為它展示了人工智慧研發的挑戰和侷限性。對於投資者和政策制定者來說,這也是一個警世故事,他們意識到圍繞人工智慧的炒作有時可能被誇大了,該領域的進步需要持續的投資和承諾。

專家系統

專家系統是 20 世紀 80 年代發展起來的一種人工智慧(AI)技術。專家系統被設計用來模擬特定領域(如醫學、金融或工程)的人類專家的決策能力。在 20 世紀 60 年代和 70 年代初,人們對人工智慧及其改變各個行業的潛力充滿了樂觀和興奮。然而,正如我們在上一節中所討論的,這種熱情受到了一段被稱為 AI 冬天的時期的抑制,這段時期的特點是 AI 研究缺乏進展和資金。

專家系統的發展標誌著人工智慧歷史上的一個轉折點,因為人工智慧社群面臨著提供實用的、可擴充套件的、健壯的和可量化的人工智慧應用程式的壓力,專家系統證明了人工智慧系統可以用於現實生活系統,並有潛力為企業和行業提供極大便利。專家系統被用於各個領域的自動化決策過程,從診斷醫療狀況到預測股票價格等等。
技術上講,專家系統通常由一個知識庫和一個推理引擎組成,知識庫包含關於特定領域的資訊,推理引擎使用這些資訊來推理新的輸入並做出決策。專家系統還包含各種形式的推理,如演繹、歸納和推斷,以模擬人類專家的決策過程。

專家系統是人工智慧歷史上的一個重要里程碑,它展示了人工智慧技術在實際生活場景中的應用。今天,專家系統繼續在各個行業中使用,它們的發展導致了其他人工智慧技術的誕生,如機器學習和自然語言處理。

NLP 和計算機視覺

這一時期是人工智慧研究和全球化開始提速的時期,也是人工智慧進入現代化的時期。正如上一節所討論的,專家系統大約在 20 世紀 80 年代末和 90 年代初開始發揮作用。然而,專家系統依賴於結構化資料和基於規則的邏輯,這一事實受到了限制。他們很難處理非結構化資料,例如自然語言文字或影像,這些資料本質上是模糊的,並且依賴於上下文。

為了解決這一限制,研究人員開始開發處理自然語言和視覺資訊的技術。上世紀七八十年代,NLP 和計算機視覺在基於規則的系統方向上已經取得了一些進展。然而,受限於預定義的規則,它們有無法從資料中學習的缺陷。

到了九十年代,機器學習演算法和計算能力的進步導致了更復雜的 NLP 和計算機視覺系統的發展。研究人員開始使用統計方法直接從資料中學習模式和特徵,而不是依賴預定義的規則。這種方法被稱為機器學習,允許使用更準確和靈活的模型來處理自然語言和視覺資訊。

這一時期最重要的里程碑之一是隱馬爾可夫模型(HMM)的發展,它允許對自然語言文字進行機率建模。這促成了語音識別、語言翻譯和文字分類的重大進步,同樣,在計算機視覺領域,卷積神經網路 (CNN) 的出現允許更準確的物件識別和影像分類。這些技術現在被廣泛應用自動駕駛、醫學成像等領域。

NLP 和計算機視覺的出現代表了人工智慧歷史上的另一個重要里程碑,因為它允許對非結構化資料進行更復雜和靈活的處理。這些技術仍然是當今人工智慧研究和開發的重點,對各行各業的應用都具有重大意義。

大資料的興起

大資料的概念已經存在了幾十年,但它在人工智慧(AI)背景下的崛起可以追溯到 21 世紀初。為了給人一種完整的感覺,讓我們簡單地討論一下大資料這個術語。

所謂大資料,需要滿足 3 個核心屬性:體積、速度和多樣性。體積指的是資料集的大小,從 tb 到 pb 甚至更大。速度是指資料生成和需要處理的速度。例如,來自社交媒體或物聯網裝置的資料可以實時生成,需要快速處理。多樣性是指生成的資料型別的多樣性,包括結構化、非結構化和半結構化資料。

在大資料出現之前,AI 受到用於訓練和測試機器學習演算法的資料數量和質量的限制。自然語言處理(NLP)和計算機視覺是人工智慧的兩個領域,在 20 世紀 90 年代取得了重大進展,但它們仍然受到可用資料量的限制。例如,早期的 NLP 系統是基於手工製作的規則,在處理自然語言的複雜性和可變性方面能力有限。大資料的興起改變了這一點,它提供了從各種來源獲取大量資料的途徑,包括社交媒體、感測器和其他連線裝置。這使得機器學習演算法可以在更大的資料集上進行訓練,從而使它們能夠學習更復雜的模式,並做出更準確的預測。

與此同時,Hadoop 和 Spark 等資料儲存和處理技術的進步使得快速有效地處理和分析這些大型資料整合為可能。這導致了新的機器學習演算法的發展,例如深度學習,它能夠從大量資料中學習並做出高度準確的預測。

現在,大資料仍然是人工智慧許多最新進展背後的驅動力,從自動駕駛汽車和個性化醫療到自然語言理解和推薦系統。隨著生成的資料量繼續呈指數級增長,大資料在人工智慧中的作用在未來幾年只會變得更加重要。

深度學習

深度學習的出現是現代人工智慧全球化的一個重要里程碑,自 20 世紀 50 年代達特茅斯會議以來,人工智慧已經被認為是一個合法的研究領域,早期的人工智慧研究專注於符號邏輯和基於規則的系統,其中涉及手動程式設計機器根據一套預定規則做出決策。雖然這些系統在某些應用中很有用,但它們學習和適應新資料的能力有限。

直到大資料興起之後,深度學習才成為 AI 歷史上的一個重要里程碑。隨著資料的指數級增長,研究人員需要新的方法來處理並從大量資訊中提取見解。深度學習演算法為這個問題提供了一個解決方案,它使機器能夠自動從大型資料集中學習,並根據這種學習做出預測或決策。

深度學習是一種使用人工神經網路的機器學習,人工神經網路模仿人腦的結構和功能,由相互連線的節點層組成,每個節點對輸入資料執行特定的數學功能。一層的輸出作為下一層的輸入,允許網路從資料中提取越來越複雜的特徵。

深度學習的主要優勢之一是它能夠學習資料的分層表示。這意味著網路可以自動學習識別不同抽象級別的模式和特徵。例如,深度學習網路可能會學習識別單個字母的形狀,然後是單詞的結構,最後是句子的含義。

深度學習的發展在計算機視覺、語音識別和自然語言處理等領域取得了重大突破,如你所見,該演算法現在能夠準確地對影像進行分類,識別語音,甚至生成逼真的類人語言。

深度學習代表了人工智慧歷史上的一個重要里程碑,大資料的興起使之成為可能。它從大量資訊中自動學習的能力已經在廣泛的應用中取得了重大進展,並且很可能在未來幾年繼續成為研發的關鍵領域。

生成式人工智慧

我們目前正處於人工智慧歷史的這個階段。生成式 AI 是人工智慧的一個子領域,涉及建立能夠生成與其訓練資料相似的新資料或內容的 AI 系統。這可能包括生成影像、文字、音樂甚至影片。

在人工智慧歷史的背景下,生成式人工智慧可以被視為深度學習興起後的一個重要里程碑。深度學習是機器學習的一個子集,涉及使用具有多層的神經網路來分析和學習大量資料。它在影像和語音識別、自然語言處理甚至玩圍棋等複雜遊戲等任務中都取得了令人難以置信的成功。

Transformers 是一種神經網路架構,它徹底改變了生成式人工智慧。Vaswani 等人在 2017 年的一篇論文中介紹了它們,並已用於各種任務,包括自然語言處理、影像識別和語音合成。Transformers 使用自我注意機制來分析序列中不同元素之間的關係,使它們產生更連貫和細緻的輸出。這導致了大型語言模型的發展,如 GPT-4,它可以在廣泛的主題上生成類似人類的文字。

AI 藝術是生成式人工智慧產生重大影響的另一個領域。透過在大型藝術品資料集上訓練深度學習模型,生成式 AI 可以建立新的獨特藝術品。生成式人工智慧在藝術中的使用引發了關於創造力和作者身份的本質以及使用人工智慧創作藝術的倫理的爭論。一些人認為,人工智慧生成的藝術並不是真正的創造性,因為它缺乏人造藝術的意向性和情感共鳴。其他人則認為,人工智慧藝術有其自身的價值,可以用來探索新的創造力形式。

GPT-4 等大型語言模型也被用於創意寫作領域,一些作者使用它們來生成新文字或作為靈感工具。這引發了關於寫作的未來以及人工智慧在創作過程中的作用的質疑。雖然有些人認為人工智慧生成的文字缺乏人類寫作的深度和細節,但其他人則認為它是一種工具,可以透過提供新的想法和觀點來增強人類的創造力。

總之,生成式人工智慧,特別是在 Transformers 和大型語言模型的幫助下,有可能徹底改變許多領域,從藝術到寫作再到模擬。雖然關於創造力的本質和在這些領域使用人工智慧的道德規範仍然存在爭議,但很明顯,生成人工智慧是一個強大的工具,將繼續塑造技術和藝術的未來。

尾聲

正如我們所討論的,人工智慧的歷史相當有趣,充滿了潛在的、反高潮和驚人的突破。從某種意義上說,諸如 ChatGPT、Dalle.E 等應用程式,帶給我們的挑戰才剛剛開始,未來一定還有更多突破,挑戰我們的神經以及工作和生活。我想我們所有人可以保持開放的心態,在無限悲觀的同時,也可以保持相應的樂觀,來迎接人工智慧的未來時代。

作者:袁首京

原創文章,轉載時請保留此宣告,並給出原文連線。

相關文章