8月29日至30日,由中國科學技術協會、中國科學院、南京市人民政府為指導單位,中國人工智慧學會、南京市建鄴區人民政府、江蘇省科學技術協會主辦的主題為“智周萬物”的2020年中國人工智慧大會(CCAI 2020)在江蘇南京新加坡·南京生態科技島舉辦。在大會上, 國務院參事、CAAI理事長、中國工程院院士、清華大學資訊學院院長、教授、CAAI Fellow戴瓊海做了主題為《人工智慧:演算法·算力·互動》的特邀報告,從算力、演算法與人機互動三方面展開了分享。
戴瓊海
國務院參事、CAAI理事長、中國工程院院士
清華大學資訊學院院長、教授、CAAI Fellow
以下是戴瓊海院士演講實錄:
人工智慧是一個很交叉的學科,要關注的問題很多。大家看,圖靈獎獲得者有研究心理學的,有研究認知的,有研究人工智慧的,還有做數學的。我聚焦演算法、算力和互動這三個方面和大家討論。算力就需要有力量。說到力量,我們先回顧一下歷史。在人類歷史上中,從原始、農耕到工業和電氣革命,最重要的是要把人的力量,人對資源環境的認識,用以改造自然,帶來更好的生活和工作;我們把我們的力量交給了機械、交給了電力,蒸汽機的發明,包括電力方面的工作,那是我們力量的發揮。直到資訊時代,也是有一種載體,希望在這上面把力量給機器也好,電力、電氣也好。
到資訊時代就發生一些變化,很多人很幸運,在資訊時代享受到了計算機、晶片、網際網路的力量。在這個時代裡,實際上人工智慧也在不斷地發展。在這個發展中最大的特點是,我們把大腦一部分的力量也交給了計算機,比如一些解析和計算於是推動了更多的自然科學和工程科學的發展。比如大家看原子能技術、空間科技、生物工程和基因技術都在發展,使得我們人更加認識到自己。
現在往人工智慧發展,這個時期正在這樣往前推進。到人工智慧時代以後,大家發現學科的概念好像更加模糊了,更加是一種交叉的概念在這裡面討論。這個裡面也有力量,剛才楊強老師說的,機器學習模型,包括周志華老師也是在做機器學習,包括我們的演算法,這個時候我們想解析的問題更多,想把更多大腦的思考和不可解析的問題交給機器來做。這個時候我們才發現我們的腦力和機器的腦力是不一樣的,機器的腦力不夠,我們的腦力是夠的。但是在那些固定的演算法上面,我們的腦力是不夠的,這個時候怎麼辦呢?包括量子計算、奈米科技、物聯網、工業網際網路、無人系統,發現我們要交給機器的時候,機器的力量還有點不夠。因為什麼呢?我們很多的模型演算法也沒有達到它所需要的特點,於是楊強老師發現用聯邦的學習方法、遷移學習的方法,把資料從大資料怎麼摘一個小資料進行工作,這個時候人工智慧發展更需要機器學習模型,我們大腦交給機器的演算法是什麼,怎麼樣提高它的算力,這是人工智慧時代要考慮的問題。
大家都知道,人工智慧時代發展得非常快,快在哪兒呢?大家可以看到現在是邏輯推理,推理的這個功能能不能交給機器來做?另外,視覺,包括自然語言處理,大家看周圍的應用非常多。比如說機器人,有了機器人就存在人和機器人怎麼去互動?機器人和環境怎麼互動?又出現了很多的新的問題需要我們去探討。
另外,比如自動駕駛,我們突然發現我們的學習演算法模型在車路協同,在車全天候全天時駕駛的時候,你的機器學習模型應該是什麼?如果強大的複雜模型出來以後,你的算力夠不夠?這都是我們需要探討的問題。
我今天給大家彙報一下在算力、演算法和互動方面,這上面我們應該怎麼去一些什麼工作,我們也做了一些工作,在這上面發力發現。
算力和人工智慧是相輔相成的,大家都知道,最早Rosenblatt發明了512個計算單元。但是如果做更復雜的資料演算法和分類的話,做不到,算力不夠。於是人工智慧第一步存在什麼根本問題呢?一個是模型不夠,就是這個數學模型存在問題。第二個是算力不夠,實際上算力裡面就體現在軟體和硬體的結合怎麼發展。
第二個是摩爾定律出現,每單位面積18個月電晶體的數量要翻一番,為的是提高算力,提高演算法可實現性,變成一個晶片,這是資訊時代最偉大的貢獻,計算機、晶片加上網際網路。
大家都知道,到了1999年,英偉達為了提升算力的能力,他提出了GPU,為我們的算力做貢獻,因此我們的力量從體力已經到腦力這個方面移植了,這個算力體現在腦力上面。大家可以看到AlphaGo用176個GPU,1000多個CPU。包括AlexNet GPU加速開啟了深度學習的黃金時代。人工智慧要繼續發展,一定要在算力上有所保障才行。
大家可以看到這個,我們要想把我們的演算法和機器學習模型用上去,無人系統、無人駕駛、智慧醫療和智慧製造,演算法是越來越複雜。我們知道,無人系統、自我感知的視覺系統,4節電池支援不到25分鐘,怎麼去工作?這是一個很大的問題。
影片在全世界的播放量,大家可以看到58%是我們的下行流量,還有包括每月超過20億的註冊訪問量,因此人工智慧的蓬勃發展帶來了算力需求的指數增長。
科學家在研究在硬體和軟體上如何提高算力,如果這個提不高,就限制了人工智慧的發展和應用,所以它是一個非常大的問題。
最近MIT專家發了一篇文章,對1500篇文章關於算力方面的問題做了仔細的分析。這個算力的分析結果是什麼呢?深度學習正在逼近現有晶片的算力極限,計算能力提高10倍相當於三年演算法的改進。算力提高的硬體、環境和金錢成本接下來將無法承受。因為人們對於人工智慧的期望越來越高,希望它能做更大舞臺上的事,在這上面承受的壓力很大。
最後是底層技術(半導體物理與矽製造),在人工智慧已經大規模應用和發展的時候,這個空間比較小了。這個方面我們專門和清華微電子系的吳華強老師也專門討論過,這個PPT是我們和吳華強老師一塊來討論的。大家知道,摩爾定律近五年已經逐步放緩了,已經達不到每18個月翻一番。
這個裡面大家都提出不同的路徑來做:
第一個是量子計算,最近Google、IBM紛紛發起了量子計算的能力。這個量子計算未來給我們帶來到底是什麼?要做一個特殊任務大規模的計算,用別的很難算,我們要搭一塊量子計算。而這個量子計算要搭起來,至少100平方米的大房子,為什麼呢?因為要保證那個時間段所捕獲量子的相關性要強,而且在持續工作當中,穩定性要高。所以這種是屬於特種計算應用的方面,因此對我們現在十年二十年人工智慧演算法算力的提升是有難度的,因為我們需要用到各個方面,而不光是特殊計算。
第二個就是存算一體的架構,這個是用一體機陣列來做這個東西,使得它的算力能夠大大提升。
第三個就是類腦計算,希望能夠逼近人腦的計算力,這樣以來也能夠提升一定的算力。
還有一種就是光電智慧計算,用光來計算。這是不是一種很好的算力提升的方面呢?
接下來我們討論一下如果用光電智慧計算和存算一體,包括再和類腦結合起來,這個算力的提升,這個做成了保證十年二十年的算力能夠滿足人工智慧發展的需求,這個時候才能保證人工智慧不像有些人說的人工智慧到泡沫了,不是泡沫,是我們的技術、算力遇到了瓶頸。
光電智慧計算,大家可以看到這是一個物理學家,他專門對光電智慧計算基本理論做了一個推導,推導的結果是如果用這個光計算的話,算力能提升3個數量級,功耗下降6個數量級。有了這個理論的保障,大家才說再去做光電計算,用光和電,就是有矽基和光基,這樣做的話是不是能更好地解決問題。
於是我們就討論光計算,這個是我們所說的光計算的發展路徑,這是1956年提出光計算,大家都在做。1964年光計算出現下坡,因為那個時候根本不需要那麼高的算力,於是光計算就跌下來。到1990年,貝爾實驗室採用了砷化鎵,到1990年英偉達發展非常快,受到市場的衝擊,又沒有完成,直到2017年、2018年突飛猛進,這個和人工智慧2010年開始起來,剛好滯後近10年。為什麼滯後近10年?因為人工智慧發展起來當時還不需要那麼大的算力,但是2015年以後對算力需求很強,於是光計算馬上在這個時候發展,所以我說光計算比人工智慧發展慢半拍,就是接近5年的樣子。
大家可以看,這個是三維可控的光傳輸實現並行光速計算,大家知道光裡面的維度很高,有光射、折射、反射,還有其他方面,維度高帶來大量的平行計算。而我們的矽計算是電,一維計算、二維計算,大規模計算比較難,因此可以提供很強的計算能力。
第二,如果做全相位調製通光率帶來損耗,大家知道用電耗電能量很強。
第三,高維光場訊號帶來通量頻寬很大。
第四,感存算一體是光的特點。大家知道拿一個手機照個相光進來了,轉成電才能計算,如果是光計算的話,直接計算了。存算一體是大家都在做的,能不能實現感存算一體,要找到好的材料,以可控高維光場傳播實現高速高效平行計算。
這裡面最重要的特點是什麼?
第一、正規化顛覆了傳統,採集與計算無縫銜接,突破存算分離、感存算機制。
第二、速度提升了3個數量級,功耗能下降6個數量級。
對比一下國際上三個重要的機構做的,第一個是MIT,麻省理工2017年發到《Nature》上的,是計算能效顯著提升,最重要的是做光學矩陣的乘法,算力非常快。
第二個是牛津大學和劍橋大學,用相陣材料做脈衝網路,這裡面光學相陣材料能夠起到很大的作用。
清華大學是2019年做衍射的神經網路,在這裡面可以做到大規模光學、神經元的光學平行計算,現在清華大學在國家研究中心組織一個團隊,包括材料、晶片、架構和正規化、機器學習與演算法,有一個大的團隊,也開展了這個方面的研究。
如果說把光計算這個做好了以後,大家看智慧模擬機器人、微型修理機器人都能做,如果功能做好了,雲端計算的伺服器功耗會大大下降。光電計算機在自動駕駛上面速度可以不斷提升。
如果說3個數量級達不到,1個數量級、2個數量級至少能夠支援現在人工智慧的大規模應用。
光電智慧晶片,使龐大的計算中心小型化,而且可以做到納秒級目標感知與識別,這種無人系統都能夠用得上。再一個是工業網際網路、計算機視覺、大資料分析、光通訊能夠帶來大規模提升。
第二部分要講到演算法,大家一說演算法都很敏感,應該是怎麼去討論,怎麼去做?這張圖大家都知道,從達特茅斯會議走出來,一直走到這兒,2012年、2013年深度學習掀起了人工智慧熱潮,實際上就是我們做的演算法。
但是這些演算法,我們現在去分析分析,存在幾個方面的問題。
第一個問題是魯棒性的問題,大家用機器學習的演算法,在汽車的後世,大家可以看到尾燈,我們透過提升亮度來檢測,我們的檢測就失敗。輸入這種小的變化,引起輸出大的變化,魯棒性差,怎麼改進這個演算法?
我們先分析問題,不是說做得不好,在應用當中存在這個問題。
第二個,就是剛才楊強老師講的遷移性。大家可以看到在這個場景裡面,特殊場景效果欠佳,沒有遷移性。
這裡面就存在一個問題,無人駕駛要全天時全天候開這個車,可是這個資料不夠,難學到這些東西,因此這種遷移性就比較差。
能效比,大家都知道我們的大腦所能理解的場景,所能分析的場景,所能解決的場景,都是功耗在20W左右,而我們現在要用GPU的話,這是英偉達GPU250—300W,這個功耗還是比較大的。相對生物神經網路,能效比較低。
自適應性,我們有6萬條腦的資料,在做的過程當中,就發現不同型別不同症狀,最後要做成自適應性是非常難的一件事情,因此在這裡面也存在它的問題。
最後一個問題,大家都非常清楚,不可解釋性,透過這個場景,透過計算、深度學習以後,到輸出,怎麼解釋是一個問題。
這三個圖靈獎都表達了深度學習有嚴重的缺陷,欠魯棒性、難解釋,人腦在無監督學習方面遠遠優於深度學習,因此怎麼做演算法上的創新,我們要思考這樣的問題。
實際上大家可以看看非常簡單的一個問題,就是機器把東西放到桌子上的問題都做不好。在初級感知、資訊處理與高階認知過程當中遠不如人腦。借鑑神經系統的多模資料表示、變換和學習規律及反饋方式,能不能透過魯棒性進行改進?
深度學習路在哪裡?這是人工智慧誕生、人工智慧初步產業化、人工智慧變革迎來了爆發,各個地方都在用,但是大家想到不可解釋性就限制使用,魯棒性差、自適應性差限制了自動駕駛的應用,所以很多方面沒有辦法做。
深度學習的來源,是最佳化控制論在這裡面。大家可以看到這個公式是深度學習使用最廣泛的一個東西,也是卷積神經網路、語言和注意力模型、生成對抗網路,包括深度強化學習,能不能從根本上解決深度學習裡的問題,我們要討論能不能構成一個認知計算模型。
在這裡面大家會看到,我們以前的做法也是從這裡面做的,也是從神經科學家裡面來的。第一個是什麼呢?發現簡單和複雜細胞,發現視覺系統的卷積特性這裡面來的。包括日本的科學家借鑑簡單複雜細胞概念提出新認知機,在這裡面一系列的工作,包括提出卷積神經網路、認知計算模型,2015年開始做這個方面的工作。
所以能不能再反過頭來重新認識腦科學,再到我們的深度學習演算法,來討論這個問題。
當然還有一個類腦的方向,大家可以看,從1907年開始做,到1989、2013、2018、2019年,中國的兩位科學家,這是從類腦角度去做。
還有腦觀測到啟發,我們以前觀察腦觀測透過什麼呢?透過核磁共振,透過CT。但是大家都知道,我們那時候探討的腦,包括現在看不到神經元細胞,只能看腦功能區,因此我們說這些模型來的特點是從腦功能到深度演算法,到卷積演算法,這麼一個演算法層面的工作。能不能到神經元角度來?這是一個非常重要的特點。神經元是透過軸突與樹突建立關係,人腦有860億個神經元,這些神經元要透過構建環路,不同的環路解決不同的問題。還包括我們的記憶。大家看突觸尺寸有26類,我們神經元的細胞10個微米左右,我們的軸突和樹突500奈米,現在用核磁共振都看不到,因此極其希望研究界觀尺度的腦科學成像,看神經元的環路怎麼樣,把軸突和樹突的尺寸看清楚,因此我們覺得應該是這麼一個架構。
這邊是腦科學,那邊是人工智慧。我記得五年前聽李德毅老師的報告,說腦科學和人工智慧是兩條平行線,不相交,我們就搞了兩個堡壘,它們都是平行的。
多模態迴路觀測,就是包括宏觀、微觀、界觀,能不能做得到?那邊提出多層次認知模型,能不能構建這樣一個橋樑,使得在認知計算情況下達到這麼一個演算法的特徵。
這是兩條平行線,這都是腦科學的諾貝爾獎,從1906年以來,我們調研了一下,到現在獲得腦科學的諾貝爾獎有23項。到現在我們主要和神經資訊傳遞機制,和人工智慧相關的,梳理出來,人類如何思考,那邊是機器如何思考,是圖靈獎提出和解決的一些問題。這兩條平行線建立起來了,如何從腦思考到機器思考,建立一個路徑。
2016年美國阿波羅專案1億美金獎勵給三位科學家,這三位科學家做什麼呢?這三個是神經元計算模型到下面機器學習演算法模型,這兩個能不能打通,10萬個神經元之間的連線關係要找到,就是研究這套機制。齧齒動物就是神經小鼠,能不能來做?第一位叫Tai Sing Lee,是腦神經科的專家;第二位叫David Cox,是生物學家、計算科學家;第三位叫Andreas Tolias,是神經科學家。
在這裡面我們就探討從記憶角度看,能不能從記憶的角度研究演算法,第一個記憶痕跡假設,包括海馬體與記憶、記憶多腦區的協同。這裡面和它的演算法有什麼關係?我們要建立這種關聯關係,就比較容易打通這個通路。這就是尖波漣漪等記憶曲線,這是脈衝的。清華大學課題組透過三年的努力,已經開始構建這麼一個模型架構,當然還正在研究,供大家一塊討論,共同研究。
這是生物機制,那邊希望做到物理原理的平衡,就是短期記憶和長期記憶。在研究這樣一套機制以後,我們能不能建立一套新型的網路模型。這個模型正在架構當中,也有一個組專門討論。給大家共享,也是看看各位老師各位同學們能不能在這個上面做出更新的一個演算法模型的貢獻?
全腦觀測,大家可以看到上面是介觀,我們現在有這個儀器,小鼠全腦的連線,這個是宏觀觀測,我們能夠看到神經元的結構加這個功能,和機器學習深度學習演算法的關聯關係是什麼。大家都知道一個系統有什麼樣的結構,就能表達什麼樣的功能,所以結構是主體。因此從微觀、宏觀到介觀,三個層面目前架構都有了,怎麼樣從結構到功能,來研究機器學習的演算法、人工智慧演算法的模型。在這裡面主要打通這個。
大家可以看到,這是知識驅動模型和腦科學驅動,包括資料的驅動。最後能不能有一個認知的驅動?提出一個問題。這個問題也是可以在人工智慧學界,大家可以關注和研究,能夠產生一些顛覆性的演算法和應用,給我們的算力演算法上都能夠往前走的這麼一個架構,才能得到更好的東西。
第三個,有人工智慧了,有機器人了,人類的發展就是不斷地和環境互動,不斷地把自己的能力提升。
AI賦能人類,而不是成為人類,更不是取代人類。
這裡面講的問題,我們能不能開發用於模擬、延伸和擴充套件人類智慧能力的理論方法、技術及應用系統,從而解決複雜問題的基礎科學並服務於人類。
透過這樣一來,我們就想到剛才楊老師專門講聯邦學習裡面隱私的問題,這是非常重要的問題。
以人為本、服務於人,包括協同性、安全性、公平性和隱私,這裡面怎麼樣搭開一個架構,人工智慧整個演算法和算力應用的架構。
因此這裡面需要做到人工智慧和AI怎麼互動,AI和物理世界怎麼互動?我們要教AI和物理世界互動。什麼意思?我們人眼能看到,看不見的交給機器去看,看不清的聽不見的聽不清的都能交給AI,人和AI的互動。
這裡面體現很多的東西,大家知道AI裡面的互動,包括汽車,包括多足機器人、人形機器人、服務機器人,這是不同AI的實體有不同的介面,因此把它定為AI的專用介面。
還有一種,資訊時代,十年前就在說AR/VR,一直起不來,到了人工智慧時代,AI通用介面希望能成型、能起來、能應用,因為人工智慧演算法、算力足以支援它們的應用。包括眼鏡、虛擬主播、數字化AI的形象就可以建立起來。
目前AI通用介面驅動AI與AR的融合。北航趙老師一直在搞AR,都應用到數字虛擬手術上去。通用介面能做什麼?
第一,擴充人類的能力。
第二,改變產品的形態和服務模式。
第三,推動認知、智慧與文化藝術的變革。
第四,促進未來人-AI-物融合社會發展。
這是AI的通用互動介面能帶來非常大的變革。
以前要做AI對人體行為的理解,要理解人的行為,才能跟你互動。因此對人的行為怎麼樣建設好,視覺三維重建是重中之重。對視覺怎麼樣三維重建,包括人的屬性怎麼樣去做,AI怎麼樣去理解?這是大的方面。
其次,疫情時代,基本上是線上,線上上課,中小學,包括大學,上課質量受到影響,據統計大一、大二的授課存在30%的知識獲取下降。因此能否做一個新的虛擬線下的工作?這個發展也有歷史,最早以前是寫郵件,第二是電報,第三個語音電話,然後是影片電話,未來是全息投影,這些人都不在會場,戴上AR眼鏡就可以看到他們線上上開會,這個demo在清華已經做成了,這個系統一旦做完,清華大學首先要試用。
從三維重建裡來做,目前做到單相機的三維重建。三維重建是AI和人介面的一個重要關鍵,三維重建是核心關鍵技術。
影創、谷歌AR眼鏡只有50克,非常輕,使得我們教育、教學、醫療都可以引用。包括301提出虛擬手術問題怎麼做?用這樣的東西,包括講課中的PPT,人書寫的demo,包括上面的東西,都可以放到虛擬線下環境當中,能夠提高各方面AI和人互動的能力。
混合現實虛擬手術,包括中關村一條街上可以虛擬看到人在走過的場景,還有教學平臺等都可以用AI來做,人和AI的互動變得直接可以討論。
AI和物理世界的互動。把人和AI的互動傳遞給AI和物理世界的互動,這方面工作清華大學孫老師團隊做得很好,人類以前進化是不斷和自然環境打交道,三維重建是人和AI的互動,人和環境互動是AI認識環境。所以智慧是在智慧體與環境的相互作用中逐步產生和發展的。所以在這裡我們要做包括觸覺、視覺、聽覺多模態的感知能力能否結合起來,AI才能對自然界能夠有認知能力。
要讓電腦如何像人一樣下棋是相對容易的,但要讓電腦有如一歲小孩般的感知和行動能力卻是相當困難的。它做複雜的行為、牽涉感情方面的東西還不如一歲小孩,我們要學習靈巧的手能抓取東西,抓取操作對機器來說是非常困難的事情。所以要一步一步去操作,讓AI去感知這種環境和理解這裡面的東西。這是國際上非常大的研究熱點,操作的三大重要因素是感知、學習和多模態,利用視覺和觸覺多模態融合,實現AI和環境的學習能力和複雜的互動能力的提升。
我們要想AI能夠感知到各方面。人手具有上百億個觸感神經元,有哪一種材料做出來能放到AI上,使得人體動態觸覺可以區分出不超過十幾奈米的凸凹的感覺,我們手能感覺到,機器能否感覺到?我們考察人的特徵,把這些東西賦予AI,它對場景的獲取能力、感知能力就會變得非常強。
觸覺感知是非常難的問題,也是非常重要的問題,在國際上,歐盟、美國學術界都開展了這方面研究,包括歐盟的new touch,包括機器人領域著名的國際會議都在考慮觸覺的問題,機器人具身觸覺智慧引起廣泛關注和高度重視,我們國家多個團隊都在研究這方面工作。
視覺與觸覺能夠結合,眼見為實,但是感覺為真,有時候看到和摸到的東西不一樣。所以觸覺先於視覺也先於語言,既是第一語言也是最後的語言,所以觸覺在AI感知自然場景當中起著非常重要的作用。視覺幫助我們瞭解全貌,觸覺使我們瞭解細節。
觸覺裡面包括很多細節,包括指尖、指掌、軀幹等等,因此觸覺感測器是機器人的核心部件。《科技日報》登了35項“卡脖子”技術問題之一,觸覺是很難的一個問題,大家也都在這方面開展應用。
包括空間視覺敏銳度和時間視覺敏銳度方面,孫老師團隊在國際智慧機器人大會上抓取操作比賽獲得冠軍,說明我們在這上面也有向上走的趨勢,未來能夠做得更好。
清華做的一件事情,能飛的機器人,當感知到前面有障礙時,路被擋住時,能飛著跳躍過去,這也是視覺和觸覺整個感知功能在這裡體現的一個特長。
人-AI-環境的協同互動能夠給我們帶來更多人工智慧的應用,也給我們人帶來更多發展,包括人工智慧像人一樣思考以後,人工智慧像人一樣能夠去做事,能達到多少量級,這是我們現在要分析和研究的問題。人工智慧怎樣去發展、怎樣去應用?視覺、觸覺、聽覺都能體現非常重要的特徵。
發揮多智慧體的群體效應是未來重要了發展方向,包括群體協同互動問題,一群機器人怎麼樣互動也是很重要的一個研究。群體協同互動是構築智慧通天塔的必由之路,也是有望挑戰莫拉維克悖論的重要途徑。
我們希望能夠有更靈巧的手,有更明亮的眼睛,更靈敏的耳朵,把這些東西交給AI,交給機器人,它們能夠對環境有更加深刻的認識。
智慧光電晶片、知識驅動、資料驅動、認知驅動使得未來的AI能夠發展的更好,能夠更有效地發展。
算力有很多提升方法,大家在做光電計算架構,能不能先行把這個做出來,這也是國際上競爭的制高點。
在演算法上能夠更加逼近本源的認知計算理論與方法,做的過程中需要做新的認知機理測試的正規化出來。
更高的工作效率、生活質量和安全保障。這是我們強調的互動問題,互動給我們帶來人工智慧更加重要的特點。
資訊時代,計算機強調人機互動,人和機器互動,那個互動完全是機器被動式,人主動式,未來人和AI的互動就是互相都有主動式,AI和環境互動,AI是主動式,和我們資訊時代的人機互動有著不同的理解和相關方面的工作。