人們對於人工智慧和機器人的興趣越來越濃,而且未來它們會變得很重要。但是它們對我們意味著什麼? The Conversation總結了絕大多數人會想問的問題,並邀請諸多專家進行了回答,以下為問題列表。
在電影或電視中看到的那種類人的人工智慧有多大可能實現?
自動化正在取代許多工作,不久的將來,從銀行人員到計程車司機都將被取代。是否該考慮制定法律去保護某些產業?
五到十年內人工智慧智慧將會走向何方?
我們應該擔心軍用和其它武裝機器人嗎?
在各個方面都完全超過人類的超級人工智慧可以實現嗎?
鑑於我們對自己的意識所知甚少,我們能夠創造人工意識嗎?
賽博格(技術上的或概念上的)與人工智慧到底有何不同?
對於人工智慧的長遠未來和它對人類的益處,你持樂觀態度還是悲觀態度?
在電影或電視中看到的那種類人的人工智慧有多大可能實現?
人工智慧教授Toby Walsh:
類人的人工智慧將100%可以實現。 我認為儘管人腦是已知宇宙中最複雜的系統,沒有什麼東西能達到大腦中數十億的神經元和和數以萬計節點的複雜程度,但是依舊存在我們未知的物理定律能夠讓我們複製或超越大腦的能力。
《電腦科學》的讀者Kevin Korb:
從 Issac Asimov到Steven Spielberg電影中很流行的人工智慧都可以實現。但問題是:它什麼時候能實現呢? 包括我在內的許多人工智慧研究員認為,沒有任何證據表明這一時代會很快到來。這主要是因為人工智程式非常緩慢。 我發現,比小說中的人工智慧更不合理的是機器人的情感道德生活。它們要麼不切實際地沒有內心情感,就像《星際迷航》(Star Trek)中冷酷的Data;要麼不現實地和人類水平差不多,非常優秀,就像電影《她》中的人工智慧Spike Jonze。 感情,道德和智力這三者是相輔相成,它們彼此關聯,但是小說作者卻讓它們獨立存在。柏拉圖筆下的蘇格拉底也犯了同樣的錯誤。
人工智慧標準研究員 Gary Lea:
人工智慧不是不可能實現,但實際問題是:「到底多像人類才算人工智慧?」答案可能會在應用測試中:機器人已經於2014年通過了圖靈測試,但是還有咖啡測試(涉身性人工智慧可以走進一個不熟悉的房子並磨一杯咖啡嗎?)、大學學位測試和工作測試。 如果人工智慧系統能逐一通過上述所有測試,再加上物理學家可能想到的任何驗證方法,那麼它們就會跟我們很像了。也許終極的挑戰會是:一個涉身性人工智慧是否能像J.Average一樣在我們中間生活五年或者在它自己承認是人工智慧之前,我們都察覺不到。
問題2:自動化正在取代許多工作,不久的將來,從銀行人員到計程車司機都將被取代。是否該考慮制定法律去保護某些產業?
機器人學教授 Jonathan Roberts :
牛津大學研究人員於2013年發表了一篇論文,現在仍被廣泛引用,論文根據工作自動化可行性程度,對工作進行排序。他們發現,20年內,美國有近一半的工種將面臨被自動化的風險。 2014年廣為流傳的視訊《Humans Need Not Apply 》也沿著這篇論文思路,指出很多工作都會被機器人或自動化系統所取代,未來,就業將成為人類的大問題。 當然,現在還很難做出明確的判斷,機器代替人工並不能單純地根據技術可行性來判斷,主要因素實際上是商業應用和社會心態以及特定市場中的大眾行為。
澳大利亞莫納什大學哲學系副教授Robert Sparrow:
計算機和機器人技術的進步無疑會迅速導致許多工作被機器人取代,但是我認為與其立法來保護特定產業,不如做好以下兩件事情。 首先,要確保在很多工作被機器人取代時,人類能保持良好的生活水平,以及有機會追求更有意義的事情。畢竟,在烏托邦的思想中曾經認為:未來,機器來工作,而人則不必辛勞。 如果我們認為機器取代人是件壞事,那其實我們只是認為普通人有收入、能進行讓生活更有意義的活動,實際取決於僱傭他們的富裕階層。相反,我們應該著眼於藉助機器重新分配財富,在減少大眾的勞動需要的同時無損於他們從事自己關心的事情並從中獲取價值的機會。 其次,我們應該保護社會中的弱勢群體不會因為引入機器人而受到比人類社會中更糟糕的待遇。從我母親使用機器人護理的例子來看,我認為在老年人護理行業引入機器人護理是雪上加霜, (成本是減少了,但是老年人無法正確的抗議)讓本來就差評不斷的人工看護行業有機會變得更差了。同樣(無法發出自己意見的)監獄和孤兒院(西方社會孩子是國家資源,一有點問題,國家即可把孩子從父母身邊帶走,找不到養父母的話,就交給孤兒院——譯者)也很容易因為不遵循本人意願而受機器人看護的苦。
澳大利亞新南威爾士大學(UNSW)的人工智慧教授 Toby Walsh:
一些大變化即將發生。如今美國收入最好、人數最多的工作是卡車司機,但在未來的30年時間裡,大多數卡車將變為自動駕駛。 如何應對這種變化不是像我這樣的技術人員的問題,而是整個人類社會應該解決的問題。歷史證明,單純的保護主義並不奏效。我們需要世界每一個國家都參與進來找出解決辦法。 除此之外,我們還可以選擇勇敢的適應這個新世界。我認為必須保證勞動力市場的教育水平,以此來適應技術創新所產生的新工種。 當科技進步創造了新的工作機會,我們需要的是掌握了未來幾十年的工作技能的勞動力。 我們需要確保全世界都從不斷進步的技術革新中獲益,而不僅僅是那些機器人擁有者才能獲益。也許大家都可以縮短工作時間,分享自動化帶來的經濟利益?就像經濟學家Thomas Piketty所說,這可能需要通過根本性改變社會稅收和福利制度才能做到。
《電腦科學》讀者,凱文·考伯:
工業保護和限制計算機化是錯誤的社會發展道路。我認為科學技術的發展應該以解決人們實際問題為目的。這勢必帶來經濟混亂,而一個充滿愛心的社會將包容那些在社會進步中被淘汰的人。 但是,只要我們控制好寡頭,我們就可以適應新技術的進步。同時如果我們能注重培養人們對工作的靈活適應性,我認為聰明的人類是可以應付智慧化所帶來的衝擊的。
國防分析師 Jai Galliot :
大家都傾向於讓被智慧化取代的人去尋找更有意義的工作。然而,這一想法有些片面。 試想一下空軍噴氣式戰鬥機駕駛員,他們全身心投入,做了充分的身體和心理上的訓練,準備隨時保衛自己的國家和人民。 對於現役軍人來說,在戰場上保衛國家才是對其最有價值的工作,所以對於那些被替代的軍人來說,找到有意義的替代工作也不會給他們帶來安慰。 除了軍隊裡的情況,我們還需要關注的是,澳大利亞青年基金會指出,如今澳大利亞年輕人正在接受培訓的工作中有60%將會因為自動化而被迫轉型。 可悲的是,一個機器人可以代替許多工人。因此,在不可避免的創新和知識經濟的時代,發達經濟體的未來取決於年輕人能否適應由自動化所帶來的全球化或共享化的工作。
問題3:在五到十年之後人工智慧將會去往何方?
Toby Walsh:
人工智慧將會成為我們連線所有裝置的作業系統。像Siri 和 Cortana這樣的應用將改變我們與外部世界連聯絡的方式。 人工智慧將會讓我們與智慧手機、汽車、冰箱、中央供暖系統和房門隨時互動,我們將生活在一個永遠線上的世界。
機器人學教授Jonathan Roberts:
接下來的五到十年,我們將看到機器學習系統以機器人的形式與我們互動。機器人領域下一個需要克服的巨大技術障礙是如何賦予機器人視覺。 這是一個巨大的挑戰,在過去的四五十年裡,這問題困擾了數以千計的機器人研究員。機器人團體越來越覺得使用大資料的機器學習最終會解決部分問題,讓機器人真正的看到。 最近,四所大學在澳大利亞研究委員會資助的機器人卓越視覺中心(Centre of Excellence in Robotic Vision)組隊,旨在攻克許多妨礙機器人視覺的難題。
問題4:我們應該擔憂軍用和其他武裝機器人嗎?
哲學教授 Rob Sparrow:
人類最不需要的就是讓人類當中許多最具才能的工程師和機器人學家去研發殺人機器。 機器人武器極易引起衝突。它們將會使各國政府更輕易地發動戰爭,因為政府會這樣想:他們可以發起不會導致任何傷亡的戰鬥。機器人武器還將增加偶然性戰爭的風險,因為軍隊可以在高危環境中採用無人系統,比如接近潛在敵人的領空或深海港口。 在這些情形中,機器人甚至可能在人類沒有機會提出任何異議的情況下發動戰爭。全自動化機器人的使用會進一步威脅人類生存。 正是因為這些原因,我才和幾個海外的同事共同創立了「國際機器人武器控制委員會(International Committee for Robot Arms Control)」,這一組織又支援了「阻止機器人殺手運動」。
Toby Walsh:
「機器人殺手」是繼火藥和核彈之後的下一場戰爭革命。如果我們現在開始行動,我們也許可以頒佈適當的禁令,從而阻止一場研發越來越好的機器人殺手的武器競賽。 一項禁令不會消除這項技術。這項技術與我們運用在自動汽車上的技術相同。而自動汽車在澳大利亞每年將阻止1000多起死亡交通事故。 但是一項禁令足以這項技術聲名狼籍,這樣武器公司就不能兜售該技術,也就不會研究越來越好的機器來殺人了。過去,這種方法已經在禁止很多其他武器型別上發揮過作用,如致盲鐳射。如果我們不實行適當的禁令,恐怖分子和流氓國家將會使用機器人殺手對付我們。 我堅決反對那些聲稱「機器人殺手人已經被納入了現行人道主義法律當中」的觀點。現在,我們不能正確地設計它們以避免造成過多額外損失。未來,當我們有力能這麼做的時候,我們也不能阻止其被迫做違背倫理的行為。即使合法使用,它們也將會成為令人恐懼的武器。 觀看我的TEDx演講,你可以瞭解更多關於這一話題的問題。
http://v.qq.com/page/e/g/o/e017319oago.html 機器人倫理研究人員 Seam Welsh:
我們應該擔憂軍用機器人。然而,我們不應該誤以為沒有能夠管控武器型機器人的現行法律。 沒有哪部具體的法律能禁止使用鋼琴線殺人。法律通常是簡要地規定了嚴禁謀殺。我們不需要為了阻止謀殺而禁止使用鋼琴線。同樣,現行法律已經禁止在和平時期使用任何武器進行謀殺,在戰爭期間使用任何武器導致非法死亡。 因此,沒有必要因為害怕它們可能被非法使用而禁止使用自動武器,這與禁止使用自動汽車是因為害怕它們被非法使用(如汽車炸彈)是一個道理。不加選擇不合時宜地使用任何武器導致不必要損失已經違反了國際人道主義法律。 一些人主張自動武器應該被歸為生化武器。然而,禁止使用生化武器的主要原因是由於它們固有的不加選擇性(不能區分敵我、以及士兵和平民)並會導致不必要的損失(緩慢痛苦死亡)。它們沒有人道主義特徵。 相反,沒有跡象表明「殺手機器人」(即使反對者的案例中也沒有)將會不加選擇或導致痛苦死亡。與人類操作的武器相比,機器人武器系統不斷提高的精密度和準確性是它們得到支援的關鍵。 如果正確設計,與人工操作的武器相比,它們導致無辜人員額外傷亡的可能性更低。的確,由於機器人武器可以操控,因此它們更多的是用來捕獲敵人而不是殺死敵人。自動武器確實有潛在的人道主義特徵。
問題5:在各個方面都完全超過人類的超級人工智慧可以實現嗎?
機器學習與人工智慧助理教授 David Dowe:
我們能夠看到很多曾經無法由機器完成的任務現在都有了進展,也能看到它們一個個的逐漸被實現。比如說,在國際象棋比賽中打敗人類(1997年);贏得《Jeopardy!》知識問答遊戲(2011年);現在在某些礦區已經有了相應的標準的無人駕駛汽車;自動翻譯等等。 另外,目前智力測驗仍是智力測定的方法,我最近也在看計算機在這些測驗中的表現。
Rob Sparrow:
有人工智慧就會有超級人工智慧。沒有理由相信非人類實體就不能有智慧。也沒有理由認為人類最高的IQ值就代表著智慧的上限。 如果在不遠的未來,人類創造的這種機器對人類有任何威脅,我們應該感到非常害怕。想想人類如何對待老鼠的吧。為什麼那些智商比我們高很多倍的機器(就像我們的智商比老鼠高得多一樣)要對我們更好呢?
問題6:假定我們對我們自己的意識一無所知,我們能期待有意識地創造出人工意識嗎?
《電腦科學》(Computer Science)讀者 Kevin Korb:
作為一名實用主義信仰者,我相信人工意識有可能被創造出來。這並不意味著我們能期待它的實現,而是它確有可能。 John Searle認為人工意識不可能實現,他的觀點似乎混淆了功能實現性和計算實現性。也就是說,邏輯上不可能「計算」意識,但並不意味著一個嵌入式、功能性計算機不能有意識。
哲學教授 Rob Sparrow:
部分工程師、電腦科學家和科幻作者認為我們正處於創造人工意識的邊緣,只差臨門一腳。他們通常會估算人腦神經元的數量,認為我們很快就能建造出一個有相等數量邏輯閘的計算機,以此認定人工意識即將實現。 如果你去諮詢一下那些從事「修復」思維的心理學家或精神病學家,你會得到一個非常不同的答案。畢竟,嚴重抑鬱症的最先進療法依然是電刺激大腦,這非常像是汽車不走了,而你通過給發動機頂上澆上汽油,以期能修好汽車,讓它重新上路。我認為我們對意識的瞭解還不夠多,也就不能設計出一個具有意識的東西。
第7個問題:賽博格和人工智慧(技術上或概念上)的區別在哪裡?
資訊系統副教授 Katina Michael:
賽博格是人機結合。從定義上來看,賽博格是指人利用技術的自我延伸,以提高自己的能力。隨著技術能力的不斷提升,我們發現能將科技運用於人體,製造假體或者加以強化。因此,如果我們選擇了這種設計,科技就不再是我們的延伸,而是成為我們身體的一部分。 相比之下,人工智慧則是從經驗中學習並模擬人類智慧進行決策能力的計算機系統。賽博格通常始於人類自身,可能會經歷一個改造過程,而人工智慧則主要以軟體的形式根植於計算機系統自身。 一些研究人員認為,賽博格也能始於人形機器人,然後整合活體組織或其他器官。不管怎樣,無論是給人安上機器還是給機器安上器官,當人工智慧通過矽晶片或奈米技術植入肢體、重要器官或替代/增置的感官等形式形成的義體得以運用時,這個人或者這個機器就可以稱之為賽博格。 這方面已經有控制論方面的早期試驗。1998年Kevin Warwick 將他的初次試驗命名為Cyborg 1.0,該實驗通過外科手術將矽晶片應答器植入他的前臂。2002年在Cyborg 2.0專案中, Warwick又將一百個電極陣列植入左臂的中央神經纖維中。 最後我們必須極度小心,以防我們植入體內的人工智慧吞沒我們的意識,從而控制我們。
控制論已經在我們身邊了。Shutterstock
第8個問題:你對人工智慧的未來及其給人類帶來的好處是樂觀還是悲觀?
人工智慧教授Toby Walsh:
我既樂觀又悲觀。人工智慧是人類竭力實現的變革之一。它將改變我們的經濟、社會乃至我們在這個世界的中心地位。如果善加利用,世界將變得更美好。我們將會更健康、富有和幸福。 當然,和任何其他技術一樣,我們也可能走上歧途而非得到善終。不幸的是,人類有誤入歧途而難以回頭的歷史。 我們知道全球正在變暖,但我們似乎無法擺脫這條路。我們知道恐怖主義正在破壞世界,但是我們似乎無法阻止這一切。人工智慧將給我們的社會帶來深刻持久的挑戰。比如說,徹底改變工作性質。科幻小說將迅速成為科學事實 。
哲學教授 Rob Sparrow:
我對人工智慧研究對人類的長期影響持悲觀態度。 我不想否認人工智慧可帶來很多好處,特別是在支援人類做出更好的決策,實現我們目前能力範圍內難以實現的科學目標方面。通過製造實現大腦功能的機器來研究大腦的工作原理本身是個有趣而有價值的專案。 然而也存在這樣的危險:人工智慧研究人員最後製造出來的系統將主要被用於使富者愈富,強者愈強。 我認為還存在如下風險:人工智慧的前景將使得人類自欺欺人地認為我們無需對氣候變化採取任何措施。我們已經知道如何行動,但缺乏足夠的政治意願去這麼做,人工智慧將使得人們日益忽視這一事實。 最後,儘管我不認為現在有足夠的證據證明這會發生,但是如果工程師最終成功製造出比我們聰明的「真正的」人工智慧,這可能會帶來種族滅絕的危險。
機器人學教授 Jonathan Roberts:
我看好人工智慧發展對人類的長期影響。我認為人工智慧會從根本上改變人類,因此,如果你不喜歡變化,你可能不會喜歡未來。 我認為,人工智慧將顛覆醫療,尤其是診斷,將使個人醫療定製成為可能。人工智慧醫生和機器人醫生將第一時間共享彼此的知識,從而創造出一個擁有全世界醫療資料的超級機器人醫生。 我樂觀還因為人類已經意識到技術可能會帶來重大負面影響,我們最終能處理好。事情在人類的掌控中,人類最終將自然而然地嘗試和使用新技術讓世界變得更好。
《電腦科學》讀者Kevin Korb:
我對人類中期未來感到悲觀。我認為氣候變化和隨之而來的混亂戰爭等將給科技帶來極大的破壞,為此,人工智慧將止步不前。 如果沒有發生上述情況,那我就認為科技將繼續發展,從長期來看,我們會實現人工智慧。在這一過程中,人工智慧研究將派生出對經濟和社會的益處,因此我認為只要人工智慧技術還在,其重要性就還在。
人工智慧標準研究人員Gary Lea:
我認為人工智慧的未來是大雜燴,有好有壞。如果科學家和工程師在進行研究、設計並做出決定的時候能明智地考慮安全和社會福利(假設有適當的監管框架作為支撐),這樣就沒事。 所以,總的來說我對這方面謹慎樂觀,但對人類而言還存在很多其他長期存在的風險。
機器之心編譯出品,參與成員:salmoner、大貓、電子羊、柒柒、桑夏carol 、孟婷