“偽人工智慧”三大特徵新鮮出爐,對號入座閱讀

人工智慧觀察發表於2018-07-06
640?wx_fmt=gif

智造觀點

不可否認,人工智慧現在已成為技術發展的主流,並且在用前所未有的力量影響著人們的生活。通過將更多更好的資料、軟體、應用與這項技術結合,人工智慧在社會的多個領域裡得以實現。同時,由於技術的不斷髮展,人工智慧研究員幾十年來一直在努力解決的問題也正在獲得相應的解決方案。

 

然而,是風口就會有“虛火”和“偽概念”的出現,人工智慧也不會例外:在資本大量湧入,巨頭紛紛入局的情況下,似乎一夜之間,人工智慧相關的企業和產品鋪天蓋地襲來。熱潮之下,既有技術的突飛猛進,也夾雜著概念下的虛假繁榮。


文/未末末

來源/人工智慧觀察(ID:Aiobservation)


雖然人工智慧的口號喊的響亮,但實際上建立一項由人工智慧驅動的服務很難。究竟困難到什麼程度呢?一些初創公司在實踐中發現,讓人類像機器一樣工作,要比讓機器像人一樣工作容易的多,也便宜的多。

 

“事實上,用人工來完成一份工作可以讓企業跳過大量的技術和業務開發面臨的挑戰。很明顯,這不會擴充套件一個公司的規模,但是卻允許一個企業在初期的時候跳過最困難的部分,並獲得一定的使用者基礎,“ReadMe執行長Gregory Koberger說道。他表示,自己接連不斷遇到了很多偽人工智慧(Pseudo AI)。在他看來,這正是人與人工智慧關係的原型。


偽人工智慧特徵一:人工代替AI工作


就Koberger對人與人工智慧關係的表述而言,最典型的一個案例便是本週早些時候,谷歌Gmail被曝光的任由開發者閱讀使用者郵件一事。

640?wx_fmt=jpeg

根據《華爾街日報》的報導,谷歌允許數百家外部軟體開發商,通過掃描數百萬使用者的郵件內容來投放更加精準的廣告;而這些開發商可以訓練計算機,甚至讓員工來閱讀使用者的Gmail郵件,對此谷歌卻疏於管理。

 

此外,還有總部位於聖荷西的Edison Software,該公司的人工智慧工程師通過瀏覽數百名使用者的個人電子郵件來改進“智慧回覆”功能。當然,前提是該公司並沒有在其隱私政策中提到過會對使用者的電子郵件進行人工稽核。

 

如果對人類取代人工智慧進行工作這種做法進行深究的話,早在2008年就已經有苗頭了。當時一家旨在將語音郵件轉換為成本資訊的公司Spinvox,被指控在海外呼叫中心通過人工而不是機器來完成相應的工作。

 

隨後,2016年,彭博社也報導過關於人類會每天工作12小時,以代替聊天機器人為使用者進行服務安排的困境。當時,有相關人員表示,這項工作會讓人頭腦麻木,以至於他們都希望自己能夠被機器人取代。

 

緊接著,2017年,智慧商業解決方案應用Expensify承認,該公司一直在人工轉錄被其稱為使用了“智慧掃描技術”處理的部分收據。這些收據的掃描結果被髮布到亞馬遜的Mechanical Turk眾包勞動工具上,而低薪的員工對其進行閱讀和轉錄。

640?wx_fmt=jpeg

即使是在人工智慧領域投入了巨資的Facebook,也會依賴人類充當其名為Messenger的虛擬助手。


偽人工智慧特徵二:AI成果造假,獲取投資


在某些情況下,人類會被用於訓練人工智慧系統並提高其準確性。一家名為Scale的公司的業務便是提供人類勞動力,為自動駕駛汽車和工智慧系統提供培訓資料。比如,“Scalers”會審查攝像頭或感測器的資料,並對汽車、行人等進行標籤處理,之後通過足夠的人工校對,AI才開始學習識別這些物體本身。

 

在一些情況下,有些公司會一直用這種方式假裝下去,告訴投資者和使用者他們已經開發了可擴充套件的AI技術,同時繼續祕密地依賴人類智慧。

640?wx_fmt=png

偽人工智慧特徵三:把預設程式稱為AI


如今,市面上出現的大多數產品都被冠上了“智慧”的標籤,比如,對話式兒童智慧機器人,實際上多數是預設程式的玩具;包學包會包就業的AI培訓,實際上就是程式設計培訓;神乎其神的AI炒股軟體,也不過是用了量化的方法選股而已。對此,阿里巴巴前CEO衛哲甚至論斷,目前偽人工智慧比例可能高達90%或者99%

 

簡單來說,這些產品不過是“穿了個馬甲”,流行什麼就貼什麼標籤,以為貼上了人工智慧的標籤,就真的成了人工智慧。目前對於人工智慧業界還沒有準確的定義,接受度較廣的就是人工智慧需要具有自主學習的能力,因此有產品鑽這個空子,也不可避免。但這也會擾亂市場,對技術的發展蒙上一層陰影。


使用者對人工智慧的態度——透明化


聊天機器人Woebot的創始人兼心理學家Alison Darcy表示,“很多時候,人工智慧的背後是人工而不是演算法。建立一個良好的人工智慧系統需要‘大量的資料’,有時投資者在進行投資之前會想知道該領域是否有足夠的服務需求。”

640?wx_fmt=jpeg

但她表示,這種方法不適合像Woebot這樣的心理支援服務。“作為心理學家,我們要遵循道德準則,不欺騙是非常明顯的道德原則之一。“

 

不過有研究表明,在人們的意識裡,面對機器比面對人類醫生,會更容易讓他們透露自己的心聲。來自南加州大學的一個團隊用名為Ellie的虛擬治療師進行了測試。他們發現,患有創傷後應激障礙的退伍軍人在知道Ellie是一個AI系統的時候會更容易傾訴自己的症狀。

 

但是有些人認為,公司應該始終對自己的服務運營方式保持透明

 

“我不喜歡這樣。這對我來說是不誠實,是欺騙。從我的角度出發,這些也都不是我想從正在使用的服務中獲得的東西。”一些來自假裝提供人工智慧服務,實際上卻僱傭人類進行工作的員工表示,“而在工人方面,感覺我們被推到了幕後。我不喜歡一家公司使用我的勞動力,轉而向客戶撒謊,不告訴他們真正發生的事情。“

 

這種道德上的窘境也在人工智慧系統方面引發了人們的思考。以Google Duplex為例,一個機器人助手,可以與人類展開讓人毛骨悚然的逼真對話,完成餐廳或美髮沙龍的預定,這對人類來說,不是一種很好的感覺。

 

Darcy表示,“在他們的演示版本中,我感覺被欺騙了。”在使用者的反饋下,谷歌終究還是改變了Duplex的對話方式,在講話前會先表明自己的身份。儘管如此,人們還是覺得有些介意,比如,助手的聲音如果模擬了一些名人或政治家再打電話,會發生什麼呢?

 

在小智君(ID:Aiobservation)看來,隨著人工智慧的發展,多數人已經對人工智慧產生了恐懼,因此,在AI技術的應用缺乏透明度的情況下,這項技術並不會真正地方便人們的生活。此外,不管是把裝有簡單預設程式的音響/機器人稱為人工智慧,還是把自動化裝置偷換概念稱之為人工智慧,這些偽創新的炒作,只會對人工智慧的發展產生越來越大的傷害。

 

人工智慧需要的是清醒客觀的判斷以及紮紮實實的努力。所以,就目前而言,對於人工智慧的發展,建立一個更務實的發展環境才是重中之重。

(文中圖片來自網路)

640?wx_fmt=png

投稿、約訪、合作,聯絡郵箱aiobservation@qq.com

新增微信aixiaozhijun,更多交流或進AI觀察團

640?wx_fmt=gif

相關文章