用人工智慧監督人工 遭遇非技術困局

dicksonjyl560101發表於2020-07-27

遠端辦公常態化催生雲監工軟體市場。近日一款名為Enaible的AI監工軟體銷售火爆,這種AI軟體不僅可以盯著員工幹活,還可以對員工的工作效率進行打分……

一場新冠肺炎疫情,讓遠端辦公逐漸成為常態。釘釘、飛書、企業微信、zoom等視訊會議類軟體,很好地解決了遠端溝通問題。除了視訊會議軟體,另一種雲監工軟體也火了,這種AI軟體可以盯著你幹活,看你是否“摸魚”,並給你打分。這款AI監工軟體名叫Enaible,據悉,全員在家辦公期間,Enaible銷售尤其火爆,前來諮詢的公司數量是以前的4倍。但也有批評聲音表示,這款軟體會讓員工失去創造力和對於公司的忠誠度。

收集操作痕跡 可給工作效率評分

AI監工有何神通能監督員工們的工作,還能為員工打分?據介紹,Enaible軟體裝在員工的電腦裡,並可以在後臺一直執行,收集員工工作中的細節資料後提供給公司。軟體使用了一個名為Trigger-Task-Time的演算法,演算法會根據郵件或者電話,來判斷員工要完成什麼任務以及計算這些任務花了多長時間來完成,隨後演算法會根據這些資料給員工的工作效率打分。

“我們使用的作業系統,都會以日誌的形式對應用軟體的操作流程進行記錄。開啟哪個文件、內容是什麼、上網瀏覽哪些網頁都會留下使用痕跡。在計算機裡面裝一個監控軟體,賦予它作業系統裡的很多許可權,AI監工就能把辦公中操作電腦所留下的各種資料收集起來,進行融合處理,形成計算機可理解的表達。”天津大學智慧與計算學部教授韓亞洪解釋,因為AI監工記錄下來的資料會有圖片、文字、影片、音訊以及各種符號資料,因此會用到模式識別、自然語言處理、語音識別、資料探勘、多模態資料融合等AI領域的最新技術。

“AI監工最核心的部分不只是收集資料,其最大難度在於透過演算法模型,對這些資料進行分析,從而做出正確的決策,也就是對員工的工作效率等進行打分。”韓亞洪解釋,這個演算法模型的形成需要進行機器學習,具體說是監督學習。監督學習光有大量的資料是遠遠不夠的,必須要有很多專業領域知識的積累,這樣才能為資料本身和最後的正確決策建立起一個關聯,形成有監督的資訊,也就是一條條有效的訓練資料。

“什麼是有效的訓練資料?比如訓練機器識別動物,我們會找很多貓、狗的照片,不同品種、不同形態,但是我們都必須為這些圖片標註上貓或者狗的名稱,這個標註就是正確決策,圖片和對應的標籤共同形成了一條有效的訓練資料。透過對大量有效資料的學習,機器就可以建立起一個演算法模型,對圖片進行識別。”韓亞洪舉例說。

“生成Trigger-Task-Time的演算法模型,領域內的專家知識和領域內的資料缺一不可。訓練這樣一個模型,需要有很多領域內的相關知識積累和儲備才能做到,並找到有效的知識融合方法。”韓亞洪分析,這才是成就AI監工的核心關鍵。

據Enaible官網介紹,這家公司的創始人擁有20年的“CEO教練”經驗。也正是有這樣的職業背景,讓AI監工軟體除了評判員工外,還有一個領導力推薦演算法可以給老闆們提供建議 ,自動找出員工工作中的問題、提高效率。

隱私無所遁形 AI被吐槽不近人情

AI監工從誕生之初就伴隨著爭議,在不少員工眼裡,AI監工軟體正扮演著“飯碗殺手”的角色,而且是不近人情的。

員工們吐槽最多的就是“不被信任”“每分每秒被監控,感到很可怕”……2019年4月末,亞馬遜就用數字監控器追蹤發貨倉庫裡揀貨工人們的工作速度,並管理和限制員工離開崗位的時間,然後自動生成解僱的指令。員工則被這種“看不見、卻無處不在”的“電子皮鞭”驅趕得疲於奔命,連喝水上廁所都不敢隨便去,更別提各種隱私無所遁形。

“AI監工的存在引發了一個始終伴隨著人工智慧發展的重要問題,那就是人工智慧倫理問題。倫理是有界限的,超過一定的界限可能就涉及到法律問題了。”韓亞洪舉例說,比如無人駕駛汽車上路把人撞死了,這個法律責任該由誰擔負呢?這就是人工智慧倫理問題。對於裝在電腦裡的AI監工,雖然員工在辦公,但電腦畢竟是私人的,監控員工就有可能會涉及到個人的隱私資料。因此AI監工的存在,首先要解決好人工智慧倫理的問題。

還有很多員工質疑“AI監工的決策是否能衡量員工的生產力”“評判的結果是否準確”……韓亞洪表示,這類軟體肯定會考慮到大多數辦公業務的情況,因此決策的結果大部分是準確的。但特殊情況肯定也是存在的,當機器遇到的是它從來沒碰到過的特殊情況時,演算法可能也會給出不準確的評判。因為這種監督員工工作效率的工作,即使由人來做,也有不準確的時候。

解決倫理問題 AI監工或迎長遠發展

面對各種吐槽,Enaible公司也感到非常委屈,根據他們的統計,8小時工作制裡,其實人們有產出的只有3個小時,美國每年有4000億美元被員工們的低效率損失掉。管理者本來就是要盯著員工幹活,判斷他工作中的問題,這個過程換成AI也一樣。企業反正都要裁員,那不如精準地找出工作效率最低的人。

“Enaible公司的說法也有一定的道理,但是未來要全面使用AI監工,首先需要釐清人工智慧倫理與人工智慧應用的關係。”韓亞洪提出自己的看法,只有捋順AI倫理問題,才能決定AI監工是否能繼續使用。而讓員工和老闆都認可,AI監工才有可能發展下去。

“在技術層面,增加互動功能,對於完善機器演算法模型將有很大的幫助。”韓亞洪解釋,當AI監工部署到一個公司時,可能開始的時候,它的效能沒有那麼好。而如果AI監工的模型能設計成可互動的形式,並且在互動中能夠進化,它的能力就會在學習中再提升。就像我們上面提到的,如果遇到模型演算法沒有遇到過的資料,就有可能出現決策錯誤。如果這時候,透過互動告訴機器正確的決策,那麼下次再遇到同類問題,機器的演算法模型就會舉一反三,給出正確的決策了。

“而且現實世界裡,員工的工作狀態必然受其所處的社會、家庭和生活環境的影響,所以對員工的監督和管理也不可能只用與工作有關的冰冷冷的資料。”韓亞洪表示,如果AI監工能變得更人性化一些,也就是演算法模型設計得更個性化一些,比如透過捕捉員工的表情、動作等方面的變化,並透過大資料的蛛絲馬跡去發現員工狀態、情緒、身體健康等方面的異常和變化,並且把這些資料也融入到模型演算法的決策中去,這樣AI監工最終的決策也許會讓人覺得更有人情味。

正如《麻省理工科技評論》援引英國律師科瑞的話,良好的工作環境,應該讓員工覺得自己的工作備受信任,而單純的監控是無法做到這一點的。

【編輯推薦】





來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/29829936/viewspace-2707068/,如需轉載,請註明出處,否則將追究法律責任。

相關文章