攝像頭訓練的吃豆人,我還是沒活幾集 | TensorFlow.js

量子位發表於2018-04-02
方栗子 發自 凹非寺 
量子位 報導 | 公眾號 QbitAI

640?wx_fmt=jpeg&wxfrom=5&wx_lazy=1

上個週末,面向JavaScript開發者的TensorFlow.js在TF開發者峰會上釋出。

會上,Nikhil Thorat演示的影像訓練版吃豆人,看上去是一款非常友好的遊戲。

640?wx_fmt=jpeg&wxfrom=5&wx_lazy=1&retryload=1

既然有官網掛出的Demo地址,作為好事者的一員,我也去試了一試。順便幫大家測試一下網頁版的遊戲體驗。

只要開啟電腦的前置攝像頭,便可以用四種不同的影像訓練AI進行上下左右的運動。等Loss值穩定下來,表示訓練結束,就開始遊戲吧。

EP01

640?wx_fmt=jpeg

我選擇了比較方便的手勢訓練。一開始,只用大拇指表示四個方向。

發現手勢傳達的意圖很不明確,當時以為是AI不負責識別影像的方向——

向上和向右 (皆手背朝外) 分不清,向左和向下 (皆手心朝外) 分不清。

EP02

後來,我把上和左換成了食指。AI依然固執地朝我不想去的方向跑,拇指和食指也分不清。

EP03

一定是我的臉出現在鏡頭裡,AI才會困惑的,我這樣想著。

於是,我儘量把臉移出去了。然而並沒有什麼用,AI還是有些茫然。

EP04

640?wx_fmt=jpeg

並不甘心。我乾脆不用手了,換成頭部的前俯後仰,左搖右擺。

萬萬沒想到,雖然動作不甚美觀,但這次真的好了許多,終於打上了3000分。

640?wx_fmt=png

操作渣對自己的表現一本滿足。

後續

不過,依然發現了一些問題。

這個遊戲厲害的地方是,手勢變換的途中,系統經常識別出我們無法控制的方向。

大概,在沒有岔路的時候變換手勢最為穩妥,就算過渡期間出現插曲,也能得到有效的糾正。

不過,也只是想想,畢竟這種級別的操作已經不是我能練成的。

另外, learning rate (學習速率) 、batch size (批尺寸) 、epoch (所有資料訓練的遍數) 和hidden units (隱含單元) 這四個引數的調整,在操作渣的成績方面,似乎也沒有體現出更大的幫助。可能多試幾次,會找到更適合的引數組合。

以及,關於樣本的數量,一言難盡。四組樣本,取到最後一組的當中,瀏覽器可能會突然閃一下——那是在說,前面的樣本白取了,回去重新拍照吧。

嗯,其實我也想多玩幾次的。

大家也可以去以下地址試玩:
https://storage.googleapis.com/tfjs-examples/webcam-transfer-learning/dist/index.html
或者檢視程式碼:
https://github.com/tensorflow/tfjs-examples/tree/master/webcam-transfer-learning

加入社群

量子位AI社群15群開始招募啦,歡迎對AI感興趣的同學,加小助手微信qbitbot6入群;


此外,量子位專業細分群(自動駕駛、CV、NLP、機器學習等)正在招募,面向正在從事相關領域的工程師及研究人員。


進群請加小助手微訊號qbitbot6,並務必備註相應群的關鍵詞~通過稽核後我們將邀請進群。(專業群稽核較嚴,敬請諒解)

誠摯招聘

量子位正在招募編輯/記者,工作地點在北京中關村。期待有才氣、有熱情的同學加入我們!相關細節,請在量子位公眾號(QbitAI)對話介面,回覆“招聘”兩個字。

640?wx_fmt=jpeg

量子位 QbitAI · 頭條號簽約作者

վ'ᴗ' ի 追蹤AI技術和產品新動態


相關文章