看不清摸不著還能識別出物體,目標演算法讓機器人更聰明

行者武松發表於2018-03-01

研究人員開發出新演算法,使機器人無需多角度取景,就可以迅速識別出三維空間裡的物體。



目前機器人識別三維空間裡的物體都是通過多個角度觀察來收集資訊,從而做出判斷,故而常出現反應速度慢和對儲存和計算資源的需求量大等問題。對此,研究人員開發出一套新的計算機視覺演算法,即使在部分物體被遮擋的條件下,它也能夠使機器人直接識別出物體,無需多角度收集資訊。


看不清摸不著還能識別出物體,目標演算法讓機器更聰明


類似傳統的用於訓練機器人的計算機視覺演算法,該演算法也需要通過四千個分佈在十個不同類別的物體資料的訓練,以此來了解這個世界。


當我們需要機器人識別物體時,傳統的演算法只是用來訓練如何識別物體的特徵和物體疊加的總體特徵,而此處新的演算法會計算物件的相似度和物體之間不同之處這兩項因素。


具體來看,就是當它需要識別鍋和罐頭的時候,演算法不會花時間檢測中空部分,而是尋找其他因素;而當演算法確定物體是個鍋的時候,它會將重點放在鍋的深度或手柄的位置,以確定鍋的型別。


對此,Ben Burchfiel博士說:“這樣可以釋放儲存和計算資源,讓學習變得更容易。”


不過在識別任務中,很多時候物體都是被遮掩的。雖然傳統的深度學習演算法能夠解析複雜的輸入資料,並輸出一個簡單的預測結果,但是當物件模糊時,傳統的演算法往往無法給出準確的結果,正確率極低。而這裡的新演算法可以通過關聯的形狀特徵來構建整個物件。


根據訓練結果,嵌入該演算法的機器人大約只需花一秒來預測結果,正確率目前可達到75%,而且它無需從不同角度獲取物體資訊,就可以推斷出物體不可見的部分。


Burchfiel表示,目前需要做的就是用大量的資料對這一演算法進行訓練,以達到更高的準確度和實現對演算法的優化。

原文釋出時間:2017-07-21 17:23
本文作者:Lynn


本文來自雲棲社群合作伙伴鎂客網,瞭解相關資訊可以關注鎂客網。


相關文章