首場ACRV機器人視覺挑戰,全卷積神經網路實現互動式醫學影像分割 | AI一週學術
作者:Christopher Dossman
編譯:笪潔瓊、Conrad、雲舟
嗚啦啦啦啦啦啦啦大家好,本週的AI Scholar Weekly欄目又和大家見面啦
AI Scholar Weekly是AI領域的學術專欄,致力於為你帶來最新潮、最全面、最深度的AI學術概覽,一網打盡每週AI學術的前沿資訊,文末還會不定期更新AI黑鏡系列小故事
每週更新,做AI科研,從這一篇開始就夠啦
本週關鍵詞:ACRV機器人視覺挑戰、基於視覺的移動操作、Sim2Real策略、DC-SPP-YOLO模型
本週熱門學術研究
新的概率目標檢測挑戰:第一場ACRV機器人視覺挑戰。
對於機器人應用來說,回答目標是什麼以及目標在哪這一問題,並提供一種空間和語義不確定性的衡量標準,是目標檢測需要優先解決的問題。
日前,由Google支援的澳大利亞研究委員會旗下的機器人卓越視覺中心開啟了第一場關於概率目標檢測的挑戰賽。計算機和機器人視覺的挑戰要求參與者檢測視訊資料中的物件,並提供空間和語義不確定性的準確估計。
圖1:示例圖片來自用來產生挑戰測試資料的模擬環境,第一排和左下圖是用於測試序列的環境,右下圖是用於驗證序列。
這場挑戰沒有設定門檻,人工智慧社群中對目標檢測有興趣的人都可以參加,這是一場很不錯的挑戰。挑戰的測試資料集包含來自18個模擬室內視訊序列中的56,000多張影像,將在用於挑戰的公共伺服器中進行評估,該伺服器僅在公開比賽階段開放。參與者將獲得名次並共享5000澳元獎金。
潛在應用及效果
這一新的挑戰是對概率目標檢測的介紹,將現有的目標檢測任務提升到高階機器人應用中的空間和語義不確定性。總的來說,它將提高機器人應用在物體檢測方面的技術水平。
更多細節:
https://nikosuenderhauf.github.io/roboticvisionchallenges/object-detection
原文:
https://arxiv.org/abs/1903.07840
一種基於視覺的移動操作機器人影像生成方法
研究人員設計了一種系統,該系統可以使用單個輸入影像從期望的視點為特定物件生成一組影像,供移動操作機器人使用。
所提出的方法是一種深層神經網路,訓練它從多個視角“想象”物體的外觀。它將物件的單個RGB影像作為輸入,並返回一組RGB和深度影像(位深度影像),從而消除了傳統、耗時的掃描。
雖然深層神經網路已經實現了單視角重建,但由於重建過程計算量大,很難直接獲得重建物件的精準細節。該方法採用基於CNN模型的目標檢測器從自然環境中提取目標,由神經網路生成一組RGB和深度影像(位深度影像,目前Ps軟體中的位深度為16位)。該方法已在生成影像和真實影像上進行了測試,證明其是非常有效的。
潛在應用與效果
基於影像生成具有為重建物體提供更好的空間解析度的潛力。因此,該方法在移動操作機器人領域中是有必要的。這種方法有可能幫助機器人更好地理解一個物體的空間屬性,而不需要做一個完整的掃描。
原文:
https://arxiv.org/abs/1903.06814
為Sim2Real策略遷移增強合成影像
由於實際資料和合成資料之間存在著領域差距,而且很難將在模擬器中學習到的策略傳輸到真實場景中。在過去,領域隨機化(隨機領域資料生成,domain randomization)通過使用隨機變換(如隨機物件形狀和紋理)增強合成資料來解決這一挑戰。
近年來,研究人員對領域隨機化的研究做出了新的貢獻,對Sim2Real遷移的增強技術進行了優化,使其能夠在沒有真實影像的情況下實現與領域無關的策略學習。
他們設計了一種利用目標定位進行深度影像增強的高效搜尋方法。在策略學習過程中,利用生成的隨機變換序列來增強合成深度影像。
為了評估這種遷移的程度,研究人員提出了一種目標位置估計的委託任務,這種任務只需要很少的真實資料。新方法大大提高了在真實機器人上評估操作任務的準確性。
潛在應用及效果
該方法在模擬環境中促進了操作策略的有效學習。這是非常有益的,因為模擬器可以促進可伸縮性,並在模型訓練期間提供對底層空間的訪問。此外,新的方法不需要真實影像來實現策略學習,可以應用於各種操作任務。
原文:
https://arxiv.org/abs/1903.07740
新的DC-SPP-YOLO模型實現了更精確的實時目標檢測
研究人員提出了一種DC-SPP-YOLO方法來提高YOLOv2目標的檢測精度。DC-SPP方法通過優化基礎網路的連線結構來改進YOLOv2,並引入了多尺度區域性區域特徵提取。因此,這個提出的新方法比YOLOv2更精確。
它達到了接近YOLOv2的目標檢測速度,並且比傳統的目標檢測方法如反摺積單鏡頭檢測器(DSSD)、標度可轉移檢測網路(STDN)和YOLOv3更高。
DC-SPP-YOLO特別利用YOLOv2基礎網路中卷積層的連線來加強特徵提取,使消失梯度問題最小化。在此基礎上,提出了一種改進的空間金字塔池,並將多尺度區域性區域特徵串聯起來,使網路能夠更全面地學習目標特徵。
基於一種新的損失函式訓練DC-SPP-YOLO模型,該損失函式由均方誤差和交叉熵組成,能更準確地實現目標檢測。實驗結果表明,DC-SPP-YOLO在PASCAL VOC和UA-DETRAC資料集上的mAP均大於YOLOv2。
潛在用途及影響
通過加強特徵提取,利用多尺度區域性區域特徵,DC-SPP-YOLO實現了優於YOLOv2的實時目標檢測精度。在安全監控、醫療診斷、自動駕駛等方面,該方法可用於實現更精確的、最先進的計算機視覺應用。
詳情請見:
https://arxiv.org/abs/1903.08589
通過全卷積神經網路實現互動式醫學影像分割
最近的研究提出了一種“智慧”的深度學習半自動分割方法,能夠在醫學影像中對感興趣的區域進行互動描述。這種提出的方法採用了一種FCNN的架構來執行互動式二維醫學影像分割。
那麼它是如何使用互動的?網路被訓練成每次只分割一個感興趣的區域,並考慮到使用者以單擊一次或多次滑鼠的形式輸入的內容。該模型還被訓練去使用原始2D影像和一個“引導訊號”作為輸入。然後它會輸出特定分割物件的二進位制掩碼。研究人員已經證明了它可以被用於在腹部CT中分割各種器官。這種新方法提供了非常準確的結果,可以根據使用者的選擇以快速、智慧和自發的方式進行糾正。
潛在用途及影響
該方法可以快速地提供高階的二維分割結果。它也有潛力解決緊迫的臨床挑戰,並可用於提高分割精度的眾多醫學成像應用,如腫瘤定位、手術規劃、診斷、手術內導航、虛擬手術模擬、組織體積測量等。其他應用包括視覺化、放射治療規劃、3D列印、影像分類、自然語言處理等等。
原文:
https://arxiv.org/abs/1903.08205
其他爆款論文
利用3D點雲增強可穿戴機器人的環境分類。
原文:
https://arxiv.org/abs/1903.06846v1
用於道路駕駛影像實時語義分割的預訓練模型。
原文:
https://arxiv.org/abs/1903.08469
第一種基於事件的運動分割資料集學習方法和事件相機的學習管道。
原文:
https://arxiv.org/abs/1903.07520
新的研究表明,你可以通過Wi-Fi感應來提高視覺SLAM演算法的準確性。
原文:
https://arxiv.org/abs/1903.06687
即插即用的磁共振成像(MRI)。
原文:
https://arxiv.org/abs/1903.08616
AI新聞
谷歌在德國作曲家巴赫生日當天釋出了AI塗鴉來紀念他。
詳情請見:First ever AI doodle that allows users to make music.
https://www.newsweek.com/google-doodle-bach-birthday-when-march-21-22-1366826
結合計算密集型的人工智慧應用程式和最近釋出的新人工智慧伺服器。
詳情請見:AI Server Enabled with NVIDIA GPUs for edge computing
https://www.marketwatch.com/press-release/inspur-releases-edge-computing-ai-server-enabled-with-nvidia-gpus-2019-03-19?mod=mw_quote_news
真的有可能創造出類似人類的人工智慧嗎?
詳情請見:How to create AI that is more human
https://www.forbes.com/sites/jenniferhicks/2019/03/19/how-do-we-create-artificial-intelligence-that-is-more-human/amp/
Christopher Dossman是Wonder Technologies的首席資料科學家,在北京生活5年。他是深度學習系統部署方面的專家,在開發新的AI產品方面擁有豐富的經驗。除了卓越的工程經驗,他還教授了1000名學生了解深度學習基礎。
LinkedIn:
https://www.linkedin.com/in/christopherdossman/
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/31562039/viewspace-2639475/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 【卷積神經網路學習】(4)機器學習卷積神經網路機器學習
- 利用Python實現卷積神經網路的視覺化Python卷積神經網路視覺化
- 全卷積神經網路FCN卷積神經網路
- 卷積神經網路中的視覺化方法卷積神經網路視覺化
- 全卷積網路(FCN)實戰:使用FCN實現語義分割卷積
- 【機器學習基礎】卷積神經網路(CNN)基礎機器學習卷積神經網路CNN
- 深度學習三:卷積神經網路深度學習卷積神經網路
- TensorFlow實戰卷積神經網路之LeNet卷積神經網路
- 卷積神經網路表徵視覺化研究綜述卷積神經網路視覺化
- 【深度學習篇】--神經網路中的卷積神經網路深度學習神經網路卷積
- 掌握視覺化卷積神經網路模型,帶你暢遊影像識別技術領域視覺化卷積神經網路模型
- 卷積神經網路進行影像識別卷積神經網路
- 深度學習——LeNet卷積神經網路初探深度學習卷積神經網路
- 深度學習筆記------卷積神經網路深度學習筆記卷積神經網路
- 卷積神經網路數學原理解析卷積神經網路
- 卷積神經網路CNN-學習1卷積神經網路CNN
- 卷積神經網路學習筆記——SENet卷積神經網路筆記SENet
- 深度學習卷積神經網路筆記深度學習卷積神經網路筆記
- 使用全卷積神經網路FCN,進行影像語義分割詳解(附帶Tensorflow詳解程式碼實現)卷積神經網路
- TensorFlow上實現卷積神經網路CNN卷積神經網路CNN
- Keras上實現卷積神經網路CNNKeras卷積神經網路CNN
- 卷積神經網路卷積神經網路
- 誰可以詳細講講機器學習,深度學習,神經網路,卷積神經網路的區別以及應用場景機器學習深度學習神經網路卷積
- 機器學習實戰篇——用卷積神經網路演算法在Kaggle上跑個分機器學習卷積神經網路演算法
- 深度學習經典卷積神經網路之AlexNet深度學習卷積神經網路
- 卷積神經網路學習筆記——Siamese networks(孿生神經網路)卷積神經網路筆記
- 卷積神經網路-啟用函式卷積神經網路函式
- TensorFlow 一步一步實現卷積神經網路卷積神經網路
- 卷積神經網路的原理及Python實現卷積神經網路Python
- 《卷積神經網路的Python實現》筆記卷積神經網路Python筆記
- 【Python教程】計算機視覺的基石——讀懂 CNN卷積神經網路Python計算機視覺CNN卷積神經網路
- 機器學習從入門到放棄:卷積神經網路CNN(二)機器學習卷積神經網路CNN
- 卷積神經網路概述卷積神經網路
- 解密卷積神經網路!解密卷積神經網路
- 5.2.1 卷積神經網路卷積神經網路
- 卷積神經網路CNN卷積神經網路CNN
- 卷積神經網路-AlexNet卷積神經網路
- 卷積神經網路-1卷積神經網路