FAIR(何愷明團隊新作) PointRend:將影象分割視為渲染(Rendering)
編輯:Amusi
Date:2019-12-19
注:這是一篇純論文速遞的文章
PointRend
《PointRend: Image Segmentation as Rendering》
作者(豪華)團隊:Facebook 人工智慧實驗室(Alexander Kirillov/吳育昕/何愷明/RossGirshick)
論文連結:
https://
arxiv。org/abs/1912。0819
3
論文釋出時間:2019-12-18
摘要:我們提出了一種新的方法,可以對物體和場景進行有效的高質量影象分割。透過將經典的計算機圖形方法模擬為有效渲染,同時畫素標註任務面臨著過取樣和欠取樣的挑戰,我們開發了影象分割作為渲染問題的獨特視角。從這個角度出發,我們提出了PointRend(基於點的渲染)神經網路模組:該模組基於迭代細分演算法在自適應選擇的位置執行基於點的分割預測。透過在現有最新模型的基礎上構建,PointRend可以靈活地應用於例項和語義分割任務。儘管可以實現該總體思想的許多具體實現,但我們表明,簡單的設計已經可以實現出色的結果。定性地,PointRend在先前方法過度平滑的區域中輸出清晰的物件邊界。從數量上講,無論是例項還是語義分割,PointRend都在COCO和Cityscapes上產生了有效的效能提升。
注:PointRend對例項分割和語義分割都有效能提升,如對例項分割的Mask R-CNN有效能提升,同時對語義分割的DeepLabV3、SemanticFPN也有效能提升。
PointRend網路結構
Mask R-CNN+PointRend實驗結果
DeepLabV3+PointRend實驗結果
SemanticFPN+PointRend實驗結果
推薦大家關注 計算機視覺論文速遞 知乎專欄,可以快速瞭解到最新優質的CV論文
歡迎交流討論
推薦閱讀
等待YOLOv4的期間,它還在更新
大盤點 | 2019年4篇目標檢測演算法最佳綜述
大盤點 | 2019年5篇影象分割演算法最佳綜述
大盤點 | 2019年3篇目標跟蹤演算法最佳綜述
YOLACT++:更強的實時例項分割網路,可達33。5 FPS/34。1mAP!
一文看盡10篇目標檢測最新論文(SpineNet/AugFPN/LRF-Net/SABL等)
上一篇:什麼樣的紅酒好喝又適合女生喝?
下一篇:手把手教你寫作文