閱讀768 返回首頁    go 阿裏雲 go 技術社區[雲棲]


兩屆CVPR最佳論文得主何愷明新作:應對樣本的不平衡分布,刷新密集物體檢測表現上限

雷鋒網 AI 科技評論按:CV大牛何愷明在Facebook人工智能實驗室的新作,一起來圍觀!

何愷明博士,2007年清華大學畢業之後開始在微軟亞洲研究院(MSRA)實習,2011年香港中文大學博士畢業後正式加入MSRA,目前在Facebook人工智能實驗室(FAIR)實驗室擔任研究科學家。何愷明博士最讓人印象深刻的是曾兩次以第一作者身份摘得CVPR最佳論文獎(2009和2016),其中2016年CVPR最佳論文為圖像識別中的深度殘差學習(Deep Residual Learning for Image Recognition),就是舉世聞名的152層深度殘差網絡 ResNet-152。


image


這次,何愷明博士的新論文名為「Focal Loss for Dense Object Detection」,利用“焦距損失”的方法,應對樣本不均衡的問題,從而大幅度提升了物體檢測效果,以下是雷鋒網 AI 科技評論對這篇論文的介紹。


物體檢測(Object detection)是計算機視覺研究領域的一項重要任務,而迄今為止表現最好的物體檢測方法是由於R-CNN而流行開來的兩階段法,這種方法現在第一階段首先生成一個包含所有物體、過濾了大多數沒有物體的背景區域的稀疏侯選集合,然後在第二階段重新判別所有的候選點,把它們明確地分為前景類別以及背景。R-CNN的運用就是在兩階段法中用一個卷積網絡作為第二階段的分類器,取得了精度的大幅度進步。在多年的改進中,R-CNN也經曆了許多升級,速度和準確率都有繼續的提升。

另一種物體檢測方法是單階段法,以近期的 SSD 和 YOLO 為代表。它們的好處是速度有很大提升,代價是犧牲了精度;SSD的識別準確率要低10%~20%,YOLO 則更加注重速度,準確率的犧牲更大。如下圖中字母的位置就是不同的網絡在準確率和推理時間取得的平衡。近期的研究也顯示出,如果想要加速兩階段法的網絡,降低輸入圖像的分辨率即可達到很好的效果,但是想要提升單階段方法的準確率的話,很高的計算開銷也收效甚微,表現改善陷入了困境。


image

而圖中的兩條線則是這篇論文中提出的模型的表現。作者們的目的是讓單階段方法也有很高的準確率。那麼他們的最終結果 RetinaNet,分別在同樣的推理時間下,比所有現有模型都取得了更高的準確率。而且根據不同的網絡大小也可以在速度和準確率之間取得不同的平衡。效果可謂是驚人地好。

據雷鋒網 AI 科技評論了解,研究員們在探究單階段網絡準確率表現不佳的狀況時,發現在密集檢測器(Dense detectors)訓練期間遇到了極端的前景-背景類別不平衡(Extreme foreground-background class imbalance)是一個重要原因。比如SSD中,檢測器需要在每張圖像中評價一萬個到十萬個候選位置,然而其中隻有很少的點真的含有目標物體。這就導致了訓練效率低下和簡單的負麵樣本引發整個模型表現下降的問題。

image

所以,研究員們提出了通過重塑標準交叉熵損失來解決這一類不平衡問題。他們的想法是降低簡單的負麵樣本所占的權重,所以他們提出的焦點損失(Focal Loss)方法將訓練集中在一係列難點上,並且防止了大量的簡單負麵例子在訓練過程中阻礙探測器學習。如上圖,參數 γ 的值選擇得越大,模型就會對已經得到了很好的分類的樣本忽略得越多,越專注於難的樣本的學習。這樣的機製就讓他們的檢測器在密集對象檢測這樣的真實正麵樣本比例很低的情況下取得了很高的準確率。

由於論文作者中有 ResNet 提出者何愷明博士的名字,我們也不意外地發現,ResNet 的成果在 RetinaNet 中得到了運用。ResNet 的部分高水平地提取圖像中的特征,而在附加網絡中實現了樣本不平衡的調節。

image

圖一,上圖展示了單階段網絡RetinaNet的架構。該架構在前饋ResNet架構(a)頂部使用特征金字塔網絡(Feature Pyramid Network, FPN)骨架,以生成更加豐富和多尺度的卷積特征金字塔(b)。RetinaNet在後麵還附加了兩個子網,一個是用於分類的錨盒(Anchor boxes)(c),另一個則是用於實現錨盒到Ground-truth物體盒之間的回歸(d)。該神經網絡被有意設計成這種比較簡單的形式,這樣使得這項工作的精力能夠集中於焦點損失(Focal loss)函數上。該焦點損失函數消除了單階段檢測器與最新的兩階段檢測器之間的準確率差距,並且運行速度還更加快。

根據 RetinaNet 中使用的 ResNet 網絡大小不同,形成了 RetinaNet-101 和 RetinaNet-50,兩個模型在大小為500、600、700、800的圖像上的表現就繪製出了文章開頭這張性能/時間對比圖中的兩條線。而這兩條線也就一起描繪出了現有方法的表現上限。


image


對於應對樣本不平衡問題的關鍵方法“焦距損失”,作者們在論文中還提出了兩種不同的表現形式,都起到了很好的效果。更多模型細節可以查看原論文,論文地址:https://arxiv.org/abs/1708.02002

雷鋒網(公眾號:雷鋒網) AI 科技評論編譯。
本文作者:隔壁王大喵
本文轉自雷鋒網禁止二次轉載,原文鏈接

最後更新:2017-08-22 12:02:36

  上一篇:go  盤點物聯網數據雲存儲方式
  下一篇:go  《模式識別原理及工程應用》一1.3 模式識別係統