久久ER99热精品一区二区-久久精品99国产精品日本-久久精品免费一区二区三区-久久综合九色综合欧美狠狠

博客專欄

EEPW首頁 > 博客 > 目標檢測性能優化,Focal EIOU,從IOU的角度提升檢測的準確率!

目標檢測性能優化,Focal EIOU,從IOU的角度提升檢測的準確率!

發布人:計算機視覺工坊 時間:2022-11-19 來源:工程師 發布文章
作者丨小書童

來源丨集智書童

導讀框回歸是目標檢測任務中衡量檢測框位置準確與否的重要指標,為減少已知框回歸方法帶來的收斂速度慢和結果不準確的問題,本文提出了一種有效的框回歸方法(EIOU),并提出了Focal Loss的回歸版本,在收斂速度和定位精度上實現顯著的優勢。圖片論文鏈接:https://arxiv.org/abs/2101.08158

在目標檢測中,框回歸(BBR)是決定目標定位性能的關鍵步驟。然而,作者發現大多數以前的BBR損失函數有兩個主要缺點:

  1. 基于范數和IOU的損失函數都不能有效地描述BBR的目標,這導致收斂速度慢和回歸結果不準確。

  2. 大多數損失函數忽略了BBR中的不平衡問題,即與目標框具有小重疊的大量目標框對BBR的優化貢獻最大。

為了減輕由此造成的不利影響,在本文中進行了深入研究,以挖掘BBR損失的潛力。首先,提出了一種有效的Efficient Intersection over Union(EIOU)損失,它明確地測量了BBR中3個幾何因子的差異,即重疊面積、中心點和邊長。之后,陳述了Effective Example Mining(EEM)問題,并提出了Focal loss的回歸版本,以使回歸過程專注于高質量的Anchor boxes。最后,將上述兩部分結合起來,得到一個新的損失函數,即Focal EIOU Loss。在合成和真實數據集上進行了大量實驗。與其他BBR損失相比,可以在收斂速度和定位精度上實現顯著的優勢。

1、簡介目標檢測包括兩個子任務:目標分類和目標定位,一直是計算機視覺中最基本的問題之一。當前最先進的目標檢測器(例如,Cascade R-CNN、Mask R-CNN、Dynamic R-CNN和DETR)依賴于邊界回歸(BBR)模塊來定位目標。基于這一范式,精心設計的損失函數對于BBR的成功至關重要。迄今為止,BBR的大部分損失函數可以分為兩類:
  • -范數損失可以統一為等式:
圖片其中x是預測框和目標框之間的差。傳統的Smooth L1損失可以形成為。 -范數損失被批評為不僅忽略了BBR變量(x,y,w,h)中的相關性,還忽略了對大邊界框的固有偏差(由于非規范化形式)。然而,如圖1所示以前基于IOU的損失,例如CIOU和GIOU,無法有效地測量目標框和Anchor之間的差異,這導致BBR模型優化中的收斂速度慢和定位不準確。圖片
  • 基于 IOU 的損失可以統一為等式:
圖片其中是預測框和目標框。附加懲罰旨在補充原始IOU的收益。這些損失共同回歸所有BBR變量作為一個整體。它們也是標準化的,對邊界框的比例不敏感。然而,大多數算法都存在收斂速度慢和定位不準確的問題。更重要的是,現有的基于 IOU 的損失忽略了信息Anchor的重要性。在本文中進行了深入的研究,以挖掘當前BBR損失的潛力,實現精確的目標檢測。首先,提出了一種有效的IOU損失(EIOU)來提高收斂速度和定位精度,該方法使用額外的懲罰項來明確測量BBR中3個關鍵幾何因素的差異,包括重疊區域、中心點和邊長。其次,闡述了BBR中的有效實例挖掘(EEM)問題。受最初用于測量分類誤差的 Focal loss 的啟發,作者設計了 Focal loss 的回歸版本,以增強具有大IOU的高質量Anchor在BBR模型優化過程中的貢獻。最后,將所提出的兩種方法組合為一種新的BBR損失函數,即Focal EIOU,以實現高效和準確的目標檢測。通過對合成和真實數據集的廣泛評估,驗證了所提出損失函數的有效性和優勢。此外,當將Focal EIOU損失與幾種最先進的目標檢測模型(包括Faster R-CNN、Mask R-CNN,RetinaNet、ATSS、PAA和DETR)相結合時,可以在大規模COCO 2017數據集上實現檢測精度的一致和顯著提高,這說明了提出的損失功能的潛在潛力。本文的貢獻總結如下:
  1. 考慮到基于IOU的損失和-范數損失的缺陷,提出了一種有效的IOU損失,以解決現有損失的困境,并獲得更快的收斂速度和更好的回歸結果。

  2. 考慮到BBR中高質量Anchor和低質量Anchor之間的不平衡,設計了一個 Focal loss 的回歸版本,以增強最有希望的Anchor在模型優化中的貢獻,同時抑制不相關的Anchor。

  3. 對合成數據和真實數據進行了大量實驗。出色的實驗結果驗證了所提出方法的優越性。詳細的消融研究顯示了損失函數和參數值的不同設置的影響。

2、IOU Loss的局限性分析圖片2.1、IOU Loss的局限測量兩個任意形狀(體積)之間相似性的IOU損失為:圖片它具有非負性、對稱性、三角形不等式和尺度不敏感性等良好的性質。它已被證明是一個度量標準。然而,它有兩個主要的缺點:
  • 如果兩個box沒有任何交集,IOU Loss將始終為零,這不能正確反映這兩個box之間的緊密程度。

  • IOU Loss的收斂速度較慢。

2.2、GIOU Loss的局限為了解決IOU Loss的缺點,提出了GIOU損失,定義如下:圖片其中是兩個任意的box。C是包含A和B的最小凸盒。GIOU Loss在時有效,但它仍然有兩個缺點:
  • 時,GIOU損失打算增加邊界框的面積,使其與目標框重疊(見圖1),這與減少空間位置差異的直覺相反。

  • 時,|C?A∪B|的面積總是一個小數或等于零(當A包含B時,該項將為零,反之亦然)。在這種情況下,GIOU損失退化為 IOU 損失。因此,GIOU損失的收斂率仍然很慢。

2.3、CIOU Loss的局限CIOU損失考慮了三個重要的幾何因素,即重疊面積、中心點距離和長寬比。給定一個預測框 B 和一個目標框,CIOU損失的定義如下:圖片其中分別表示的中心點。表示歐幾里得距離。是覆蓋兩個box的最小封閉box的對角線長度。和測量寬高比的差異。v關于w和h的梯度計算如下:圖片在之前的工作中,實驗結果表明,與以前的損失函數相比,CIOU損失的收斂速度和檢測精度都有顯著提高。然而,最后一項的v仍然沒有得到很好的定義,這從3個方面減緩了CIOU的收斂速度:
  1. 在等式(5)中, 僅反映縱橫比的差異,而不是  與  或  與  之間的實際關系。即,所有具有屬性具有,這與現實不符。

  2. 在等式(6)中,有有相反的符號。因此,在任何時候,如果這兩個變量(w或h)中的一個增加,另一個將減少。這是不合理的,尤其是當時。

  3. 由于v僅反映縱橫比的差異,因此CIOU損失可能以不合理的方式優化相似性。如圖1所示,目標框的尺度設置為。Anchor的初始尺度設置為w=1和h=2.4。Anchor尺度在50次迭代后回歸為w=1.64和h=2.84。這里,CIOU損失確實增加了縱橫比的相似性,但它阻礙了模型有效地減少之間的真實差異。

2.4、本文提出的方法為了解決上述問題,對CIOU損失進行了修正,并提出了一個更有效的IOU損失版本,即EIOU損失,其定義如下。圖片其中是覆蓋兩個box的最小封閉盒子的寬度和高度。即,將損失函數分為三部分:IOU損失、距離損失和方位損失。這樣就可以保留 CIOU Loss的有益特性。同時,EIOU Loss直接使目標框和Anchor的寬度和高度的差異最小化,從而產生更快的收斂速度和更好的定位結果。3、Focal Loss For BBR在BBR中,也存在訓練實例不平衡的問題,即由于圖像中目標目標的稀疏性,回歸誤差較小的高質量例子的數量遠少于低質量例子(異常值)。最近的研究表明,離群值會產生過大的梯度,這對訓練過程有害。因此,制作高質量的例子對網絡訓練過程貢獻更多的梯度是至關重要的。在最近的研究中試圖基于SmoothL1的損失來解決上述問題。在本節中,還從Smooth L1損失開始,并提出Focal L1損失,以增加高質量例子的貢獻。此外,作者還發現,簡單的方法不能直接適用于基于IOU的損失。因此,最終提出了Focal-EIOU損失來提高EIOU損失的性能。3.1、Focal L1 Loss首先,列出了理想損失函數的性質如下:
  1. 當回歸誤差趨于零時,梯度幅度的極限應該為零。
  2. 梯度幅度應在小回歸誤差附近迅速增大,在大回歸誤差區域逐漸減小。
  3. 應該有一些超參數來靈活地控制低質量實例的抑制程度。
  4. 對于超參數的變值,梯度函數家族應該有一個標準化的尺度,例如,(0,1],這有助于在高質量和低質量的例子之間的平衡。
圖片根據上述條件,隨著邊界框回歸誤差的變化,可以假設一個梯度幅度的期望函數曲線,如圖5(a)所示該函數是,滿足性質1和2。接下來,構造了一個帶有參數β的函數族來控制曲線的形狀,如圖5(b)所示隨著β的增加,異常值的梯度幅度將被進一步抑制。然而,高質量的例子的梯度幅度也會減少,這不是所期望的。因此,添加另一個參數α,根據屬性4的要求,將不同β的梯度大小歸一化為[0,1]。最后,梯度大小函數的族可以表示如下:圖片

這里,由于以下原因獲得了β的值范圍。當,這意味著g(x)是具有全局最大值的凹函數。求解,可以得到。作為。還必須確保,那么,。為了滿足性質4,設置最大值得到α與β的關系:。通過積分上述梯度公式,可以得到BBR的Focal L1損失:

圖片

其中C是一個常數值。以確保在等式中的在x = 1處是連續的,有

圖片

圖4(b)顯示,根據β,提出的Focal L1損失可以增加內值梯度的值,抑制異常值的梯度值。較大的β要求內部有很少的回歸誤差,并快速抑制異常值的梯度值。

同樣,在圖4(a)中,藍色的曲線表示β的最大值。隨著回歸誤差的增加,藍色曲線的損失首先迅速增加,然后趨于穩定。β值最小的橙色曲線增長得越來越快,在x = 1左右達到峰值。現在可以通過Focal L1損失,來計算定位損失,其中B是回歸結果,是回歸目標。

3.2、Focal-EIOU Loss

為了使EIOU損失集中于高質量的示例,自然可以考慮在等式中替換 x 與EIOU的損失聯系在一起。然而,作者觀察到上述組合的效果不太好。分析結果如下:

給定偏移量,Focal L1損失的梯度為,其中等于1或者-1,因此即使偏移很小,還可以帶來足夠的梯度以使模型持續優化。然而,如果用替換偏移量,梯度可以計算為。

這里不再是一個常量。此外,在實證研究中,隨著接近零,它將非常小,而在當時也接近于零。因此,在乘法之后,整體梯度將更小,這削弱了對具有小的Box進行重新加權的效果。為了解決這個問題,使用IOU的值來重新計算 loss的權重,并得到Focal-,如下所示

圖片

其中,是控制異常值抑制程度的參數。

3.3、算法流程圖片4、實驗4.1、消融實驗IOU方法對比圖片Tradeoff Weight的影響圖片FocalL1 Loss圖片Focal-EIOU Loss圖片4.2、SOTA對比圖片4.3、可視化對比圖片5、參考[1].Focal and Efficient IOU Loss for Accurate Bounding Box Regression

本文僅做學術分享,如有侵權,請聯系刪文。


*博客內容為網友個人發布,僅代表博主個人觀點,如有侵權請聯系工作人員刪除。



關鍵詞: AI

相關推薦

技術專區

關閉