目標檢測性能優化,Focal EIOU,從IOU的角度提升檢測的準確率!
來源丨集智書童
導讀框回歸是目標檢測任務中衡量檢測框位置準確與否的重要指標,為減少已知框回歸方法帶來的收斂速度慢和結果不準確的問題,本文提出了一種有效的框回歸方法(EIOU),并提出了Focal Loss的回歸版本,在收斂速度和定位精度上實現顯著的優勢。論文鏈接:https://arxiv.org/abs/2101.08158
1、簡介目標檢測包括兩個子任務:目標分類和目標定位,一直是計算機視覺中最基本的問題之一。當前最先進的目標檢測器(例如,Cascade R-CNN、Mask R-CNN、Dynamic R-CNN和DETR)依賴于邊界回歸(BBR)模塊來定位目標。基于這一范式,精心設計的損失函數對于BBR的成功至關重要。迄今為止,BBR的大部分損失函數可以分為兩類:在目標檢測中,框回歸(BBR)是決定目標定位性能的關鍵步驟。然而,作者發現大多數以前的BBR損失函數有兩個主要缺點:
基于范數和IOU的損失函數都不能有效地描述BBR的目標,這導致收斂速度慢和回歸結果不準確。
大多數損失函數忽略了BBR中的不平衡問題,即與目標框具有小重疊的大量目標框對BBR的優化貢獻最大。
為了減輕由此造成的不利影響,在本文中進行了深入研究,以挖掘BBR損失的潛力。首先,提出了一種有效的Efficient Intersection over Union(EIOU)損失,它明確地測量了BBR中3個幾何因子的差異,即重疊面積、中心點和邊長。之后,陳述了Effective Example Mining(EEM)問題,并提出了Focal loss的回歸版本,以使回歸過程專注于高質量的Anchor boxes。最后,將上述兩部分結合起來,得到一個新的損失函數,即Focal EIOU Loss。在合成和真實數據集上進行了大量實驗。與其他BBR損失相比,可以在收斂速度和定位精度上實現顯著的優勢。
- -范數損失可以統一為等式:
- 基于 IOU 的損失可以統一為等式:
考慮到基于IOU的損失和-范數損失的缺陷,提出了一種有效的IOU損失,以解決現有損失的困境,并獲得更快的收斂速度和更好的回歸結果。
考慮到BBR中高質量Anchor和低質量Anchor之間的不平衡,設計了一個 Focal loss 的回歸版本,以增強最有希望的Anchor在模型優化中的貢獻,同時抑制不相關的Anchor。
對合成數據和真實數據進行了大量實驗。出色的實驗結果驗證了所提出方法的優越性。詳細的消融研究顯示了損失函數和參數值的不同設置的影響。
如果兩個box沒有任何交集,IOU Loss將始終為零,這不能正確反映這兩個box之間的緊密程度。
IOU Loss的收斂速度較慢。
當時,GIOU損失打算增加邊界框的面積,使其與目標框重疊(見圖1),這與減少空間位置差異的直覺相反。
當時,|C?A∪B|的面積總是一個小數或等于零(當A包含B時,該項將為零,反之亦然)。在這種情況下,GIOU損失退化為 IOU 損失。因此,GIOU損失的收斂率仍然很慢。
在等式(5)中, 僅反映縱橫比的差異,而不是 與 或 與 之間的實際關系。即,所有具有屬性具有=,這與現實不符。
在等式(6)中,有。和有相反的符號。因此,在任何時候,如果這兩個變量(w或h)中的一個增加,另一個將減少。這是不合理的,尤其是當和或和時。
由于v僅反映縱橫比的差異,因此CIOU損失可能以不合理的方式優化相似性。如圖1所示,目標框的尺度設置為和。Anchor的初始尺度設置為w=1和h=2.4。Anchor尺度在50次迭代后回歸為w=1.64和h=2.84。這里,CIOU損失確實增加了縱橫比的相似性,但它阻礙了模型有效地減少和之間的真實差異。
- 當回歸誤差趨于零時,梯度幅度的極限應該為零。
- 梯度幅度應在小回歸誤差附近迅速增大,在大回歸誤差區域逐漸減小。
- 應該有一些超參數來靈活地控制低質量實例的抑制程度。
- 對于超參數的變值,梯度函數家族應該有一個標準化的尺度,例如,(0,1],這有助于在高質量和低質量的例子之間的平衡。
這里,由于以下原因獲得了β的值范圍。當,,這意味著g(x)是具有全局最大值的凹函數。求解,可以得到。作為,。還必須確保,那么,。為了滿足性質4,設置最大值得到α與β的關系:。通過積分上述梯度公式,可以得到BBR的Focal L1損失:
其中C是一個常數值。以確保在等式中的在x = 1處是連續的,有。
圖4(b)顯示,根據β,提出的Focal L1損失可以增加內值梯度的值,抑制異常值的梯度值。較大的β要求內部有很少的回歸誤差,并快速抑制異常值的梯度值。
同樣,在圖4(a)中,藍色的曲線表示β的最大值。隨著回歸誤差的增加,藍色曲線的損失首先迅速增加,然后趨于穩定。β值最小的橙色曲線增長得越來越快,在x = 1左右達到峰值。現在可以通過Focal L1損失,來計算定位損失,其中B是回歸結果,是回歸目標。
3.2、Focal-EIOU Loss為了使EIOU損失集中于高質量的示例,自然可以考慮在等式中替換 x 與EIOU的損失聯系在一起。然而,作者觀察到上述組合的效果不太好。分析結果如下:
給定偏移量,Focal L1損失的梯度為,其中等于1或者-1,因此即使偏移很小,還可以帶來足夠的梯度以使模型持續優化。然而,如果用替換偏移量,梯度可以計算為。
這里不再是一個常量。此外,在實證研究中,隨著接近零,它將非常小,而在當時也接近于零。因此,在乘法之后,整體梯度將更小,這削弱了對具有小的Box進行重新加權的效果。為了解決這個問題,使用IOU的值來重新計算 loss的權重,并得到Focal-,如下所示
其中,和是控制異常值抑制程度的參數。
3.3、算法流程本文僅做學術分享,如有侵權,請聯系刪文。
*博客內容為網友個人發布,僅代表博主個人觀點,如有侵權請聯系工作人員刪除。







