Unknown Sniffer for Object Detection: Don’t Turn a Blind Eye to Unknown Objects

要約

タイトル:「未知のスニファーによる物体検出:未知のオブジェクトを見ることを拒むな」

要約:

– オープンワールドオブジェクトとオープンセット検出の提案により、これまでに見たことのないオブジェクトを見つけることができるようになり、既知のオブジェクトとの区別が可能になった。
– しかし、知られているクラスから未知のクラスへの知識の移転に関する研究は不十分であり、背景に潜んでいる未知のオブジェクトを検出する能力に乏しい。
– そこで、本論文では未知のスニッファー(UnSniffer)を提案し、未知のオブジェクトと既知のオブジェクトの両方を検出する。
– まず、既知のサンプルだけを用いる一般化されたオブジェクト信頼度(GOC)スコアを導入することにより、背景の未知のオブジェクトを間違って抑制することを回避できる。
– このような信頼度スコアは、既知のオブジェクトから学習され、未知のオブジェクトにも一般化される可能性がある。
– さらに、背景の非オブジェクトサンプルをより抑制するために、負のエネルギー抑制損失を提案する。
– 次に、推論中に各未知の最適なボックスを手動で設計された非最大値抑制(NMS)の代わりに、グラフベースの判定方法を紹介し、この問題を解決する。
– 最後に、「未知のオブジェクト検出ベンチマーク」を提供し、未知の検出の精度評価を含む最初の公開ベンチマークとなった。
– 実験結果は、このメソッドが既存の最先端の方法よりも優れていることを示している。

要約(オリジナル)

The recently proposed open-world object and open-set detection have achieved a breakthrough in finding never-seen-before objects and distinguishing them from known ones. However, their studies on knowledge transfer from known classes to unknown ones are not deep enough, resulting in the scanty capability for detecting unknowns hidden in the background. In this paper, we propose the unknown sniffer (UnSniffer) to find both unknown and known objects. Firstly, the generalized object confidence (GOC) score is introduced, which only uses known samples for supervision and avoids improper suppression of unknowns in the background. Significantly, such confidence score learned from known objects can be generalized to unknown ones. Additionally, we propose a negative energy suppression loss to further suppress the non-object samples in the background. Next, the best box of each unknown is hard to obtain during inference due to lacking their semantic information in training. To solve this issue, we introduce a graph-based determination scheme to replace hand-designed non-maximum suppression (NMS) post-processing. Finally, we present the Unknown Object Detection Benchmark, the first publicly benchmark that encompasses precision evaluation for unknown detection to our knowledge. Experiments show that our method is far better than the existing state-of-the-art methods.

arxiv情報

著者 Wenteng Liang,Feng Xue,Yihao Liu,Guofeng Zhong,Anlong Ming
発行日 2023-04-20 01:19:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク