SOOD: Towards Semi-Supervised Oriented Object Detection

要約

タイトル:SOOD:半教師ありオリエンテッドオブジェクト検出に向けて

要約:
– 半教師あり物体検出(SSOD)は、未ラベル化されたデータを使用して、オブジェクト検出器を強化することを目的としたタスクで、近年注目されています。
– しかし、従来のSSODアプローチは、主に水平オブジェクトに焦点を当てており、航空写真において一般的な多方向オブジェクトは未開拓のままです。
– 本論文では、モデル擬似ラベリングフレームワークをベースに、新しい半教師ありオリエンテッドオブジェクト検出モデル「SOOD」を提唱しています。
– 航空シーンの方向性を考慮し、2つの損失関数を設計して、より良い監督を提供します。オブジェクトの方向に重点を置き、最初の損失は、それらの方向差に基づく適応的な重みを持つ各擬似ラベル-予測ペア(予測とその対応する擬似ラベルを含む)の一貫性を規制します。画像のレイアウトに注目した第2の損失は、類似性を規制し、擬似ラベルと予測のセットの間に多対多の関係を明示的に構築します。このようなグローバル一貫性の制約は、半教師あり学習をさらに強化することができます。
– 実験結果は、提案された2つの損失関数でトレーニングされたSOODが、DOTA-v1.5ベンチマークの様々な設定で、最新のSSOD方法を上回ったことを示しています。コードはhttps://github.com/HamPerdredes/SOODで利用可能になります。

要約(オリジナル)

Semi-Supervised Object Detection (SSOD), aiming to explore unlabeled data for boosting object detectors, has become an active task in recent years. However, existing SSOD approaches mainly focus on horizontal objects, leaving multi-oriented objects that are common in aerial images unexplored. This paper proposes a novel Semi-supervised Oriented Object Detection model, termed SOOD, built upon the mainstream pseudo-labeling framework. Towards oriented objects in aerial scenes, we design two loss functions to provide better supervision. Focusing on the orientations of objects, the first loss regularizes the consistency between each pseudo-label-prediction pair (includes a prediction and its corresponding pseudo label) with adaptive weights based on their orientation gap. Focusing on the layout of an image, the second loss regularizes the similarity and explicitly builds the many-to-many relation between the sets of pseudo-labels and predictions. Such a global consistency constraint can further boost semi-supervised learning. Our experiments show that when trained with the two proposed losses, SOOD surpasses the state-of-the-art SSOD methods under various settings on the DOTA-v1.5 benchmark. The code will be available at https://github.com/HamPerdredes/SOOD.

arxiv情報

著者 Wei Hua,Dingkang Liang,Jingyu Li,Xiaolong Liu,Zhikang Zou,Xiaoqing Ye,Xiang Bai
発行日 2023-04-10 11:10:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV パーマリンク