Head-Tail Cooperative Learning Network for Unbiased Scene Graph Generation

要約

画像理解における重要なタスクとしてのシーン グラフ生成 (SGG) は、述語のロングテール分布によって引き起こされるヘッドバイアス予測の課題に直面しています。
しかし、現在の不偏 SGG 手法では、頭部述語の予測における実質的な犠牲を無視しながら、尾部述語の予測の改善を容易に優先することができ、頭部バイアスから末尾バイアスへの移行につながります。
この問題に対処するために、我々は、頭部述語と末尾述語の両方の正確な認識を達成するために協働する頭部優先特徴表現ブランチと尾部優先特徴表現ブランチを含む、モデルに依存しない頭部尾部協調学習 (HTCL) ネットワークを提案します。
また、末尾優先述語特徴を制約することで末尾優先特徴表現ブランチの予測能力を強化する自己教師あり学習アプローチも提案します。
具体的には、自己教師あり学習では、頭部述語の特徴をクラス中心に収束させながら、コントラスト学習と頭部中心の損失を通じて、尾部の述語の特徴を可能な限り分散させます。
VG150、Open Images V6、および GQA200 データセット上のさまざまな SGG モデルに HTCL を適用することで、HTCL の有効性を実証します。
結果は、私たちの方法が再現率の犠牲を最小限に抑えながらより高い平均再現率を達成し、新しい最先端の全体的なパフォーマンスを達成することを示しています。
私たちのコードは https://github.com/wanglei0618/HTCL で入手できます。

要約(オリジナル)

Scene Graph Generation (SGG) as a critical task in image understanding, facing the challenge of head-biased prediction caused by the long-tail distribution of predicates. However, current unbiased SGG methods can easily prioritize improving the prediction of tail predicates while ignoring the substantial sacrifice in the prediction of head predicates, leading to a shift from head bias to tail bias. To address this issue, we propose a model-agnostic Head-Tail Collaborative Learning (HTCL) network that includes head-prefer and tail-prefer feature representation branches that collaborate to achieve accurate recognition of both head and tail predicates. We also propose a self-supervised learning approach to enhance the prediction ability of the tail-prefer feature representation branch by constraining tail-prefer predicate features. Specifically, self-supervised learning converges head predicate features to their class centers while dispersing tail predicate features as much as possible through contrast learning and head center loss. We demonstrate the effectiveness of our HTCL by applying it to various SGG models on VG150, Open Images V6 and GQA200 datasets. The results show that our method achieves higher mean Recall with a minimal sacrifice in Recall and achieves a new state-of-the-art overall performance. Our code is available at https://github.com/wanglei0618/HTCL.

arxiv情報

著者 Lei Wang,Zejian Yuan,Yao Lu,Badong Chen
発行日 2023-08-23 10:29:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク