Unbiased Heterogeneous Scene Graph Generation with Relation-aware Message Passing Neural Network

要約

最近のシーン グラフ生成 (SGG) フレームワークは、画像内の複数のオブジェクト間の複雑な関係を学習することに重点を置いています。
オブジェクトとその隣接オブジェクト間の高次相互作用をモデル化するメッセージ パッシング ニューラル ネットワーク (MPNN) の性質のおかげで、それらは SGG の主要な表現学習モジュールです。
ただし、既存の MPNN ベースのフレームワークでは、シーン グラフが均質なグラフであると想定されているため、オブジェクト間の視覚的な関係のコンテキスト認識が制限されます。
つまり、関係が関連付けられているオブジェクトに大きく依存する傾向があるという事実を見落としています。
この論文では、メッセージパッシングニューラルネットワークを使用して関係認識コンテキストをキャプチャする、偏りのない異種シーングラフ生成(HetSGG)フレームワークを提案します。
オブジェクト間の述語タイプを考慮して画像のコンテキスト情報を集約する、リレーションアウェア メッセージ パッシング ニューラル ネットワーク (RMP) と呼ばれる新しいメッセージ パッシング レイヤーを考案しました。
私たちの広範な評価は、HetSGG が最先端の方法よりも優れていることを示しており、特にテール述語クラスで優れています。

要約(オリジナル)

Recent scene graph generation (SGG) frameworks have focused on learning complex relationships among multiple objects in an image. Thanks to the nature of the message passing neural network (MPNN) that models high-order interactions between objects and their neighboring objects, they are dominant representation learning modules for SGG. However, existing MPNN-based frameworks assume the scene graph as a homogeneous graph, which restricts the context-awareness of visual relations between objects. That is, they overlook the fact that the relations tend to be highly dependent on the objects with which the relations are associated. In this paper, we propose an unbiased heterogeneous scene graph generation (HetSGG) framework that captures relation-aware context using message passing neural networks. We devise a novel message passing layer, called relation-aware message passing neural network (RMP), that aggregates the contextual information of an image considering the predicate type between objects. Our extensive evaluations demonstrate that HetSGG outperforms state-of-the-art methods, especially outperforming on tail predicate classes.

arxiv情報

著者 Kanghoon Yoon,Kibum Kim,Jinyoung Moon,Chanyoung Park
発行日 2023-02-28 09:48:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク