要約
この論文では、フレーズ抽出とグラウンディング(PEG)の両方を考慮することにより、視覚的なグラウンディングの問題を研究します。
以前のテストで既知のフレーズ設定とは対照的に、PEG では、モデルがテキストからフレーズを抽出し、画像からオブジェクトを同時に検索する必要があります。これは、実際のアプリケーションでより実用的な設定です。
フレーズ抽出は $1$D のテキスト セグメンテーション問題と見なすことができるため、PEG をデュアル検出問題として定式化し、新しい DQ-DETR モデルを提案します。これは、オブジェクト予測とフレーズ マスクのために画像とテキストからさまざまな特徴をプローブするためのデュアル クエリを導入します。
予測。
デュアル クエリの各ペアは、位置部分は共有されますが、コンテンツ部分は異なるように設計されています。
このような設計は、画像とテキスト間のモダリティの調整の難しさを効果的に軽減し (単一のクエリ設計とは対照的に)、Transformer デコーダーがフレーズ マスクに誘導された注意を活用してパフォーマンスを向上できるようにします。
PEG のパフォーマンスを評価するために、オブジェクト検出の AP メトリックに類似した新しいメトリック CMAP (クロスモーダル平均精度) も提案します。
新しいメトリックは、フレーズ グラウンディングの多ボックス対 1 フレーズのケースでの Recall@1 のあいまいさを克服します。
その結果、当社の PEG 事前トレーニング済み DQ-DETR は、ResNet-101 バックボーンを使用して、すべてのビジュアル グラウンディング ベンチマークで新しい最先端の結果を確立します。
たとえば、ResNet-101 バックボーンを使用した RefCOCO testA および testB の再現率に関して、$91.04\%$ および $83.51\%$ を達成します。
コードは \url{https://github.com/IDEA-Research/DQ-DETR} で入手できます。
要約(オリジナル)
In this paper, we study the problem of visual grounding by considering both phrase extraction and grounding (PEG). In contrast to the previous phrase-known-at-test setting, PEG requires a model to extract phrases from text and locate objects from images simultaneously, which is a more practical setting in real applications. As phrase extraction can be regarded as a $1$D text segmentation problem, we formulate PEG as a dual detection problem and propose a novel DQ-DETR model, which introduces dual queries to probe different features from image and text for object prediction and phrase mask prediction. Each pair of dual queries is designed to have shared positional parts but different content parts. Such a design effectively alleviates the difficulty of modality alignment between image and text (in contrast to a single query design) and empowers Transformer decoder to leverage phrase mask-guided attention to improve performance. To evaluate the performance of PEG, we also propose a new metric CMAP (cross-modal average precision), analogous to the AP metric in object detection. The new metric overcomes the ambiguity of Recall@1 in many-box-to-one-phrase cases in phrase grounding. As a result, our PEG pre-trained DQ-DETR establishes new state-of-the-art results on all visual grounding benchmarks with a ResNet-101 backbone. For example, it achieves $91.04\%$ and $83.51\%$ in terms of recall rate on RefCOCO testA and testB with a ResNet-101 backbone. Code will be availabl at \url{https://github.com/IDEA-Research/DQ-DETR}.
arxiv情報
著者 | Shilong Liu,Yaoyuan Liang,Feng Li,Shijia Huang,Hao Zhang,Hang Su,Jun Zhu,Lei Zhang |
発行日 | 2022-11-28 16:30:46+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google