whu-nercms at trecvid2021:instance search task

要約

論文のTRECVID2021でWHU-NERCMSの実験方法と結果を簡単に紹介します。
今年は、インスタンス検索(INS)の自動でインタラクティブなタスクに参加します。
自動タスクの場合、検索対象は人物検索とアクション検索の2つの部分に分けられます。
人の検索には顔検出と顔認識の2段階の方法を採用し、アクション検索には3つのフレームベースの人と物体の相互作用の検出方法と2つのビデオベースの一般的なアクション検出方法の2種類のアクション検出方法を採用しています。
その後、人物検索結果と行動検索結果を融合して、結果ランキング一覧を初期化します。
さらに、検索パフォーマンスをさらに向上させるために、補完的な方法の使用を試みています。
対話型タスクの場合、融合結果で2つの異なる相互作用戦略をテストします。
自動タスクとインタラクティブタスクのそれぞれについて、4つの実行を送信します。
各実行の紹介を表1に示します。公式の評価では、提案された戦略が自動トラックとインタラクティブトラックの両方で1位にランクされていることが示されています。

要約(オリジナル)

We will make a brief introduction of the experimental methods and results of the WHU-NERCMS in the TRECVID2021 in the paper. This year we participate in the automatic and interactive tasks of Instance Search (INS). For the automatic task, the retrieval target is divided into two parts, person retrieval, and action retrieval. We adopt a two-stage method including face detection and face recognition for person retrieval and two kinds of action detection methods consisting of three frame-based human-object interaction detection methods and two video-based general action detection methods for action retrieval. After that, the person retrieval results and action retrieval results are fused to initialize the result ranking lists. In addition, we make attempts to use complementary methods to further improve search performance. For interactive tasks, we test two different interaction strategies on the fusion results. We submit 4 runs for automatic and interactive tasks respectively. The introduction of each run is shown in Table 1. The official evaluations show that the proposed strategies rank 1st in both automatic and interactive tracks.

arxiv情報

著者 Yanrui Niu,Jingyao Yang,Ankang Lu,Baojin Huang,Yue Zhang,Ji Huang,Shishi Wen,Dongshu Xu,Chao Liang,Zhongyuan Wang,Jun Chen
発行日 2022-06-17 15:32:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.IR, cs.MM パーマリンク