Learning CLIP Guided Visual-Text Fusion Transformer for Video-based Pedestrian Attribute Recognition

要約

タイトル:ビデオをベースとした歩行属性認識のためのCLIPガイドの視覚-テキスト融合トランスフォーマーの学習

要約:既存の歩行属性認識 (PAR) アルゴリズムは主に静止画像に基づいて開発されています。しかし、重度の遮蔽、動きブラーなどの難しい要因を持つ画像に対して信頼性がありません。本研究では、時間情報をフル活用できるビデオフレームを使用して人間の属性を理解することを提案しています。具体的には、ビジョン-言語融合問題としてビデオベースのPARを定式化し、事前学習された大規模モデルCLIPを採用して、与えられたビデオフレームの特徴埋め込みを抽出します。意味情報をより良く活用するために、属性リストを別の入力として取り、分割、展開、プロンプトによって属性の単語/フレーズを対応する文に変換します。次に、CLIPのテキストエンコーダを言語の埋め込みに使用します。平均視覚トークンとテキストトークンを連結し、融合トランスフォーマーに送信して、マルチモーダルな相互学習を行います。強化されたトークンは、歩行属性予測のための分類ヘッドに送信されます。大規模なビデオベースのPARデータセットでの包括的な実験により、提案されたフレームワークの有効性が確認されました。

– 既存のPARアルゴリズムは静止画像に基づいており、信頼性が低い。
– 本研究では、ビデオフレームを使用してPARを行うことを提案している。
– ビジョン-言語融合問題としてPARを定式化し、CLIPを使用して特徴埋め込みを抽出する。
– 属性リストを別の入力として取り、テキストエンコーダを使用して言語の埋め込みを生成する。
– 視覚トークンとテキストトークンを連結し、mutlimodalな相互学習を行う。
– 実験により、提案されたフレームワークの有効性が確認された。

要約(オリジナル)

Existing pedestrian attribute recognition (PAR) algorithms are mainly developed based on a static image. However, the performance is not reliable for images with challenging factors, such as heavy occlusion, motion blur, etc. In this work, we propose to understand human attributes using video frames that can make full use of temporal information. Specifically, we formulate the video-based PAR as a vision-language fusion problem and adopt pre-trained big models CLIP to extract the feature embeddings of given video frames. To better utilize the semantic information, we take the attribute list as another input and transform the attribute words/phrase into the corresponding sentence via split, expand, and prompt. Then, the text encoder of CLIP is utilized for language embedding. The averaged visual tokens and text tokens are concatenated and fed into a fusion Transformer for multi-modal interactive learning. The enhanced tokens will be fed into a classification head for pedestrian attribute prediction. Extensive experiments on a large-scale video-based PAR dataset fully validated the effectiveness of our proposed framework.

arxiv情報

著者 Jun Zhu,Jiandong Jin,Zihan Yang,Xiaohao Wu,Xiao Wang
発行日 2023-04-20 05:18:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV, cs.MM パーマリンク