The Progression of Transformers from Language to Vision to MOT: A Literature Review on Multi-Object Tracking with Transformers

要約

トランスフォーマー ニューラル ネットワーク アーキテクチャでは、アテンション レイヤーの使用を通じて自己回帰的なシーケンス間のモデリングが可能になります。
元々は機械翻訳を応用して作成されましたが、自然言語処理に革命をもたらしました。
最近、トランスフォーマーは、特にコンピューター ビジョンなど、さまざまなパターン認識タスクにも適用されています。
この文献レビューでは、トランスフォーマーを利用したコンピューター ビジョンの大きな進歩について説明します。
次に、特にマルチオブジェクト トラッキング (MOT) に焦点を当て、最先端の MOT 作業においてトランスフォーマーがどのように競争力を高めているにもかかわらず、依然として従来の深層学習手法に遅れをとっているかを説明します。

要約(オリジナル)

The transformer neural network architecture allows for autoregressive sequence-to-sequence modeling through the use of attention layers. It was originally created with the application of machine translation but has revolutionized natural language processing. Recently, transformers have also been applied across a wide variety of pattern recognition tasks, particularly in computer vision. In this literature review, we describe major advances in computer vision utilizing transformers. We then focus specifically on Multi-Object Tracking (MOT) and discuss how transformers are increasingly becoming competitive in state-of-the-art MOT works, yet still lag behind traditional deep learning methods.

arxiv情報

著者 Abhi Kamboj
発行日 2024-06-24 16:45:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク