要約
分類、オブジェクト検出、インスタンスのセグメンテーションとポーズ推定、および 1 段階または 2 段階のパイプラインなどのさまざまなフレームワークなど、さまざまな視覚タスクのための概念的に単純で柔軟で普遍的な視覚認識ヘッドを提示します。
私たちのアプローチは、高品質の境界ボックスまたは輪郭ベースのセグメンテーション マスクまたは一連のキーポイントを同時に生成しながら、画像内のオブジェクトを効果的に識別します。
UniHead と呼ばれるこの方法は、さまざまな視覚認識タスクを、Transformer エンコーダー アーキテクチャを介して学習する分散可能なポイントと見なします。
固定された空間座標が与えられると、UniHead はそれをさまざまな空間ポイントに適応的に分散させ、トランス エンコーダーによってそれらの関係について説明します。
最終的な予測セットを複数のポイントの形で直接出力するため、同じヘッド デザインを使用して、さまざまなフレームワークでさまざまなビジュアル タスクを実行できます。
ImageNet の分類と、オブジェクトの検出、インスタンスのセグメンテーション、ポーズの推定など、COCO の一連の課題の 3 つのトラックすべてに関する広範な評価を示します。
付加機能がなくても、UniHead はこれらの視覚タスクを単一の視覚ヘッド設計によって統合し、各タスク用に開発されたエキスパート モデルと比較して同等のパフォーマンスを達成できます。当社のシンプルでユニバーサルな UniHead が堅固なベースラインとして機能し、普遍的な視覚認知研究の促進に役立つことを願っています。
.
コードとモデルは https://github.com/Sense-X/UniHead で入手できます。
要約(オリジナル)
We present a conceptually simple, flexible, and universal visual perception head for variant visual tasks, e.g., classification, object detection, instance segmentation and pose estimation, and different frameworks, such as one-stage or two-stage pipelines. Our approach effectively identifies an object in an image while simultaneously generating a high-quality bounding box or contour-based segmentation mask or set of keypoints. The method, called UniHead, views different visual perception tasks as the dispersible points learning via the transformer encoder architecture. Given a fixed spatial coordinate, UniHead adaptively scatters it to different spatial points and reasons about their relations by transformer encoder. It directly outputs the final set of predictions in the form of multiple points, allowing us to perform different visual tasks in different frameworks with the same head design. We show extensive evaluations on ImageNet classification and all three tracks of the COCO suite of challenges, including object detection, instance segmentation and pose estimation. Without bells and whistles, UniHead can unify these visual tasks via a single visual head design and achieve comparable performance compared to expert models developed for each task.We hope our simple and universal UniHead will serve as a solid baseline and help promote universal visual perception research. Code and models are available at https://github.com/Sense-X/UniHead.
arxiv情報
著者 | Jianming Liang,Guanglu Song,Biao Leng,Yu Liu |
発行日 | 2022-09-12 12:10:14+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google