An Extensible Framework for Open Heterogeneous Collaborative Perception

要約

共同知覚は、複数のエージェント間のデータ交換を容易にすることで、オクルージョンなどの単一エージェントの知覚の制限を軽減することを目的としています。
ただし、現在のほとんどの研究では、すべてのエージェントが ID センサーと認識モデルを使用する均一なシナリオが考慮されています。
実際には、異種のエージェント タイプが継続的に出現する可能性があり、既存のエージェントと連携するときに必然的にドメイン ギャップに直面することがあります。
この論文では、新しい未解決の異種問題を紹介します。それは、高い認識パフォーマンスと低い統合コストを確保しながら、継続的に出現する新しい異種エージェント タイプを協調的な認識にどのように適応させるかということです。
この問題に対処するために、我々は、新しい拡張可能な共同認識フレームワークである HETerogeneous ALliance (HEAL) を提案します。
HEAL はまず、新しいマルチスケール フォアグラウンド対応 Pyramid Fusion ネットワークを介して、初期エージェントとの統一された機能空間を確立します。
これまで見たことのないモダリティやモデルを備えた異種の新しいエージェントが出現した場合、当社は革新的な後方調整によってそれらを確立された統一空間に調整します。
このステップには、新しいエージェント タイプに関する個別のトレーニングのみが含まれるため、トレーニング コストが非常に低く、拡張性が高くなります。
エージェントのデータの異種性を強化するために、より多様なセンサー タイプを備えた新しい大規模データセットである OPV2V-H を導入します。
OPV2V-H および DAIR-V2X データセットに関する広範な実験により、HEAL は 3 つの新しいエージェント タイプを統合する際にトレーニング パラメータを 91.5% 削減しながら、パフォーマンスにおいて SOTA メソッドを上回っていることが示されています。
さらに、https://github.com/yifanlu0227/HEAL で包括的なコードベースを実装します。

要約(オリジナル)

Collaborative perception aims to mitigate the limitations of single-agent perception, such as occlusions, by facilitating data exchange among multiple agents. However, most current works consider a homogeneous scenario where all agents use identity sensors and perception models. In reality, heterogeneous agent types may continually emerge and inevitably face a domain gap when collaborating with existing agents. In this paper, we introduce a new open heterogeneous problem: how to accommodate continually emerging new heterogeneous agent types into collaborative perception, while ensuring high perception performance and low integration cost? To address this problem, we propose HEterogeneous ALliance (HEAL), a novel extensible collaborative perception framework. HEAL first establishes a unified feature space with initial agents via a novel multi-scale foreground-aware Pyramid Fusion network. When heterogeneous new agents emerge with previously unseen modalities or models, we align them to the established unified space with an innovative backward alignment. This step only involves individual training on the new agent type, thus presenting extremely low training costs and high extensibility. To enrich agents’ data heterogeneity, we bring OPV2V-H, a new large-scale dataset with more diverse sensor types. Extensive experiments on OPV2V-H and DAIR-V2X datasets show that HEAL surpasses SOTA methods in performance while reducing the training parameters by 91.5% when integrating 3 new agent types. We further implement a comprehensive codebase at: https://github.com/yifanlu0227/HEAL

arxiv情報

著者 Yifan Lu,Yue Hu,Yiqi Zhong,Dequan Wang,Siheng Chen,Yanfeng Wang
発行日 2024-02-16 16:26:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク