SHIFT: A Synthetic Driving Dataset for Continuous Multi-Task Domain Adaptation

要約

絶えず進化する環境に適応することは、すべての自動運転システムが必然的に直面するセーフティクリティカルな課題です。
ただし、既存の画像およびビデオ駆動データセットは、現実世界の可変性をキャプチャするには不十分です。
この論文では、自動運転用の最大のマルチタスク合成データセットであるSHIFTを紹介します。
これは、曇り、雨と霧の強度、時刻、および車両と歩行者の密度の離散的かつ連続的な変化を示します。
SHIFTは、包括的なセンサースイートといくつかの主流の知覚タスク用の注釈を備えており、ドメインシフトのレベルの増加に伴う知覚システムのパフォーマンスの低下を調査し、この問題を軽減し、モデルの堅牢性と一般性を評価するための継続的な適応戦略の開発を促進します。
当社のデータセットとベンチマークツールキットは、www.vis.xyz/shiftで公開されています。

要約(オリジナル)

Adapting to a continuously evolving environment is a safety-critical challenge inevitably faced by all autonomous driving systems. Existing image and video driving datasets, however, fall short of capturing the mutable nature of the real world. In this paper, we introduce the largest multi-task synthetic dataset for autonomous driving, SHIFT. It presents discrete and continuous shifts in cloudiness, rain and fog intensity, time of day, and vehicle and pedestrian density. Featuring a comprehensive sensor suite and annotations for several mainstream perception tasks, SHIFT allows investigating the degradation of a perception system performance at increasing levels of domain shift, fostering the development of continuous adaptation strategies to mitigate this problem and assess model robustness and generality. Our dataset and benchmark toolkit are publicly available at www.vis.xyz/shift.

arxiv情報

著者 Tao Sun,Mattia Segu,Janis Postels,Yuxuan Wang,Luc Van Gool,Bernt Schiele,Federico Tombari,Fisher Yu
発行日 2022-06-16 17:59:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク