要約
イベントベースのカメラは、高ダイナミック レンジ環境や高速モーション操作中にコンピューター ビジョン タスクを実行するための信頼性の高い測定を提供します。
ただし、イベントベースのビジョンにディープ ラーニングを採用すると、イベント カメラが最新であるため、注釈付きデータが不足するという課題に直面します。
従来のカメラの注釈付きデータから得られる知識を転送することで、この課題に対する実用的なソリューションが提供されます。
対照的な学習とデータの無相関条件付けを使用して、イベントベースのデータ画像分類のための深いネットワークをトレーニングするための教師なしドメイン適応アルゴリズムを開発します。
私たちのソリューションは、この目的において既存のアルゴリズムよりも優れています。
要約(オリジナル)
Event-based cameras offer reliable measurements for preforming computer vision tasks in high-dynamic range environments and during fast motion maneuvers. However, adopting deep learning in event-based vision faces the challenge of annotated data scarcity due to recency of event cameras. Transferring the knowledge that can be obtained from conventional camera annotated data offers a practical solution to this challenge. We develop an unsupervised domain adaptation algorithm for training a deep network for event-based data image classification using contrastive learning and uncorrelated conditioning of data. Our solution outperforms the existing algorithms for this purpose.
arxiv情報
著者 | Dayuan Jian,Mohammad Rostami |
発行日 | 2023-03-22 09:51:08+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google