AW-GATCN: Adaptive Weighted Graph Attention Convolutional Network for Event Camera Data Joint Denoising and Object Recognition

要約

輝度が高い時間分解能で変化するイベントカメラは、本質的に重要なオブジェクト構造を超えてかなりの量の冗長でノイズの多いデータを生成します。
イベントベースのオブジェクト認識の主な課題は、重要な空間的情報を失うことなく、このノイズを効果的に除去することにあります。
これに対処するために、イベントベースのオブジェクト認識のための適応グラフベースのノイズの多いデータ削除フレームワークを提案します。
具体的には、私たちのアプローチは、正規化された密度分析、多因子エッジ重視メカニズム、および適応型グラフベースの除去戦略に基づいて、適応イベントセグメンテーションを統合します。
これらの革新は、時空間情報の統合を大幅に強化し、堅牢な認識のために重要な構造的特徴を維持しながら、ノイズを効果的にフィルタリングします。
4つの挑戦的なデータセットでの実験的評価は、私たちの方法が83.77%、76.79%、99.30%、および96.89%の優れた認識精度を達成し、既存のグラフベースの方法を最大8.79%上回り、騒音低減パフォーマンスを最大19.57%上回り、従来のユーークリディアンの技術を比較して6.26%の精度を獲得することを示しています。

要約(オリジナル)

Event cameras, which capture brightness changes with high temporal resolution, inherently generate a significant amount of redundant and noisy data beyond essential object structures. The primary challenge in event-based object recognition lies in effectively removing this noise without losing critical spatial-temporal information. To address this, we propose an Adaptive Graph-based Noisy Data Removal framework for Event-based Object Recognition. Specifically, our approach integrates adaptive event segmentation based on normalized density analysis, a multifactorial edge-weighting mechanism, and adaptive graph-based denoising strategies. These innovations significantly enhance the integration of spatiotemporal information, effectively filtering noise while preserving critical structural features for robust recognition. Experimental evaluations on four challenging datasets demonstrate that our method achieves superior recognition accuracies of 83.77%, 76.79%, 99.30%, and 96.89%, surpassing existing graph-based methods by up to 8.79%, and improving noise reduction performance by up to 19.57%, with an additional accuracy gain of 6.26% compared to traditional Euclidean-based techniques.

arxiv情報

著者 Haiyu Li,Charith Abhayaratne
発行日 2025-05-16 13:26:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク