要約
センサー融合の機械学習アルゴリズムの進歩により、他の道路利用者の検出と予測が大幅に改善され、安全性が向上しました。
ただし、センサーの配置に小さな角度変位でさえ、特に長距離での出力に大きな分解を引き起こす可能性があります。
この論文では、異なるセンサーのモダリティ間の不整合を検出するだけでなく、長期的な知覚のためにそれらに対しても堅牢であるシンプルでありながら一般的で効率的なマルチタスク学習アプローチを示します。
不整合の量に加えて、我々の方法はキャリブレーションされた不確実性も予測します。これは、時間の経過とともに予測された不整合値のフィルタリングと融合に役立ちます。
さらに、予測された不整合パラメーターを自己修正入力センサーデータに使用できることを示し、センサーの不整合の下での知覚パフォーマンスをさらに改善します。
要約(オリジナル)
Advances in machine learning algorithms for sensor fusion have significantly improved the detection and prediction of other road users, thereby enhancing safety. However, even a small angular displacement in the sensor’s placement can cause significant degradation in output, especially at long range. In this paper, we demonstrate a simple yet generic and efficient multi-task learning approach that not only detects misalignment between different sensor modalities but is also robust against them for long-range perception. Along with the amount of misalignment, our method also predicts calibrated uncertainty, which can be useful for filtering and fusing predicted misalignment values over time. In addition, we show that the predicted misalignment parameters can be used for self-correcting input sensor data, further improving the perception performance under sensor misalignment.
arxiv情報
著者 | Zi-Xiang Xia,Sudeep Fadadu,Yi Shi,Louis Foucard |
発行日 | 2025-03-04 17:23:27+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google