要約
無人航空機 (UAV) および無人水上車両 (USV) またはボートの視点から見たボートのヨー推定は、3D シーンのレンダリング、軌道予測、ナビゲーションなどのさまざまなアプリケーションにおいて重要なタスクです。
しかし、UAV の観点から見た物体のヨー推定に関する文献が不足しているため、この領域に取り組む動機となっています。
この論文では、6D 空間でボートの向きを予測するための HyperPosePDF に基づく方法を提案します。
そのために、PASCAL3D+ などの既存のデータセットと、手動でアノテーションを付けた独自のデータセット SeaDronesSee-3D および BOArienT を使用します。
HyperPosePDF をビデオベースのシナリオで機能するように拡張し、長期にわたる堅牢な方向予測を生成します。
ビデオ データに HyperPosePDF を単純に適用すると、単一点の予測が得られ、その結果、目に見えないデータや視覚的に異なるデータにより、遠く離れた予測が発生し、対称的な方向が不正確になることがよくあります。
この問題を軽減するために、実験的評価で示されているように、ポーズ予測の確率分布を集約することにより、パフォーマンスが大幅に向上することを提案します。
私たちが提案した方法は、海洋ロボット工学における下流のタスクに大きな利益をもたらす可能性があります。
要約(オリジナル)
Yaw estimation of boats from the viewpoint of unmanned aerial vehicles (UAVs) and unmanned surface vehicles (USVs) or boats is a crucial task in various applications such as 3D scene rendering, trajectory prediction, and navigation. However, the lack of literature on yaw estimation of objects from the viewpoint of UAVs has motivated us to address this domain. In this paper, we propose a method based on HyperPosePDF for predicting the orientation of boats in the 6D space. For that, we use existing datasets, such as PASCAL3D+ and our own datasets, SeaDronesSee-3D and BOArienT, which we annotated manually. We extend HyperPosePDF to work in video-based scenarios, such that it yields robust orientation predictions across time. Naively applying HyperPosePDF on video data yields single-point predictions, resulting in far-off predictions and often incorrect symmetric orientations due to unseen or visually different data. To alleviate this issue, we propose aggregating the probability distributions of pose predictions, resulting in significantly improved performance, as shown in our experimental evaluation. Our proposed method could significantly benefit downstream tasks in marine robotics.
arxiv情報
著者 | Benjamin Kiefer,Timon Höfer,Andreas Zell |
発行日 | 2023-06-24 20:47:37+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google