要約
ベイジアンフレームワークで動的ターゲット位置特定のための人支援自律センサー融合を検討します。
自律追跡システムの欠点を補うために、ターゲットを視覚的に監視する人間のオペレーターから空間センシング情報を収集し、ターゲットが位置するエリアを囲むフリースケッチの形式でターゲット位置情報を提供することを提案します。
この論文での私たちの焦点は、適応項が人間の入力の信頼性レベルを捉える、人間が提供する入力に対する適応確率モデルを構築することです。
この論文の次の貢献は、人間の検出信頼性の動的な変化も捕捉および考慮される方法で、人間と自律センサーの入力を融合する新しい統合ベイジアン学習方法です。
このベイジアン モデリング フレームワークのユニークな点は、解析的な閉形式の更新方程式であり、これにより、私たちの手法に大幅な計算効率が与えられます。
シミュレーションにより結果が実証されます。
要約(オリジナル)
We consider a human-assisted autonomy sensor fusion for dynamic target localization in a Bayesian framework. To compensate for the shortcomings of an autonomous tracking system, we propose to collect spatial sensing information from human operators who visually monitor the target and can provide target localization information in the form of free sketches encircling the area where the target is located. Our focus in this paper is to construct an adaptive probabilistic model for human-provided inputs where the adaption terms capture the level of reliability of the human inputs. The next contribution of this paper is a novel joint Bayesian learning method to fuse human and autonomous sensor inputs in a manner that the dynamic changes in human detection reliability are also captured and accounted for. A unique aspect of this Bayesian modeling framework is its analytical closed-form update equations, endowing our method with significant computational efficiency. Simulations demonstrate our results.
arxiv情報
著者 | Min-Won Seo,Solmaz S. Kia |
発行日 | 2023-11-20 19:08:05+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google