DNBP: Differentiable Nonparametric Belief Propagation

要約

ノンパラメトリック信念伝播アルゴリズムによる推論に使用される確率的要因を学習するための微分可能なアプローチを提示します。
既存のノンパラメトリック信念伝播法は、グラフィカル モデルの確率因子でエンコードされたドメイン固有の機能に依存しています。
この作業では、細工された各因子を微分可能なニューラル ネットワークに置き換えて、ラベル付きデータから効率的な最適化ルーチンを使用して因子を学習できるようにします。
微分可能なニューラル ネットワークと効率的な信念伝播アルゴリズムを組み合わせることにより、この方法は、エンドツーエンドのトレーニングを使用して一連の限界事後サンプルを維持することを学習します。
関節ポーズ追跡タスクのセットで微分可能なノンパラメトリック信念伝播 (DNBP) メソッドを評価し、パフォーマンスを学習したベースラインと比較します。
これらの実験の結果は、学習した要素を追跡に使用することの有効性を実証し、手作りのアプローチよりも実用的な利点を示唆しています。
プロジェクトの Web ページは https://progress.eecs.umich.edu/projects/dnbp/ にあります。

要約(オリジナル)

We present a differentiable approach to learn the probabilistic factors used for inference by a nonparametric belief propagation algorithm. Existing nonparametric belief propagation methods rely on domain-specific features encoded in the probabilistic factors of a graphical model. In this work, we replace each crafted factor with a differentiable neural network enabling the factors to be learned using an efficient optimization routine from labeled data. By combining differentiable neural networks with an efficient belief propagation algorithm, our method learns to maintain a set of marginal posterior samples using end-to-end training. We evaluate our differentiable nonparametric belief propagation (DNBP) method on a set of articulated pose tracking tasks and compare performance with learned baselines. Results from these experiments demonstrate the effectiveness of using learned factors for tracking and suggest the practical advantage over hand-crafted approaches. The project webpage is available at: https://progress.eecs.umich.edu/projects/dnbp/ .

arxiv情報

著者 Anthony Opipari,Jana Pavlasek,Chao Chen,Shoutian Wang,Karthik Desingh,Odest Chadwicke Jenkins
発行日 2023-03-08 14:38:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク