要約
複数のソースからのデータと知識を統合することは、データ フュージョンとして知られています。
データが分散された方法でしか利用できない場合、または関心のある量を推測するためにさまざまなセンサーが使用される場合、データの融合が不可欠になります。
ベイジアン設定では、未知の量の先験的な情報が利用可能であり、異なる分散推定器間に存在する可能性があります。
局所推定値が融合されると、融合ノードがこれを考慮して修正しない限り、いくつかの局所事後分布を構築するために使用された事前知識が過剰に使用される可能性があります。
この論文では、ベイズデータ融合コンテキストにおける共有事前確率の影響を分析します。
さまざまな共通の融合ルールに応じて、私たちの分析は、協調エージェントの数の関数として、またさまざまな種類の事前分布の結果としてパフォーマンスの動作を理解するのに役立ちます。
分析は、ベイズ推論で一般的な 2 つの発散を使用して実行され、結果の一般性により、非常に一般的な分布を分析できます。
これらの理論的結果は、線形および非線形モデル、連合学習スキームなど、さまざまな推定および分類問題における実験を通じて裏付けられています。
要約(オリジナル)
The integration of data and knowledge from several sources is known as data fusion. When data is only available in a distributed fashion or when different sensors are used to infer a quantity of interest, data fusion becomes essential. In Bayesian settings, a priori information of the unknown quantities is available and, possibly, present among the different distributed estimators. When the local estimates are fused, the prior knowledge used to construct several local posteriors might be overused unless the fusion node accounts for this and corrects it. In this paper, we analyze the effects of shared priors in Bayesian data fusion contexts. Depending on different common fusion rules, our analysis helps to understand the performance behavior as a function of the number of collaborative agents and as a consequence of different types of priors. The analysis is performed by using two divergences which are common in Bayesian inference, and the generality of the results allows to analyze very generic distributions. These theoretical results are corroborated through experiments in a variety of estimation and classification problems, including linear and nonlinear models, and federated learning schemes.
arxiv情報
著者 | Peng Wu,Tales Imbiriba,Victor Elvira,Pau Closas |
発行日 | 2023-12-08 16:04:20+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google