要約
パラメーター推定は機械学習における基本的な課題であり、ニューラル ネットワークの重みフィッティングやベイズ推論などのタスクにとって重要です。
この論文は、
form $\frac{1}{\sigma^l} f_0 \left( \frac{\boldsymbol{x} – \boldsymbol{\mu}}{\sigma}
\right)$、ここで、$f_0$ は、$n$ サンプルが与えられた $\mathbb{R}^l$ の既知の密度です。
この問題は最尤推定 (MLE) では NP 困難ですが、 $\text{poly} \left( \frac{
1}{\varepsilon} \right)$ 時間は、Wasserstein 距離を使用します。
要約(オリジナル)
Parameter estimation is a fundamental challenge in machine learning, crucial for tasks such as neural network weight fitting and Bayesian inference. This paper focuses on the complexity of estimating translation $\boldsymbol{\mu} \in \mathbb{R}^l$ and shrinkage $\sigma \in \mathbb{R}_{++}$ parameters for a distribution of the form $\frac{1}{\sigma^l} f_0 \left( \frac{\boldsymbol{x} – \boldsymbol{\mu}}{\sigma} \right)$, where $f_0$ is a known density in $\mathbb{R}^l$ given $n$ samples. We highlight that while the problem is NP-hard for Maximum Likelihood Estimation (MLE), it is possible to obtain $\varepsilon$-approximations for arbitrary $\varepsilon > 0$ within $\text{poly} \left( \frac{1}{\varepsilon} \right)$ time using the Wasserstein distance.
arxiv情報
著者 | Valentio Iverson,Stephen Vavasis |
発行日 | 2025-01-17 13:07:52+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google