要約
基準推論は R.A. 氏にとって大きな間違いであると広く考えられていましたが、
フィッシャー氏が最初に設定した目標、つまり「観察に基づいてモデル パラメーターの不確実性を推測する」という目標は、多くの統計学者によって継続的に追求されてきました。
この目的を達成するために、拡張フィデューシャル推論 (EFI) と呼ばれる新しい統計的推論手法を開発します。
新しい方法は、ビッグデータに対する拡張性を維持しながら、高度な統計コンピューティング技術を活用することで基準推論の目標を達成します。
EFI には、確率的勾配マルコフ連鎖モンテカルロを使用した観測で実現されたランダム誤差を共同で代入し、スパース ディープ ニューラル ネットワーク (DNN) を使用して逆関数を推定することが含まれます。
スパース DNN 推定器の一貫性により、観測値に埋め込まれた不確実性が、推定された逆関数を通じてモデル パラメーターに適切に伝播されることが保証され、それによって下流の統計的推論が検証されます。
頻度主義法やベイズ法と比較して、EFI はパラメータ推定と仮説検定において大きな利点をもたらします。
具体的には、EFI は、特に観測値に異常値が存在する場合に、パラメーター推定の忠実度を高めます。
また、仮説検定における理論的な参照分布の必要性がなくなり、統計的推論プロセスが自動化されます。
EFI は、半教師あり学習のための革新的なフレームワークも提供します。
要約(オリジナル)
While fiducial inference was widely considered a big blunder by R.A. Fisher, the goal he initially set –`inferring the uncertainty of model parameters on the basis of observations’ — has been continually pursued by many statisticians. To this end, we develop a new statistical inference method called extended Fiducial inference (EFI). The new method achieves the goal of fiducial inference by leveraging advanced statistical computing techniques while remaining scalable for big data. EFI involves jointly imputing random errors realized in observations using stochastic gradient Markov chain Monte Carlo and estimating the inverse function using a sparse deep neural network (DNN). The consistency of the sparse DNN estimator ensures that the uncertainty embedded in observations is properly propagated to model parameters through the estimated inverse function, thereby validating downstream statistical inference. Compared to frequentist and Bayesian methods, EFI offers significant advantages in parameter estimation and hypothesis testing. Specifically, EFI provides higher fidelity in parameter estimation, especially when outliers are present in the observations; and eliminates the need for theoretical reference distributions in hypothesis testing, thereby automating the statistical inference process. EFI also provides an innovative framework for semi-supervised learning.
arxiv情報
著者 | Faming Liang,Sehwan Kim,Yan Sun |
発行日 | 2024-07-31 14:15:42+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google