要約
特徴アライメント手法は、データのプール、アノテーション、比較のために多くの科学分野で使用されています。
順列学習問題の例として、特徴の位置合わせには統計的および計算上の重大な課題が生じます。
この研究では、さまざまなアライメント方法を研究および比較し、迷惑パラメータの存在により非標準の次元スケーリングを持つ共分散アライメントの最小下限を確立するための共分散アライメント モデルを提案します。
この下限は実際にはミニマックス最適であり、自然な疑似 MLE によって達成されます。
ただし、この推定にはすべての順列にわたる検索が含まれますが、これは問題が中程度のサイズである場合でも計算上実行不可能です。
この制限を克服するために、大規模な問題でも高速実装に適した最適トランスポートからの有名な Gromov-Wasserstein アルゴリズムもミニマックス最適であることを示します。
これらの結果は、Gromov-Wasserstein アルゴリズムの実際の展開に対する初めての統計的正当性を与えます。
要約(オリジナル)
Feature alignment methods are used in many scientific disciplines for data pooling, annotation, and comparison. As an instance of a permutation learning problem, feature alignment presents significant statistical and computational challenges. In this work, we propose the covariance alignment model to study and compare various alignment methods and establish a minimax lower bound for covariance alignment that has a non-standard dimension scaling because of the presence of a nuisance parameter. This lower bound is in fact minimax optimal and is achieved by a natural quasi MLE. However, this estimator involves a search over all permutations which is computationally infeasible even when the problem has moderate size. To overcome this limitation, we show that the celebrated Gromov-Wasserstein algorithm from optimal transport which is more amenable to fast implementation even on large-scale problems is also minimax optimal. These results give the first statistical justification for the deployment of the Gromov-Wasserstein algorithm in practice.
arxiv情報
著者 | Yanjun Han,Philippe Rigollet,George Stepaniants |
発行日 | 2023-11-22 18:55:27+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google