A New Robust Partial $p$-Wasserstein-Based Metric for Comparing Distributions

要約

ワッセルシュタイン距離は、分布間のわずかな幾何学的差異に敏感であり、非常に強力な非類似度メトリックになります。しかし、この感度のために、小さな外れ値の質量が、2つの類似分布間の$2$-ワッサーシュタイン距離の大幅な増加を引き起こすこともあります。同様に、サンプリングの不一致は、$mathbb{R}^2$の$n$サンプル上の経験的な$2$-ワッサーシュタイン距離が$n^{-1/4}$の速度で真の距離に収束する原因となり、これは$1$-ワッサーシュタイン距離の$n^{-1/2}$の速度よりも著しく遅い。 我々は、$k$-RPWと呼ばれる、$2$-ワッサーシュタイン距離の部分計算に基づく、$k$-0$でパラメータ化された新しい距離族を導入する。我々は、$k$-RPWが、(1)メトリック特性を満たすこと、(2)$k$-RPWが、$2$-ワッサーシュタイン距離の微小な幾何学的差異に対する感度を保ちつつ、小さな外れ値の質量に頑健であること、(3)$k$が定数のとき、$k$-RPWが、(1)の性質を満たすことを示す、k$が定数のとき、$k$-RPW距離は$n^{-1/3}$の速度で真の距離に収束し、$2$-ワッサーシュタイン距離の収束速度$n^{-1/4}$より速い。 部分$p$-ワッサーシュタイン距離を用いて、距離を任意の$p[1,φ]$に拡張する。パラメータ$k$や$p$を適切に設定することで、距離を全変動距離、$p$-Wasserstein距離、L’evy-Prokhorov距離に縮めることができる。実験によれば、我々の距離関数は、ノイズの多い実世界データセットの画像検索タスクにおいて、$1$-ワッサーシュタイン距離、$2$-ワッサーシュタイン距離、TV距離と比較して、高い精度を達成する。

要約(オリジナル)

The $2$-Wasserstein distance is sensitive to minor geometric differences between distributions, making it a very powerful dissimilarity metric. However, due to this sensitivity, a small outlier mass can also cause a significant increase in the $2$-Wasserstein distance between two similar distributions. Similarly, sampling discrepancy can cause the empirical $2$-Wasserstein distance on $n$ samples in $\mathbb{R}^2$ to converge to the true distance at a rate of $n^{-1/4}$, which is significantly slower than the rate of $n^{-1/2}$ for $1$-Wasserstein distance. We introduce a new family of distances parameterized by $k \ge 0$, called $k$-RPW, that is based on computing the partial $2$-Wasserstein distance. We show that (1) $k$-RPW satisfies the metric properties, (2) $k$-RPW is robust to small outlier mass while retaining the sensitivity of $2$-Wasserstein distance to minor geometric differences, and (3) when $k$ is a constant, $k$-RPW distance between empirical distributions on $n$ samples in $\mathbb{R}^2$ converges to the true distance at a rate of $n^{-1/3}$, which is faster than the convergence rate of $n^{-1/4}$ for the $2$-Wasserstein distance. Using the partial $p$-Wasserstein distance, we extend our distance to any $p \in [1,\infty]$. By setting parameters $k$ or $p$ appropriately, we can reduce our distance to the total variation, $p$-Wasserstein, and the L\’evy-Prokhorov distances. Experiments show that our distance function achieves higher accuracy in comparison to the $1$-Wasserstein, $2$-Wasserstein, and TV distances for image retrieval tasks on noisy real-world data sets.

arxiv情報

著者 Sharath Raghvendra,Pouyan Shirzadian,Kaiyi Zhang
発行日 2024-05-06 17:41:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG, stat.ML パーマリンク