A General Theory of Correct, Incorrect, and Extrinsic Equivariance

要約

等変機械学習は多くのタスクで効果的であることが証明されていますが、成功は、グラウンド トゥルース関数がドメイン全体で対称であり、等変ニューラル ネットワークの対称性と一致するという仮定に大きく依存します。
等変学習の文献に欠けている部分は、対称性がドメイン内に部分的にしか存在しない場合の等変ネットワークの分析です。
この作業では、このような状況の一般的な理論を提示します。
関数が表示する各タイプの等分散の程度を継続的に定量化することを可能にする、正しい、正しくない、および外部の等分散の点ごとの定義を提案します。
次に、さまざまな程度の不正確な対称性または外部対称性がモデル エラーに与える影響を調べます。
対称性が部分的に正しくない分類または回帰設定で、不変ネットワークまたは同変ネットワークのエラー下限を証明します。
また、外因性等分散の潜在的に有害な影響も分析します。
実験では、これらの結果を 3 つの異なる環境で検証します。

要約(オリジナル)

Although equivariant machine learning has proven effective at many tasks, success depends heavily on the assumption that the ground truth function is symmetric over the entire domain matching the symmetry in an equivariant neural network. A missing piece in the equivariant learning literature is the analysis of equivariant networks when symmetry exists only partially in the domain. In this work, we present a general theory for such a situation. We propose pointwise definitions of correct, incorrect, and extrinsic equivariance, which allow us to quantify continuously the degree of each type of equivariance a function displays. We then study the impact of various degrees of incorrect or extrinsic symmetry on model error. We prove error lower bounds for invariant or equivariant networks in classification or regression settings with partially incorrect symmetry. We also analyze the potentially harmful effects of extrinsic equivariance. Experiments validate these results in three different environments.

arxiv情報

著者 Dian Wang,Xupeng Zhu,Jung Yeon Park,Robert Platt,Robin Walters
発行日 2023-03-08 17:28:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク