要約
この作業では、スペクトルの注意を払った多重解像度機能マップに基づく、新しい非剛体形状マッチング フレームワークを提示します。
既存の関数マップ学習方法はすべて、スペクトル解像度ハイパーパラメーターの重要な選択に依存しており、慎重に選択しないと、全体的な精度に深刻な影響を与えたり、オーバーフィッティングにつながる可能性があります。
このホワイト ペーパーでは、スペクトル アテンションを導入することで、スペクトル分解能の調整を軽減できることを示します。
私たちのフレームワークは、教師ありと教師なしの両方の設定に適用できます。与えられた形状入力に応じて、スペクトル解像度を適応できるようにネットワークをトレーニングできることを示します。
より具体的には、スペクトル解像度の範囲にわたって対応を特徴付ける多重解像度関数マップを計算し、この表現を単一の一貫した最終対応に結合するのに役立つスペクトル注意ネットワークを導入することを提案します。
私たちのアプローチは、通常は高いスペクトル分解能が好まれる等角に近い入力で正確であるだけでなく、堅牢であり、既存の方法に大きな課題をもたらす重大な非等角歪みが存在する場合でも合理的なマッチングを生成できます。
一連の挑戦的な近等尺性および非等尺性形状マッチング ベンチマークの実験を通じて、私たちのアプローチの優れたパフォーマンスを実証します。
要約(オリジナル)
In this work, we present a novel non-rigid shape matching framework based on multi-resolution functional maps with spectral attention. Existing functional map learning methods all rely on the critical choice of the spectral resolution hyperparameter, which can severely affect the overall accuracy or lead to overfitting, if not chosen carefully. In this paper, we show that spectral resolution tuning can be alleviated by introducing spectral attention. Our framework is applicable in both supervised and unsupervised settings, and we show that it is possible to train the network so that it can adapt the spectral resolution, depending on the given shape input. More specifically, we propose to compute multi-resolution functional maps that characterize correspondence across a range of spectral resolutions, and introduce a spectral attention network that helps to combine this representation into a single coherent final correspondence. Our approach is not only accurate with near-isometric input, for which a high spectral resolution is typically preferred, but also robust and able to produce reasonable matching even in the presence of significant non-isometric distortion, which poses great challenges to existing methods. We demonstrate the superior performance of our approach through experiments on a suite of challenging near-isometric and non-isometric shape matching benchmarks.
arxiv情報
著者 | Lei Li,Nicolas Donati,Maks Ovsjanikov |
発行日 | 2022-10-12 16:24:53+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google