要約
タイトル:インスタンス・パターン・コンポーザーによる汎用的な暗黙的ニューラル表現
要約:
– 暗黙的ニューラル表現(INR)の技術が進展しつつも、座標ベースのマルチレイヤーパーセプトロン(MLP)がデータインスタンス全体に共通の表現を学習し、それを見擦られたインスタンスにも適用することは依然として困難である。
– 本論文では、座標ベースのMLPがインスタンス・パターン・コンポーザーとして初期のMLP層の一部の重みを調整するだけで、複雑なデータインスタンスを表現できる汎用的なINRフレームワークを提案する。残りのMLP重みはインスタンス全体の共通表現のパターン合成ルールを学習する。また、このフレームワークは既存のメタラーニングとハイパーネットワークにもフル互換性があり、未知のインスタンスの調整重みを予測することができる。
– 本研究の結果、音声、画像、3Dオブジェクトなど、さまざまなドメインで高い性能を発揮し、重み調整の検証も行われた。
要約(オリジナル)
Despite recent advances in implicit neural representations (INRs), it remains challenging for a coordinate-based multi-layer perceptron (MLP) of INRs to learn a common representation across data instances and generalize it for unseen instances. In this work, we introduce a simple yet effective framework for generalizable INRs that enables a coordinate-based MLP to represent complex data instances by modulating only a small set of weights in an early MLP layer as an instance pattern composer; the remaining MLP weights learn pattern composition rules for common representations across instances. Our generalizable INR framework is fully compatible with existing meta-learning and hypernetworks in learning to predict the modulated weight for unseen instances. Extensive experiments demonstrate that our method achieves high performance on a wide range of domains such as an audio, image, and 3D object, while the ablation study validates our weight modulation.
arxiv情報
著者 | Chiheon Kim,Doyup Lee,Saehoon Kim,Minsu Cho,Wook-Shin Han |
発行日 | 2023-04-17 12:55:57+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI