要約
ニューラル グラフィックス プリミティブは、グリッドに配置されたトレーニング可能な特徴を保持する空間データ構造によってニューラル ネットワークが強化されると、より高速になり、より高い品質を実現します。
ただし、既存のフィーチャ グリッドには、メモリ フットプリントが大きい (高密度または因数分解されたグリッド、ツリー、ハッシュ テーブル) か、パフォーマンスが遅い (インデックス学習とベクトル量子化) かのいずれかが伴います。
この論文では、学習されたプローブを含むハッシュ テーブルには欠点がなく、サイズと速度の好ましい組み合わせが得られることを示します。
推論は同等の品質でプローブされていないハッシュ テーブルよりも高速ですが、トレーニングは 1.2 ~ 2.6 倍遅いだけで、以前のインデックス学習アプローチを大幅に上回ります。
すべての特徴グリッドを共通のフレームワークにキャストすることで、この定式化に到達します。これらのグリッドはそれぞれ、特徴ベクトルのテーブルにインデックスを付けるルックアップ関数に対応します。
このフレームワークでは、既存のデータ構造のルックアップ関数をインデックスの単純な算術結合によって組み合わせることができ、その結果、パレート最適な圧縮と速度が得られます。
要約(オリジナル)
Neural graphics primitives are faster and achieve higher quality when their neural networks are augmented by spatial data structures that hold trainable features arranged in a grid. However, existing feature grids either come with a large memory footprint (dense or factorized grids, trees, and hash tables) or slow performance (index learning and vector quantization). In this paper, we show that a hash table with learned probes has neither disadvantage, resulting in a favorable combination of size and speed. Inference is faster than unprobed hash tables at equal quality while training is only 1.2-2.6x slower, significantly outperforming prior index learning approaches. We arrive at this formulation by casting all feature grids into a common framework: they each correspond to a lookup function that indexes into a table of feature vectors. In this framework, the lookup functions of existing data structures can be combined by simple arithmetic combinations of their indices, resulting in Pareto optimal compression and speed.
arxiv情報
著者 | Towaki Takikawa,Thomas Müller,Merlin Nimier-David,Alex Evans,Sanja Fidler,Alec Jacobson,Alexander Keller |
発行日 | 2023-12-28 18:58:45+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google