Gaussian Masked Autoencoders

要約

このペーパーでは、ガウス スプラッティングを使用したマスク オートエンコーダー (MAE) について説明します。
MAE などの再構成的自己教師あり学習フレームワークは、優れた意味論的抽象化を学習しますが、明示的な空間認識については訓練されていません。
Gaussian Masked Autoencoder (GMAE) と呼ばれる私たちのアプローチは、意味論的な抽象化と空間理解を一緒に学習することを目的としています。
MAE と同様に、ピクセル空間内で画像をエンドツーエンドで再構築しますが、MAE を超えて、中間の 3D ガウスベースの表現も導入し、スプラッティングによって画像をレンダリングします。
我々は、GMAE が MAE の自己教師あり表現品質の高レベルのセマンティクスを維持しながら、空間理解のさまざまなゼロショット学習機能 (図と地面のセグメンテーション、画像の階層化、エッジ検出など) を有効にできることを示します。
私たちの知る限り、最適化ベースの単一シーンの再構築を超えた画像表現学習フレームワークでガウス プリミティブを採用したのは私たちが初めてです。
私たちは、GMAE がこの方向でのさらなる研究を促し、高忠実度の視覚データをモデリングする次世代技術の開発に貢献すると信じています。
詳細については、https://brjathu.github.io/gmae をご覧ください。

要約(オリジナル)

This paper explores Masked Autoencoders (MAE) with Gaussian Splatting. While reconstructive self-supervised learning frameworks such as MAE learns good semantic abstractions, it is not trained for explicit spatial awareness. Our approach, named Gaussian Masked Autoencoder, or GMAE, aims to learn semantic abstractions and spatial understanding jointly. Like MAE, it reconstructs the image end-to-end in the pixel space, but beyond MAE, it also introduces an intermediate, 3D Gaussian-based representation and renders images via splatting. We show that GMAE can enable various zero-shot learning capabilities of spatial understanding (e.g., figure-ground segmentation, image layering, edge detection, etc.) while preserving the high-level semantics of self-supervised representation quality from MAE. To our knowledge, we are the first to employ Gaussian primitives in an image representation learning framework beyond optimization-based single-scene reconstructions. We believe GMAE will inspire further research in this direction and contribute to developing next-generation techniques for modeling high-fidelity visual data. More details at https://brjathu.github.io/gmae

arxiv情報

著者 Jathushan Rajasegaran,Xinlei Chen,Rulilong Li,Christoph Feichtenhofer,Jitendra Malik,Shiry Ginosar
発行日 2025-01-06 18:59:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク