On the Utility of Equivariance and Symmetry Breaking in Deep Learning Architectures on Point Clouds

要約

このホワイトペーパーでは、さまざまな幾何学的複雑さのさまざまなタスクにわたって、ポイントクラウドを使用するモデルのパフォーマンスに影響を与える重要な要因を調査します。
この作業では、Equivariant層によって導入された柔軟性と重量共有のトレードオフを調査し、等虫がパフォーマンスを後押しまたは損なう時期を評価します。
多くの場合、入力としてより多くの情報を提供すると、モデルのパフォーマンスが向上すると主張されています。
ただし、この追加情報が$ \ se(3)$ equivarianceなどの特定のプロパティを壊す場合、有益なままですか?
セグメンテーション、回帰、および複雑さの増加に伴い、セグメンテーション、回帰、および生成タスクをベンチマークすることにより、さまざまなタスクで成功を促進する、等変量および非拡張アーキテクチャの重要な側面を特定します。
厳密な等量性が必要ない場合でも、タスクの複雑さの増加とともにより顕著になります。

要約(オリジナル)

This paper explores the key factors that influence the performance of models working with point clouds, across different tasks of varying geometric complexity. In this work, we explore the trade-offs between flexibility and weight-sharing introduced by equivariant layers, assessing when equivariance boosts or detracts from performance. It is often argued that providing more information as input improves a model’s performance. However, if this additional information breaks certain properties, such as $\SE(3)$ equivariance, does it remain beneficial? We identify the key aspects of equivariant and non-equivariant architectures that drive success in different tasks by benchmarking them on segmentation, regression, and generation tasks across multiple datasets with increasing complexity. We observe a positive impact of equivariance, which becomes more pronounced with increasing task complexity, even when strict equivariance is not required.

arxiv情報

著者 Sharvaree Vadgama,Mohammad Mohaiminul Islam,Domas Buracus,Christian Shewmake,Erik Bekkers
発行日 2025-03-05 15:26:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク