Physics-Encoded Graph Neural Networks for Deformation Prediction under Contact

要約

ロボット工学では、触覚インタラクション中のオブジェクトの変形を理解することが重要です。
変形を正確に理解することでロボット シミュレーションのレベルが向上し、さまざまな業界に広範な影響を与えることができます。
このような予測のために、物理エンコードされたグラフ ニューラル ネットワーク (GNN) を使用する方法を紹介します。
ロボットによる把握と操作のシナリオと同様に、外力下で変形可能なメッシュに接触する剛体メッシュ間のダイナミクスのモデル化に焦点を当てます。
私たちのアプローチは、グラフ構造内のソフト ボディとリジッド ボディの両方を表し、ノードがメッシュの物理的状態を保持します。
また、オブジェクト間の相互作用を捉えるためのクロスアテンション メカニズムも組み込んでいます。
幾何学と物理学を共同で学習することにより、私たちのモデルは一貫した詳細な変形を再構築します。
ロボットのシミュレーションと把握の研究を進めるために、コードとデータセットを公開しました。

要約(オリジナル)

In robotics, it’s crucial to understand object deformation during tactile interactions. A precise understanding of deformation can elevate robotic simulations and have broad implications across different industries. We introduce a method using Physics-Encoded Graph Neural Networks (GNNs) for such predictions. Similar to robotic grasping and manipulation scenarios, we focus on modeling the dynamics between a rigid mesh contacting a deformable mesh under external forces. Our approach represents both the soft body and the rigid body within graph structures, where nodes hold the physical states of the meshes. We also incorporate cross-attention mechanisms to capture the interplay between the objects. By jointly learning geometry and physics, our model reconstructs consistent and detailed deformations. We’ve made our code and dataset public to advance research in robotic simulation and grasping.

arxiv情報

著者 Mahdi Saleh,Michael Sommersperger,Nassir Navab,Federico Tombari
発行日 2024-02-05 19:21:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CG, cs.CV, cs.RO パーマリンク