Learning Diverse Bimanual Dexterous Manipulation Skills from Human Demonstrations

要約

両手による器用な操作は、ロボット工学において重要でありながら未開拓の分野である。その高次元行動空間と固有のタスクの複雑さは、政策学習にとって重大な課題となり、既存のベンチマークにおける限られたタスクの多様性は、汎用的なスキル開発の妨げとなる。既存のアプローチは強化学習に依存しており、多くの場合、狭いタスクセットに合わせた複雑に設計された報酬関数に制約されている。本研究では、豊富な人間の実演から多様な両手先の器用スキルを効率的に学習するための新しいアプローチを提示する。具体的には、BiDexHDを紹介する。BiDexHDは、既存の両手指データセットからタスクを構築し、全てのタスクに対応するために教師-生徒政策学習を採用するフレームワークである。教師は、共有された振る舞いを持つタスク間で一般的な2段階の報酬関数を用いて状態ベースのポリシーを学習し、生徒は学習されたマルチタスクポリシーをビジョンベースのポリシーに抽出する。BiDexHDにより、自動構築されたタスクから多数の両手器用スキルをスケーラブルに学習することが可能となり、普遍的な両手器用操作に向けた有望な前進を提供する。TACOデータセット(6カテゴリ141タスク)を用いた実証評価では、学習タスクで74.59%、未見タスクで51.07%のタスク達成率を示し、BiDexHDの有効性と競争力のあるゼロショット汎化能力を示しています。ビデオや詳細については、プロジェクトページhttps://sites.google.com/view/bidexhd。

要約(オリジナル)

Bimanual dexterous manipulation is a critical yet underexplored area in robotics. Its high-dimensional action space and inherent task complexity present significant challenges for policy learning, and the limited task diversity in existing benchmarks hinders general-purpose skill development. Existing approaches largely depend on reinforcement learning, often constrained by intricately designed reward functions tailored to a narrow set of tasks. In this work, we present a novel approach for efficiently learning diverse bimanual dexterous skills from abundant human demonstrations. Specifically, we introduce BiDexHD, a framework that unifies task construction from existing bimanual datasets and employs teacher-student policy learning to address all tasks. The teacher learns state-based policies using a general two-stage reward function across tasks with shared behaviors, while the student distills the learned multi-task policies into a vision-based policy. With BiDexHD, scalable learning of numerous bimanual dexterous skills from auto-constructed tasks becomes feasible, offering promising advances toward universal bimanual dexterous manipulation. Our empirical evaluation on the TACO dataset, spanning 141 tasks across six categories, demonstrates a task fulfillment rate of 74.59% on trained tasks and 51.07% on unseen tasks, showcasing the effectiveness and competitive zero-shot generalization capabilities of BiDexHD. For videos and more information, visit our project page https://sites.google.com/view/bidexhd.

arxiv情報

著者 Bohan Zhou,Haoqi Yuan,Yuhui Fu,Zongqing Lu
発行日 2024-10-03 13:35:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG, cs.RO | コメントする

Cross-Embodiment Dexterous Grasping with Reinforcement Learning

要約

器用なハンドは、実世界の複雑な把持タスクに対して大きな可能性を示している。近年の研究では、主に特定のロボットハンドのためのポリシーの学習に焦点が当てられているが、多様な器用ハンドを制御する普遍的なポリシーの開発はほとんど未解明のままである。本研究では、強化学習(RL)を用いて、器用な手指を横断的に把持するポリシーの学習を研究する。本研究では、人間の手が遠隔操作によって様々な器用な手を制御できることに着想を得て、人間の手の固有表現に基づく普遍的な行動空間を提案する。本論文では、人間の手指の固有把持動作に基づく普遍的な動作空間を提案し、この普遍的な動作空間から出力される固有把持動作を、再ターゲッティングマッピングにより各ロボットハンドの具体的な関節動作に変換する。我々は、ロボットハンドの固有知覚を単純化し、指先と掌の位置のみを含むようにし、異なるロボットハンド間で統一された観察空間を提供する。我々のアプローチは、4つの異なる実施形態に渡るYCBデータセットから、単一のビジョンベースのポリシーを使用して、物体を把持することに80%の成功率を示す。さらに、我々の方針は、以前に見たことのない2つの実施形態へのゼロショット汎化を示し、効率的な微調整で大幅な改善を示した。詳細とビデオについては、プロジェクトページhttps://sites.google.com/view/crossdex。

要約(オリジナル)

Dexterous hands exhibit significant potential for complex real-world grasping tasks. While recent studies have primarily focused on learning policies for specific robotic hands, the development of a universal policy that controls diverse dexterous hands remains largely unexplored. In this work, we study the learning of cross-embodiment dexterous grasping policies using reinforcement learning (RL). Inspired by the capability of human hands to control various dexterous hands through teleoperation, we propose a universal action space based on the human hand’s eigengrasps. The policy outputs eigengrasp actions that are then converted into specific joint actions for each robot hand through a retargeting mapping. We simplify the robot hand’s proprioception to include only the positions of fingertips and the palm, offering a unified observation space across different robot hands. Our approach demonstrates an 80% success rate in grasping objects from the YCB dataset across four distinct embodiments using a single vision-based policy. Additionally, our policy exhibits zero-shot generalization to two previously unseen embodiments and significant improvement in efficient finetuning. For further details and videos, visit our project page https://sites.google.com/view/crossdex.

arxiv情報

著者 Haoqi Yuan,Bohan Zhou,Yuhui Fu,Zongqing Lu
発行日 2024-10-03 13:36:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG, cs.RO | コメントする

A Causal Bayesian Network and Probabilistic Programming Based Reasoning Framework for Robot Manipulation Under Uncertainty

要約

実環境におけるロボットの物体操作は困難である。というのも、ロボットの操作は、危険でコストのかかるミスを回避するために、様々なセンシング、推定、作動の不確実性に対してロバストでなければならないからである。本論文では、任意のロボットシステムの不確実性にロバストなロボットの意思決定を可能にするために、ロボットが操作動作の候補を確率的に推論するための、柔軟で一般化可能な物理情報因果ベイズネットワーク(CBN)ベースのフレームワークを提案する。ブロック積み上げタスクの高忠実度Gazeboシミュレーション実験を用いて、我々のフレームワークの能力を実証する:(1)操作結果を高い精度で予測する(Pred Acc: 88.6%)、(2)貪欲な次善行動選択を94.2%のタスク成功率で実行する。また、家庭用ロボットを用いて、本フレームワークが実世界のロボットシステムに適していることを実証する。このように、確率的因果モデリングと物理シミュレーションを組み合わせることで、ロボットの操作をシステムの不確実性に対してより頑健にすることができ、ひいては実世界での応用がより実現可能であることを示す。さらに、我々の一般化された推論フレームワークは、将来のロボット工学と因果性の研究に利用、拡張することができる。

要約(オリジナル)

Robot object manipulation in real-world environments is challenging because robot operation must be robust to a range of sensing, estimation, and actuation uncertainties to avoid potentially unsafe and costly mistakes that are a barrier to their adoption. In this paper, we propose a flexible and generalisable physics-informed causal Bayesian network (CBN) based framework for a robot to probabilistically reason about candidate manipulation actions, to enable robot decision-making robust to arbitrary robot system uncertainties — the first of its kind to use a probabilistic programming language implementation. Using experiments in high-fidelity Gazebo simulation of an exemplar block stacking task, we demonstrate our framework’s ability to: (1) predict manipulation outcomes with high accuracy (Pred Acc: 88.6%); and, (2) perform greedy next-best action selection with 94.2% task success rate. We also demonstrate our framework’s suitability for real-world robot systems with a domestic robot. Thus, we show that by combining probabilistic causal modelling with physics simulations, we can make robot manipulation more robust to system uncertainties and hence more feasible for real-world applications. Further, our generalised reasoning framework can be used and extended for future robotics and causality research.

arxiv情報

著者 Ricardo Cannizzaro,Michael Groom,Jonathan Routley,Robert Osazuwa Ness,Lars Kunze
発行日 2024-10-03 14:16:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG, cs.RO, G.3, stat.AP | コメントする

SwarmCVT: Centroidal Voronoi Tessellation-Based Path Planning for Very-Large-Scale Robotics

要約

群ロボット工学、あるいは超大規模ロボット工学(VLSR)は、複雑な作業に対して多くの有意義な応用がある。しかし、ロボットの数が増えるにつれて、動作制御の複雑さとエネルギーコストが急速に増大する。この問題に対処するため、我々のこれまでの研究では、巨視的アプローチと微視的アプローチを用いた様々な手法を定式化してきた。これらの手法では、巨視的スケールで観測される基準ガウス混合モデル(GMM)分布に微視的ロボットが準拠することを可能にします。その結果、巨視的レベルを最適化することで、全体として最適な結果が得られる。しかし、これらの方法はすべて、GMM軌道を構築するために、障害物のない領域内でガウス成分(GC)を系統的かつ大域的に生成する必要がある。本研究では、セントロイド・ボロノイ・テッセレーションを利用して、GCを系統的に生成する。その結果、一貫性と信頼性を確保しつつ、性能向上を示す。

要約(オリジナル)

Swarm robotics, or very large-scale robotics (VLSR), has many meaningful applications for complicated tasks. However, the complexity of motion control and energy costs stack up quickly as the number of robots increases. In addressing this problem, our previous studies have formulated various methods employing macroscopic and microscopic approaches. These methods enable microscopic robots to adhere to a reference Gaussian mixture model (GMM) distribution observed at the macroscopic scale. As a result, optimizing the macroscopic level will result in an optimal overall result. However, all these methods require systematic and global generation of Gaussian components (GCs) within obstacle-free areas to construct the GMM trajectories. This work utilizes centroidal Voronoi tessellation to generate GCs methodically. Consequently, it demonstrates performance improvement while also ensuring consistency and reliability.

arxiv情報

著者 James Gao,Jacob Lee,Yuting Zhou,Yunze Hu,Chang Liu,Pingping Zhu
発行日 2024-10-03 14:17:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.MA, cs.RO, cs.SY, eess.SY | コメントする

Theory and Explicit Design of a Path Planner for an SE(3) Robot

要約

多面体の障害物の中を移動する、6自由度を持つ剛体空間ロボットの経路計画を考える。このようなロボットのための正しく完全で実用的な経路計画は、ロボット工学における重要な課題として広く認識されているにもかかわらず、これまで実現されたことはない。本論文では、容易に実装可能な明示的な幾何学的プリミティブに至るまで、完全な「明示的」設計を提供する。 我々の設計は、ソフト細分探索(Soft Subdivision Search: SSS)と呼ばれるパスプランナのアルゴリズムフレームワークの中にある。このフレームワークは、厳密な数値実装に重要な$epsilon$-exactnessと柔らかい述語の二つの基礎に基づいている。SSSの実用性は、5自由度空間ロボットを含む様々なロボットで実証されている。 本論文では、SE(3)ロボットに関するいくつかの重要な技術的課題を解決する。(1)まず、SSS理論の基本定理の一般形を証明することにより、正しい理論を保証する。(2)SE(3)ロボットの構成要素の1つである$SE(3)理論の一般的な定理を証明する。(2) $SE(3) = R^3 \times SO(3)$ の構成要素の一つは非ユークリッド空間SO(3)である。SO(3)の新しいトポロジー的に正しいデータ構造を設計する。SO(3)の細分割図とアトラスの概念を用いて、SO(3)の細分割を行うことができる。(3)衝突検出の幾何学的問題は、フットプリント写像を介して$R^3$で行われる。サンプリングに基づくアプローチとは異なり、配置ボックスの足跡という概念で推論しなければならないが、これは特徴付けるのがはるかに難しい。ソフト述語の理論を利用し、適切な近似フットプリントを設計し、非常に効果的な特徴セット技術と組み合わせることで、ソフト述語を導く。(4)最後に、直接実装を可能にするために、基礎となる幾何学的計算を「明示的」にする、すなわち、多項式系の一般的なソルバーを避ける。

要約(オリジナル)

We consider path planning for a rigid spatial robot with 6 degrees of freedom (6 DOFs), moving amidst polyhedral obstacles. A correct, complete and practical path planner for such a robot has never been achieved, although this is widely recognized as a key challenge in robotics. This paper provides a complete ‘explicit’ design, down to explicit geometric primitives that are easily implementable. Our design is within an algorithmic framework for path planners, called Soft Subdivision Search (SSS). The framework is based on the twin foundations of $\epsilon$-exactness and soft predicates, which are critical for rigorous numerical implementations. The practicality of SSS has been previously demonstrated for various robots including 5-DOF spatial robots. In this paper, we solve several significant technical challenges for SE(3) robots: (1) We first ensure the correct theory by proving a general form of the Fundamental Theorem of the SSS theory. We prove this within an axiomatic framework, thus making it easy for future applications of this theory. (2) One component of $SE(3) = R^3 \times SO(3)$ is the non-Euclidean space SO(3). We design a novel topologically correct data structure for SO(3). Using the concept of subdivision charts and atlases for SO(3), we can now carry out subdivision of SO(3). (3) The geometric problem of collision detection takes place in $R^3$, via the footprint map. Unlike sampling-based approaches, we must reason with the notion of footprints of configuration boxes, which is much harder to characterize. Exploiting the theory of soft predicates, we design suitable approximate footprints which, when combined with the highly effective feature-set technique, lead to soft predicates. (4) Finally, we make the underlying geometric computation ‘explicit’, i.e., avoiding a general solver of polynomial systems, in order to allow a direct implementation.

arxiv情報

著者 Zhaoqi Zhang,Yi-Jen Chiang,Chee Yap
発行日 2024-10-03 14:25:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CG, cs.RO | コメントする

BadRobot: Manipulating Embodied LLMs in the Physical World

要約

体現型AIは、AIが物理的実体に組み込まれ、周囲の環境を知覚し、相互作用することを可能にするシステムを表す。強力な言語理解能力を示すラージ・ランゲージ・モデル(LLM)は、高度なタスク・プランニングを容易にすることで、体現型AIに広く採用されている。しかしながら、安全性に関する重大な問題は見過ごされたままである。すなわち、これらの具現化されたLLMが有害な行動を犯す可能性はあるのだろうか?これに対して、我々はBadRobotを紹介する。BadRobotは、典型的な音声ベースのユーザーとシステムのインタラクションを通じて、具現化LLMに安全性と倫理的制約に違反させることを目的とした新しい攻撃パラダイムである。具体的には、(i)ロボットシステム内でのLLMの操作、(ii)言語出力と物理的動作の不整合、(iii)世界知識の欠陥による意図しない危険行動、の3つの脆弱性を悪用してこの種の攻撃を実現する。さらに、BadRobotの攻撃性能を評価するために、様々な悪意のある物理的行動クエリのベンチマークを構築する。このベンチマークに基づき、既存の著名な具現化LLMフレームワーク(例えば、Voxposer、Code as Policies、ProgPrompt)に対する広範な実験により、我々のBadRobotの有効性を実証する。警告この論文には、AIが生成した有害な言語と攻撃的な行動が含まれています。

要約(オリジナル)

Embodied AI represents systems where AI is integrated into physical entities, enabling them to perceive and interact with their surroundings. Large Language Model (LLM), which exhibits powerful language understanding abilities, has been extensively employed in embodied AI by facilitating sophisticated task planning. However, a critical safety issue remains overlooked: could these embodied LLMs perpetrate harmful behaviors? In response, we introduce BadRobot, a novel attack paradigm aiming to make embodied LLMs violate safety and ethical constraints through typical voice-based user-system interactions. Specifically, three vulnerabilities are exploited to achieve this type of attack: (i) manipulation of LLMs within robotic systems, (ii) misalignment between linguistic outputs and physical actions, and (iii) unintentional hazardous behaviors caused by world knowledge’s flaws. Furthermore, we construct a benchmark of various malicious physical action queries to evaluate BadRobot’s attack performance. Based on this benchmark, extensive experiments against existing prominent embodied LLM frameworks (e.g., Voxposer, Code as Policies, and ProgPrompt) demonstrate the effectiveness of our BadRobot. Warning: This paper contains harmful AI-generated language and aggressive actions.

arxiv情報

著者 Hangtao Zhang,Chenyu Zhu,Xianlong Wang,Ziqi Zhou,Changgan Yin,Minghui Li,Lulu Xue,Yichen Wang,Shengshan Hu,Aishan Liu,Peijin Guo,Leo Yu Zhang
発行日 2024-10-03 14:31:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CY, cs.RO | コメントする

SonicSense: Object Perception from In-Hand Acoustic Vibration

要約

SonicSenseを紹介する。SonicSenseは、ハードウェアとソフトウェアから構成される総合的なデザインであり、手指の中の音響振動センシングを通じて、豊かなロボット物体知覚を可能にする。これまでの研究で、物体知覚のための音響センシングは有望な結果を示しているが、現在のソリューションは、単純な形状と均質な材料を持つ一握りの物体、単一指でのセンシング、同じ物体に対する混合トレーニングとテストに制約されている。SonicSenseは、コンテナの在庫状況の識別、異種材料の予測、3D形状の再構築、83の多様な実世界物体からの物体再識別を可能にします。我々のシステムは、シンプルだが効果的なヒューリスティック探索ポリシーを用いて対象物と対話し、エンドツーエンドの学習ベースのアルゴリズムを用いて振動信号を融合させ、対象物の特性を推測する。我々のフレームワークは、ロボットの触覚知覚を進歩させる上で、手の中の音響振動センシングの重要性を強調している。

要約(オリジナル)

We introduce SonicSense, a holistic design of hardware and software to enable rich robot object perception through in-hand acoustic vibration sensing. While previous studies have shown promising results with acoustic sensing for object perception, current solutions are constrained to a handful of objects with simple geometries and homogeneous materials, single-finger sensing, and mixing training and testing on the same objects. SonicSense enables container inventory status differentiation, heterogeneous material prediction, 3D shape reconstruction, and object re-identification from a diverse set of 83 real-world objects. Our system employs a simple but effective heuristic exploration policy to interact with the objects as well as end-to-end learning-based algorithms to fuse vibration signals to infer object properties. Our framework underscores the significance of in-hand acoustic vibration sensing in advancing robot tactile perception.

arxiv情報

著者 Jiaxun Liu,Boyuan Chen
発行日 2024-10-03 14:34:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.MM, cs.RO, cs.SD, eess.AS | コメントする

ViewActive: Active viewpoint optimization from a single image

要約

人間は、物体を観察する際に、空間的な視覚化と、現在の観察に基づいて最適な視点の候補を思い浮かべる精神的な回転能力の恩恵を受けている。なぜなら、最適な視点は、2次元画像で情景を正確に表現するために不可欠で有益な特徴を提供し、それによって下流のタスクを向上させるからである。 このような人間のような能動的な視点最適化能力をロボットに与えるために、我々は、アスペクトグラフから着想を得た現代的な機械学習アプローチであるViewActiveを提案し、現在の2D画像入力に基づいてのみ視点最適化ガイダンスを提供する。具体的には、3次元視点品質フィールド(VQF)を導入する。VQFは、アスペクトグラフに似た、コンパクトで一貫性のある視点品質分布表現であり、3つの汎用視点品質メトリクス(自己包含率、占有を考慮した表面法線エントロピー、視覚エントロピー)から構成される。軽量なViewActiveネットワーク(シングルGPUで72FPS)は、最先端の物体認識パイプラインの性能を大幅に向上させ、ロボットアプリケーションのリアルタイム動作計画に統合することができます。私たちのコードとデータセットはこちらから入手可能です: https://github.com/jiayi-wu-umd/ViewActive

要約(オリジナル)

When observing objects, humans benefit from their spatial visualization and mental rotation ability to envision potential optimal viewpoints based on the current observation. This capability is crucial for enabling robots to achieve efficient and robust scene perception during operation, as optimal viewpoints provide essential and informative features for accurately representing scenes in 2D images, thereby enhancing downstream tasks. To endow robots with this human-like active viewpoint optimization capability, we propose ViewActive, a modernized machine learning approach drawing inspiration from aspect graph, which provides viewpoint optimization guidance based solely on the current 2D image input. Specifically, we introduce the 3D Viewpoint Quality Field (VQF), a compact and consistent representation for viewpoint quality distribution similar to an aspect graph, composed of three general-purpose viewpoint quality metrics: self-occlusion ratio, occupancy-aware surface normal entropy, and visual entropy. We utilize pre-trained image encoders to extract robust visual and semantic features, which are then decoded into the 3D VQF, allowing our model to generalize effectively across diverse objects, including unseen categories.The lightweight ViewActive network (72 FPS on a single GPU) significantly enhances the performance of state-of-the-art object recognition pipelines and can be integrated into real-time motion planning for robotic applications. Our code and dataset are available here: https://github.com/jiayi-wu-umd/ViewActive

arxiv情報

著者 Jiayi Wu,Xiaomin Lin,Botao He,Cornelia Fermuller,Yiannis Aloimonos
発行日 2024-10-03 14:43:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO | コメントする

Embodied-RAG: General Non-parametric Embodied Memory for Retrieval and Generation

要約

ロボットが探索し学習する量に制限はないが、その知識はすべて検索可能で実用的である必要がある。しかし、既存の技術は、マルチモーダルであり、データの相関性が高く、知覚に抽象化が必要な具現化領域には直接適用できない。 これらの課題に対処するために、我々は、ナビゲーションと言語生成の両方のための階層的知識を自律的に構築することができるノンパラメトリック記憶システムを備えた具現化エージェントの基礎モデルを強化するフレームワークであるEmbodied-RAGを紹介する。Embodied-RAGは、特定のオブジェクトや雰囲気の全体的な記述など、多様な環境とクエリのタイプにわたって、あらゆる空間的および意味的な解像度を処理する。その中核となるEmbodied-RANGのメモリはセマンティック・フォレスト(意味の森)として構成され、さまざまな詳細レベルの言語記述を保存します。この階層的な構成により、システムは異なるロボットプラットフォーム間で文脈に応じた出力を効率的に生成することができる。我々は、Embodied-RAGがRAGをロボット工学の領域に効果的に橋渡しすることを実証し、19の環境において200以上の説明とナビゲーションのクエリを処理することに成功し、具現化されたエージェントのための汎用的なノンパラメトリックシステムとしての可能性を強調した。

要約(オリジナル)

There is no limit to how much a robot might explore and learn, but all of that knowledge needs to be searchable and actionable. Within language research, retrieval augmented generation (RAG) has become the workhouse of large-scale non-parametric knowledge, however existing techniques do not directly transfer to the embodied domain, which is multimodal, data is highly correlated, and perception requires abstraction. To address these challenges, we introduce Embodied-RAG, a framework that enhances the foundational model of an embodied agent with a non-parametric memory system capable of autonomously constructing hierarchical knowledge for both navigation and language generation. Embodied-RAG handles a full range of spatial and semantic resolutions across diverse environments and query types, whether for a specific object or a holistic description of ambiance. At its core, Embodied-RAG’s memory is structured as a semantic forest, storing language descriptions at varying levels of detail. This hierarchical organization allows the system to efficiently generate context-sensitive outputs across different robotic platforms. We demonstrate that Embodied-RAG effectively bridges RAG to the robotics domain, successfully handling over 200 explanation and navigation queries across 19 environments, highlighting its promise for general-purpose non-parametric system for embodied agents.

arxiv情報

著者 Quanting Xie,So Yeon Min,Tianyi Zhang,Aarav Bajaj,Ruslan Salakhutdinov,Matthew Johnson-Roberson,Yonatan Bisk
発行日 2024-10-03 15:17:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG, cs.RO | コメントする

Making Space for Time: The Special Galilean Group and Its Application to Some Robotics Problems

要約

通常SGal(3)と表記される特殊ガリレオ群は10次元リー群であり、その重要な部分群には特殊直交群、特殊ユークリッド群、拡張ポーズ群が含まれる。SGal(3)とそのリー代数について簡単に説明し、その群構造がどのように空間と時間における不確定性の統一的な表現をサポートしているかを示す。我々の目的は、いくつかのロボット工学の問題に対するこの群の潜在的な有用性を強調することである。

要約(オリジナル)

The special Galilean group, usually denoted SGal(3), is a 10-dimensional Lie group whose important subgroups include the special orthogonal group, the special Euclidean group, and the group of extended poses. We briefly describe SGal(3) and its Lie algebra and show how the group structure supports a unified representation of uncertainty in space and time. Our aim is to highlight the potential usefulness of this group for several robotics problems.

arxiv情報

著者 Jonathan Kelly
発行日 2024-10-03 15:29:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO, math.GR | コメントする