SLR: Learning Quadruped Locomotion without Privileged Information

要約

最近主流となっている四足ロボットの強化学習制御は特権情報に依存することが多く、綿密な選択と正確な推定が要求されるため、開発プロセスに制約が課せられています。
この研究では、特権情報を必要とせずに高性能な制御ポリシー学習を実現する自己学習潜在表現 (SLR) 手法を提案します。
提案された方法の評価の信頼性を高めるために、SLR は、オープンソース コード リポジトリと元の構成パラメータを使用して最先端のアルゴリズムと直接比較されました。
注目すべきことに、SLR は限られた固有受容データのみを使用した以前の方法のパフォーマンスを上回り、将来のアプリケーションに対する大きな可能性を示しています。
最終的に、訓練されたポリシーとエンコーダーにより、四足ロボットはさまざまな困難な地形を横断できるようになります。
結果のビデオは、当社の Web サイトでご覧いただけます: https://11chens.github.io/SLR/

要約(オリジナル)

The recent mainstream reinforcement learning control for quadruped robots often relies on privileged information, demanding meticulous selection and precise estimation, thereby imposing constraints on the development process. This work proposes a Self-learning Latent Representation (SLR) method, which achieves high-performance control policy learning without the need for privileged information. To enhance the credibility of the proposed method’s evaluation, SLR was directly compared with state-of-the-art algorithms using their open-source code repositories and original configuration parameters. Remarkably, SLR surpasses the performance of previous methods using only limited proprioceptive data, demonstrating significant potential for future applications. Ultimately, the trained policy and encoder empower the quadruped robot to traverse various challenging terrains. Videos of our results can be found on our website: https://11chens.github.io/SLR/

arxiv情報

著者 Shiyi Chen,Zeyu Wan,Shiyang Yan,Chun Zhang,Weiyi Zhang,Qiang Li,Debing Zhang,Fasih Ud Din Farrukh
発行日 2024-10-21 11:58:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | SLR: Learning Quadruped Locomotion without Privileged Information はコメントを受け付けていません

Neural Predictor for Flight Control with Payload

要約

自由浮遊マニピュレータの形態として、吊り下げられたペイロードを輸送するための空中ロボット工学は、近年大きな関心を集めています。
ただし、質量などのペイロードの事前情報を正確に取得することは、実際には常に困難です。
ペイロードおよび残留ダイナミクスによって生じる力/トルクは、モデル化されていない摂動をシステムに導入し、閉ループのパフォーマンスに悪影響を及ぼします。
推定のような方法とは異なり、この論文では、ペイロードおよび残留力学によって引き起こされる力/トルクを力学システムとしてモデル化する学習ベースのアプローチである Neural Predictor を提案します。
これにより、第一原理ダイナミクスと学習ダイナミクスの両方を含むハイブリッド モデルが生成されます。
このハイブリッド モデルは MPC フレームワークに統合され、閉ループのパフォーマンスが向上します。
提案されたフレームワークの有効性は、数値シミュレーションと現実世界の飛行実験の両方で広範囲に検証されています。
結果は、私たちのアプローチがペイロードと残留ダイナミクスによって引き起こされる力/トルクを正確に捕捉し、それらの変化に迅速に応答し、閉ループ性能を大幅に向上できることを示しています。
特に、Neural Predictor は最先端の学習ベースの推定器を上回り、より少ないサンプルを使用しながら力とトルクの推定誤差を最大 66.15% と 33.33% 削減しました。

要約(オリジナル)

Aerial robotics for transporting suspended payloads as the form of freely-floating manipulator are growing great interest in recent years. However, the prior information of the payload, such as the mass, is always hard to obtain accurately in practice. The force/torque caused by payload and residual dynamics will introduce unmodeled perturbations to the system, which negatively affects the closed-loop performance. Different from estimation-like methods, this paper proposes Neural Predictor, a learning-based approach to model force/torque caused by payload and residual dynamics as a dynamical system. It results a hybrid model including both the first-principles dynamics and the learned dynamics. This hybrid model is then integrated into a MPC framework to improve closed-loop performance. Effectiveness of proposed framework is verified extensively in both numerical simulations and real-world flight experiments. The results indicate that our approach can capture force/torque caused by payload and residual dynamics accurately, respond quickly to the changes of them and improve the closed-loop performance significantly. In particular, Neural Predictor outperforms a state-of-the-art learning-based estimator and has reduced the force and torque estimation errors by up to 66.15% and 33.33% while using less samples.

arxiv情報

著者 Ao Jin,Chenhao Li,Qinyi Wang,Ya Liu,Panfeng Huang,Fan Zhang
発行日 2024-10-21 12:25:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | Neural Predictor for Flight Control with Payload はコメントを受け付けていません

Diffusion Transformer Policy

要約

多様なロボット データセットで事前トレーニングされた最近の大規模な視覚言語アクション モデルは、少数のドメイン内データを持つ新しい環境に一般化できる可能性を示しています。
ただし、これらのアプローチは通常、小さなアクション ヘッドによる離散的または連続的なアクションを予測するため、多様なアクション スペースを処理する能力が制限されます。
対照的に、拡散トランス ポリシーと呼ばれる大きなマルチモーダル拡散トランスを使用して連続アクションをモデル化します。この場合、小さなアクション ヘッドではなく大きなトランス モデルによってアクション チャンクのノイズを直接除去します。
トランスフォーマーのスケーリング機能を活用することで、提案されたアプローチは、大規模で多様なロボット データセットにわたる連続的なエンドエフェクターのアクションを効果的にモデル化し、より優れた汎化パフォーマンスを達成できます。
広範な実験により、多様なロボット データで事前トレーニングされた拡散トランスフォーマー ポリシーが、Maniskill2 や Calvin などのシミュレーション環境や現実世界の Franka アームなど、さまざまな実施形態に一般化できることが実証されています。
具体的には、提案されたアプローチは、追加機能なしで、Calvin の新しいタスク設定 (ABC->D) で 1 つのサードビュー カメラ ストリームのみで最先端のパフォーマンスを達成し、1 回のタスクで完了する平均タスク数を向上させます。
列は 5 から 3.6 であり、事前トレーニング段階により、Calvin の成功シーケンスの長さが 1.2 以上大幅に短縮されます。
コードは公開されます。

要約(オリジナル)

Recent large visual-language action models pretrained on diverse robot datasets have demonstrated the potential for generalizing to new environments with a few in-domain data. However, those approaches usually predict discretized or continuous actions by a small action head, which limits the ability in handling diverse action spaces. In contrast, we model the continuous action with a large multi-modal diffusion transformer, dubbed as Diffusion Transformer Policy, in which we directly denoise action chunks by a large transformer model rather than a small action head. By leveraging the scaling capability of transformers, the proposed approach can effectively model continuous end-effector actions across large diverse robot datasets, and achieve better generalization performance. Extensive experiments demonstrate Diffusion Transformer Policy pretrained on diverse robot data can generalize to different embodiments, including simulation environments like Maniskill2 and Calvin, as well as the real-world Franka arm. Specifically, without bells and whistles, the proposed approach achieves state-of-the-art performance with only a single third-view camera stream in the Calvin novel task setting (ABC->D), improving the average number of tasks completed in a row of 5 to 3.6, and the pretraining stage significantly facilitates the success sequence length on the Calvin by over 1.2. The code will be publicly available.

arxiv情報

著者 Zhi Hou,Tianyi Zhang,Yuwen Xiong,Hengjun Pu,Chengyang Zhao,Ronglei Tong,Yu Qiao,Jifeng Dai,Yuntao Chen
発行日 2024-10-21 12:43:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | Diffusion Transformer Policy はコメントを受け付けていません

OmniRace: 6D Hand Pose Estimation for Intuitive Guidance of Racing Drone

要約

この論文では、6 自由度 (DoF) の手姿勢推定とジェスチャー認識を備えたレーシング ドローンを制御するための OmniRace アプローチを紹介します。
私たちの知る限り、これはジェスチャーを使用して高速ドローンの低レベル制御を可能にする史上初のテクノロジーです。
OmniRace は、コンピューター ビジョンとディープ ニューラル ネットワークに基づくジェスチャ インターフェイスを採用して、6-DoF の手のポーズを推定します。
高度な機械学習アルゴリズムは人間のジェスチャーを堅牢に解釈し、ユーザーがドローンの動きを直感的に制御できるようにします。
レーシングドローンのリアルタイム制御はシステムの有効性を実証し、ドローンレースやその他のアプリケーションに革命をもたらす可能性を検証します。
Gazebo シミュレーション環境で実施された実験結果では、OmniRace を使用すると、ユーザーが UAV レース トラックを大幅に (25.1%) 速く完走でき、テスト ドローンの経路の長さを短縮 (102.9 メートルから 83.7 メートルに) できることが明らかになりました。
ユーザーは、魅力度 (UEQ スコア 1.57)、快楽の質 (UEQ スコア 1.56)、知覚される時間的要求の低さ (NASA-TLX スコア 32.0) の点でジェスチャー インターフェイスを好みましたが、効率の高さ (UEQ スコア 0.75) と物理的要求の低さに注目しました (
NASA-TLX で 19.0 スコア) のベースライン リモート コントローラー。
ディープ ニューラル ネットワークは、正規化されたデータセットと生のデータセットの両方に適用された場合、平均 99.75% の精度を達成します。
OmniRace は、動的で複雑な環境で人間がレーシング ドローンと対話し、操縦する方法を変える可能性があります。
ソース コードは https://github.com/SerValera/OmniRace.git で入手できます。

要約(オリジナル)

This paper presents the OmniRace approach to controlling a racing drone with 6-degree of freedom (DoF) hand pose estimation and gesture recognition. To our knowledge, it is the first-ever technology that allows for low-level control of high-speed drones using gestures. OmniRace employs a gesture interface based on computer vision and a deep neural network to estimate a 6-DoF hand pose. The advanced machine learning algorithm robustly interprets human gestures, allowing users to control drone motion intuitively. Real-time control of a racing drone demonstrates the effectiveness of the system, validating its potential to revolutionize drone racing and other applications. Experimental results conducted in the Gazebo simulation environment revealed that OmniRace allows the users to complite the UAV race track significantly (by 25.1%) faster and to decrease the length of the test drone path (from 102.9 to 83.7 m). Users preferred the gesture interface for attractiveness (1.57 UEQ score), hedonic quality (1.56 UEQ score), and lower perceived temporal demand (32.0 score in NASA-TLX), while noting the high efficiency (0.75 UEQ score) and low physical demand (19.0 score in NASA-TLX) of the baseline remote controller. The deep neural network attains an average accuracy of 99.75% when applied to both normalized datasets and raw datasets. OmniRace can potentially change the way humans interact with and navigate racing drones in dynamic and complex environments. The source code is available at https://github.com/SerValera/OmniRace.git.

arxiv情報

著者 Valerii Serpiva,Aleksey Fedoseev,Sausar Karaf,Ali Alridha Abdulkarim,Dzmitry Tsetserukou
発行日 2024-10-21 13:00:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | OmniRace: 6D Hand Pose Estimation for Intuitive Guidance of Racing Drone はコメントを受け付けていません

Learning Quadrotor Control From Visual Features Using Differentiable Simulation

要約

強化学習 (RL) のサンプルの非効率性は、ロボット工学における重大な課題のままです。
RL には大規模なシミュレーションが必要ですが、それでもトレーニング時間が長くなり、研究やイノベーションが遅くなる可能性があります。
この問題は、信頼できる状態推定値が利用できないビジョンベースの制御タスクで特に顕著です。
微分可能シミュレーションは、ダイナミクス モデルを通じて勾配逆伝播を可能にし、分散の低い分析ポリシー勾配を提供することで、サンプル効率を高める代替手段を提供します。
ただし、現実世界のロボットタスクでの使用はまだ限定されています。
この研究は、クアッドローター制御を学習するための微分可能シミュレーションの大きな可能性を示しています。
微分可能シミュレーションでのトレーニングは、サンプル効率とトレーニング時間の両方の点でモデルフリー RL よりも大幅に優れており、車両の状態を提供する場合は数秒で、視覚的特徴のみに依存する場合は数分でクワッドローターを回復する方法をポリシーで学習できることを示します。
私たちの成功の鍵は 2 つあります。
まず、勾配計算に単純なサロゲート モデルを使用すると、制御パフォーマンスを犠牲にすることなくトレーニングが大幅に高速化されます。
第 2 に、状態表現学習とポリシー学習を組み合わせることで、視覚的な特徴のみが観察可能なタスクの収束速度が向上します。
これらの発見は、現実世界のロボット工学における微分可能なシミュレーションの可能性を強調し、従来の RL アプローチに代わる魅力的な選択肢を提供します。

要約(オリジナル)

The sample inefficiency of reinforcement learning (RL) remains a significant challenge in robotics. RL requires large-scale simulation and, still, can cause long training times, slowing down research and innovation. This issue is particularly pronounced in vision-based control tasks where reliable state estimates are not accessible. Differentiable simulation offers an alternative by enabling gradient back-propagation through the dynamics model, providing low-variance analytical policy gradients and, hence, higher sample efficiency. However, its usage for real-world robotic tasks has yet been limited. This work demonstrates the great potential of differentiable simulation for learning quadrotor control. We show that training in differentiable simulation significantly outperforms model-free RL in terms of both sample efficiency and training time, allowing a policy to learn to recover a quadrotor in seconds when providing vehicle state and in minutes when relying solely on visual features. The key to our success is two-fold. First, the use of a simple surrogate model for gradient computation greatly accelerates training without sacrificing control performance. Second, combining state representation learning with policy learning enhances convergence speed in tasks where only visual features are observable. These findings highlight the potential of differentiable simulation for real-world robotics and offer a compelling alternative to conventional RL approaches.

arxiv情報

著者 Johannes Heeg,Yunlong Song,Davide Scaramuzza
発行日 2024-10-21 13:06:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Learning Quadrotor Control From Visual Features Using Differentiable Simulation はコメントを受け付けていません

Analyzing Closed-loop Training Techniques for Realistic Traffic Agent Models in Autonomous Highway Driving Simulations

要約

シミュレーションは、自動運転車の迅速な開発と安全な展開において重要な役割を果たします。
現実的な交通エージェント モデルは、シミュレーションと現実世界の間のギャップを埋めるために不可欠です。
人間の行動を模倣するための既存のアプローチの多くは、デモンストレーションからの学習に基づいています。
ただし、これらのアプローチは、多くの場合、個々のトレーニング戦略に重点を置くことによって制限されます。
したがって、現実的な交通エージェント モデリングについてのより幅広い理解を促進するために、このホワイト ペーパーでは、高速道路運転シミュレーションの閉ループ手法に焦点を当てて、さまざまなトレーニング原理の広範な比較分析を提供します。
(i) 開ループ マルチエージェント トレーニングと閉ループ マルチエージェント トレーニング、(ii) 敵対的トレーニングと決定論的教師ありトレーニング、(iii) 強化損失の影響、(iv) ログ再生と並行したトレーニングの影響を実験的に比較します。
エージェントが現実的なエージェント モデリングに適したトレーニング手法を特定できるようになります。
さらに、さまざまな閉ループ トレーニング方法の有望な組み合わせを特定します。

要約(オリジナル)

Simulation plays a crucial role in the rapid development and safe deployment of autonomous vehicles. Realistic traffic agent models are indispensable for bridging the gap between simulation and the real world. Many existing approaches for imitating human behavior are based on learning from demonstration. However, these approaches are often constrained by focusing on individual training strategies. Therefore, to foster a broader understanding of realistic traffic agent modeling, in this paper, we provide an extensive comparative analysis of different training principles, with a focus on closed-loop methods for highway driving simulation. We experimentally compare (i) open-loop vs. closed-loop multi-agent training, (ii) adversarial vs. deterministic supervised training, (iii) the impact of reinforcement losses, and (iv) the impact of training alongside log-replayed agents to identify suitable training techniques for realistic agent modeling. Furthermore, we identify promising combinations of different closed-loop training methods.

arxiv情報

著者 Matthias Bitzer,Reinis Cimurs,Benjamin Coors,Johannes Goth,Sebastian Ziesche,Philipp Geiger,Maximilian Naumann
発行日 2024-10-21 13:16:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 68T07, cs.AI, cs.LG, cs.MA, cs.RO, I.2.6 | Analyzing Closed-loop Training Techniques for Realistic Traffic Agent Models in Autonomous Highway Driving Simulations はコメントを受け付けていません

ARCADE: Scalable Demonstration Collection and Generation via Augmented Reality for Imitation Learning

要約

ロボット模倣学習 (IL) は、エージェントが人間のデモンストレーションを模倣することで学習する、ロボット学習における重要な技術です。
ただし、IL は、ユーザーフレンドリーではないデモンストレーション収集方法と、効果的なトレーニングに十分な数のデモンストレーションを収集するのに必要な膨大な時間の両方に起因するスケーラビリティの課題に直面しています。
これに応えて、ロボット操作タスクのデモンストレーション収集をスケールアップするように設計された、デモンストレーションの収集と生成のための拡張現実 (ARCADE) フレームワークを導入します。
当社のフレームワークは 2 つの重要な機能を組み合わせています。1) AR を活用して、ユーザーが手を使って日常業務を実行するのと同じくらい簡単にデモンストレーションの収集を行うことができます。2) 単一の人間由来のデモンストレーションから追加の合成デモンストレーションを自動生成できるため、ユーザーの大幅な削減が可能になります。
努力と時間。
3 つのウェイポイント (リーチ、プッシュ、ピックアンドプレイス) の 3 つのロボット タスクにわたって、実際のフェッチ ロボットでの ARCADE のパフォーマンスを評価します。
私たちのフレームワークを使用すると、これら 3 つのタスクにわたって優れた古典的な IL アルゴリズムであるバニラ Behavioral Cloning (BC) を使用してポリシーを迅速にトレーニングすることができました。
また、実際の家事タスク「水を注ぐ」にも ARCADE を導入し、80% の成功率を達成しました。

要約(オリジナル)

Robot Imitation Learning (IL) is a crucial technique in robot learning, where agents learn by mimicking human demonstrations. However, IL encounters scalability challenges stemming from both non-user-friendly demonstration collection methods and the extensive time required to amass a sufficient number of demonstrations for effective training. In response, we introduce the Augmented Reality for Collection and generAtion of DEmonstrations (ARCADE) framework, designed to scale up demonstration collection for robot manipulation tasks. Our framework combines two key capabilities: 1) it leverages AR to make demonstration collection as simple as users performing daily tasks using their hands, and 2) it enables the automatic generation of additional synthetic demonstrations from a single human-derived demonstration, significantly reducing user effort and time. We assess ARCADE’s performance on a real Fetch robot across three robotics tasks: 3-Waypoints-Reach, Push, and Pick-And-Place. Using our framework, we were able to rapidly train a policy using vanilla Behavioral Cloning (BC), a classic IL algorithm, which excelled across these three tasks. We also deploy ARCADE on a real household task, Pouring-Water, achieving an 80% success rate.

arxiv情報

著者 Yue Yang,Bryce Ikeda,Gedas Bertasius,Daniel Szafir
発行日 2024-10-21 13:24:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | ARCADE: Scalable Demonstration Collection and Generation via Augmented Reality for Imitation Learning はコメントを受け付けていません

Optimizing BioTac Simulation for Realistic Tactile Perception

要約

触覚センシングは、今日のロボットのインタラクション能力を強化する有望な機会を提供します。
BioTac は、ロボットが物理的な触覚刺激を認識して反応できるようにする、一般的に使用される触覚センサーです。
ただし、センサーの非線形性により、その動作をシミュレーションする際に課題が生じます。
この論文では、まず温度、力、接触点の位置を使用してセンサー出力を予測する BioTac シミュレーションを調査します。
BioTac 温度測定値を使用したトレーニングでは、展開中に正確なセンサー出力予測が得られないことを示します。
その結果、XGBoost リグレッサー、ニューラル ネットワーク、およびトランスフォーマー エンコーダーという 3 つの代替モデルをテストしました。
温度測定値を使用せずにこれらのモデルをトレーニングし、入力ベクトルのウィンドウ サイズの詳細な調査を提供します。
ベースライン ネットワークと比較して統計的に有意な改善が達成されることを実証します。
さらに、私たちの結果は、XGBoost リグレッサーとトランスフォーマーがこのタスクにおいて従来のフィードフォワード ニューラル ネットワークよりも優れたパフォーマンスを発揮することを明らかにしています。
すべてのコードと結果は、https://github.com/wzaielamri/Optimizing_BioTac_Simulation でオンラインで利用できるようにしています。

要約(オリジナル)

Tactile sensing presents a promising opportunity for enhancing the interaction capabilities of today’s robots. BioTac is a commonly used tactile sensor that enables robots to perceive and respond to physical tactile stimuli. However, the sensor’s non-linearity poses challenges in simulating its behavior. In this paper, we first investigate a BioTac simulation that uses temperature, force, and contact point positions to predict the sensor outputs. We show that training with BioTac temperature readings does not yield accurate sensor output predictions during deployment. Consequently, we tested three alternative models, i.e., an XGBoost regressor, a neural network, and a transformer encoder. We train these models without temperature readings and provide a detailed investigation of the window size of the input vectors. We demonstrate that we achieve statistically significant improvements over the baseline network. Furthermore, our results reveal that the XGBoost regressor and transformer outperform traditional feed-forward neural networks in this task. We make all our code and results available online on https://github.com/wzaielamri/Optimizing_BioTac_Simulation.

arxiv情報

著者 Wadhah Zai El Amri,Nicolás Navarro-Guerrero
発行日 2024-10-21 13:28:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | Optimizing BioTac Simulation for Realistic Tactile Perception はコメントを受け付けていません

Continuum Robot Shape Estimation Using Magnetic Ball Chains

要約

医療用連続ロボットの形状センシングは、閉ループ制御にとっても、臨床医が体内のロボットを視覚化できるようにするためにも重要です。
安価だが正確な形状センシング技術が必要とされています。
この論文では、ホール効果センサーの外部アレイによって検出できる形状固有の磁場を生成する手段として磁気ボール チェーンを使用することを提案しています。
このようなボールチェーンは、柔軟なポリマースリーブに包まれており、任意の連続ロボットの内腔内に挿入して、リアルタイムの形状フィードバックを提供できます。
内腔全体を使用できるようにするために、手順中に必要に応じてスリーブを取り外すことができます。
このアプローチを調査するために、操縦可能なカテーテル先端の形状センシング モデルが導出され、可観測性と感度の分析が提示されます。
実験によると、全長に対する先端位置の推定誤差は最大 7.1%、平均 2.9% でした。

要約(オリジナル)

Shape sensing of medical continuum robots is important both for closed-loop control as well as for enabling the clinician to visualize the robot inside the body. There is a need for inexpensive, but accurate shape sensing technologies. This paper proposes the use of magnetic ball chains as a means of generating shape-specific magnetic fields that can be detected by an external array of Hall effect sensors. Such a ball chain, encased in a flexible polymer sleeve, could be inserted inside the lumen of any continuum robot to provide real-time shape feedback. The sleeve could be removed, as needed, during the procedure to enable use of the entire lumen. To investigate this approach, a shape-sensing model for a steerable catheter tip is derived and an observability and sensitivity analysis are presented. Experiments show maximum estimation errors of 7.1% and mean of 2.9% of the tip position with respect to total length.

arxiv情報

著者 Giovanni Pittiglio,Abdulhamit Donder,Pierre E. Dupont
発行日 2024-10-21 13:58:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | Continuum Robot Shape Estimation Using Magnetic Ball Chains はコメントを受け付けていません

Collaborative Goal Tracking of Multiple Mobile Robots Based on Geometric Graph Neural Network

要約

複数の移動ロボットは、空間的に分散されたさまざまなタスクで重要な役割を果たしており、作業効率を高めるための協調的な経路計画の重要性が強調されています。
不慣れで反復性のないシナリオでは、世界地図の再構築は時間効率が悪く、非現実的な場合があります。
そこで、世界地図に依存せず、異なる位置にある複数のロボットからのセンサーデータを活用し、リアルタイムの協調計画を実現する研究が行われてきました。
この論文では、幾何グラフ ニューラル ネットワーク (MRPP-GeoGNN) に基づくマルチロボット協調経路計画法を紹介します。
まず、各隣接ロボットの感覚データの特徴が抽出され、隣接ロボットの相対位置が各インタラクション層に統合され、位置の詳細とともに障害物情報が組み込まれます。
その後、GeoGNN は、統合されたローカル環境の特徴を、ロボットの実際の動きの複数の前方向にマッピングします。
ロボットが物理環境内で段階的に前進できるようにエキスパート データ生成方法が考案され、ROS でさまざまなエキスパート データを生成してネットワークをトレーニングします。
提案手法の有効性を検証するために、シミュレーションと物理実験の両方を実施しました。
シミュレーション結果は、エキスパート データセットを使用した CNN のみに基づくモデルと比較して、精度が約 5% 向上していることを示しています。
ROS シミュレーション テストでは、CNN と比較して成功率が約 4% 向上し、フロー時間の増加が約 8% 削減され、他の GNN モデルを上回りました。
物理実験の結果は、提案された方法により、ロボットが実際の環境でうまく移動し、ベンチマーク方法と比較して最短の平均経路長を達成できることを示しています。

要約(オリジナル)

Multiple mobile robots play a significant role in various spatially distributed tasks, highlighting the importance of collaborative path planning to enhance operational efficiency. In unfamiliar and non-repetitive scenarios, reconstructing the global map can be time-inefficient and sometimes unrealistic. Therefore, research has focused on achieving real-time collaborative planning by utilizing sensor data from multiple robots located at different positions, without relying on a global map. This paper introduces a Multi-Robot Collaborative Path Planning method based on a Geometric Graph Neural Network (MRPP-GeoGNN). First, the features of each neighboring robot’s sensory data are extracted, and the relative positions of neighboring robots are integrated into each interaction layer to incorporate obstacle information along with location details. Subsequently, GeoGNN maps the amalgamated local environment features to multiple forward directions for the robot’s actual movement. An expert data generation method is devised for the robot to advance step by step in the physical environment, generating different expert data in ROS to train the network. We conducted both simulations and physical experiments to validate the effectiveness of the proposed method. Simulation results demonstrate approximately a 5% improvement in accuracy compared to the model based solely on CNN using expert datasets. In the ROS simulation test, the success rate is enhanced by about 4% compared to CNN, and the flow time increase is reduced by approximately 8%, surpassing other GNN models. The physical experimental results indicate that the proposed method enables the robot to navigate successfully in the actual environment and achieve the shortest average path length compared to the benchmark method.

arxiv情報

著者 Weining Lu,Qingquan Lin,Litong Meng,Chenxi Li,Bin Liang
発行日 2024-10-21 14:15:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.MA, cs.RO | Collaborative Goal Tracking of Multiple Mobile Robots Based on Geometric Graph Neural Network はコメントを受け付けていません