Swept Volume-Aware Trajectory Planning and MPC Tracking for Multi-Axle Swerve-Drive AMRs

要約

マルチアクスル自律モバイルロボット(AMR)は、ロジスティクスにおけるロボット工学の将来に革命をもたらすように設定されています。
次世代のソリューションのバックボーンとして、これらのロボットは重要な課題に直面しています。正確な制御を維持しながら、ターン中に掃引ボリュームを管理および最小化します。
標準的な車両向けに設計された従来のシステムは、多くの場合、マルチアクスル構成の複雑なダイナミクスと闘い、限られたスペースの非効率性と安全リスクの増加につながります。
当社の革新的なフレームワークは、独立したホイールステアリングのために、掃引ボリュームの最小化と署名された距離フィールド(SDF)パス計画およびモデル予測制御(MPC)を組み合わせることにより、これらの制限を克服します。
このアプローチは、掃引ボリュームを認識してパスを計画するだけでなく、リアルタイムで積極的に最小化するため、各車軸は車両が占めるスペースを大幅に削減しながら正確な軌跡をたどることができます。
将来の状態を予測し、各ホイールの回転半径を調整することにより、私たちの方法は、最も制約された環境でさえ、操縦性と安全の両方を強化します。
以前の作品とは異なり、私たちのソリューションは基本的なパスの計算と追跡を超えており、最小限のボリュームと効率的な個々の車軸制御を備えたリアルタイムパス最適化を提供します。
私たちの知る限り、これはこれらの課題に取り組む最初の包括的なアプローチであり、マルチアクスルAMRの制御、効率、安全性の命を救う改善を実現します。
さらに、コラボレーションを促進し、他の人がより安全で効率的な自律システムを促進できるように、私たちの仕事をオープンソーシングします。

要約(オリジナル)

Multi-axle autonomous mobile robots (AMRs) are set to revolutionize the future of robotics in logistics. As the backbone of next-generation solutions, these robots face a critical challenge: managing and minimizing the swept volume during turns while maintaining precise control. Traditional systems designed for standard vehicles often struggle with the complex dynamics of multi-axle configurations, leading to inefficiency and increased safety risk in confined spaces. Our innovative framework overcomes these limitations by combining swept volume minimization with Signed Distance Field (SDF) path planning and model predictive control (MPC) for independent wheel steering. This approach not only plans paths with an awareness of the swept volume but actively minimizes it in real-time, allowing each axle to follow a precise trajectory while significantly reducing the space the vehicle occupies. By predicting future states and adjusting the turning radius of each wheel, our method enhances both maneuverability and safety, even in the most constrained environments. Unlike previous works, our solution goes beyond basic path calculation and tracking, offering real-time path optimization with minimal swept volume and efficient individual axle control. To our knowledge, this is the first comprehensive approach to tackle these challenges, delivering life-saving improvements in control, efficiency, and safety for multi-axle AMRs. Furthermore, we will open-source our work to foster collaboration and enable others to advance safer, more efficient autonomous systems.

arxiv情報

著者 Tianxin Hu,Shenghai Yuan,Ruofei Bai,Xinghang Xu,Yuwen Liao,Fen Liu,Lihua Xie
発行日 2025-02-11 14:28:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Swept Volume-Aware Trajectory Planning and MPC Tracking for Multi-Axle Swerve-Drive AMRs はコメントを受け付けていません

Distributed Coverage Control for Time-Varying Spatial Processes

要約

マルチロボットシステムは、特に汚染、土壌鉱物、水塩分などの空間的現象を追跡するために、環境監視に不可欠です。
この研究では、関心のある領域を説明する密度分布が不明であり、時間とともに変化する環境で最適なカバレッジのためにマルチロボットチームを展開するという課題に対処します。
ガウスプロセス(GPS)を使用して空間フィールドをモデル化し、フィールドの学習と最適なカバーのトレードオフのバランスをとる完全に分散された制御戦略を提案します。
既存のアプローチとは異なり、時間変化の空間フィールドを処理することにより、より現実的なシナリオに対処します。このシナリオは、探査爆発のトレードオフが時間の経過とともに動的に調整されます。
各ロボットは、独自の収集データと隣接するロボットが共有する情報のみを使用して、ローカルで動作します。
GPSの計算制限に対処するために、アルゴリズムはプロセス推定に最も関連するサンプルのみを選択することにより、データの量を効率的に管理します。
提案されたアルゴリズムのパフォーマンスは、いくつかのシミュレーションと実験を通じて評価され、実際のデータ現象を組み込んでその有効性を検証します。

要約(オリジナル)

Multi-robot systems are essential for environmental monitoring, particularly for tracking spatial phenomena like pollution, soil minerals, and water salinity, and more. This study addresses the challenge of deploying a multi-robot team for optimal coverage in environments where the density distribution, describing areas of interest, is unknown and changes over time. We propose a fully distributed control strategy that uses Gaussian Processes (GPs) to model the spatial field and balance the trade-off between learning the field and optimally covering it. Unlike existing approaches, we address a more realistic scenario by handling time-varying spatial fields, where the exploration-exploitation trade-off is dynamically adjusted over time. Each robot operates locally, using only its own collected data and the information shared by the neighboring robots. To address the computational limits of GPs, the algorithm efficiently manages the volume of data by selecting only the most relevant samples for the process estimation. The performance of the proposed algorithm is evaluated through several simulations and experiments, incorporating real-world data phenomena to validate its effectiveness.

arxiv情報

著者 Federico Pratissoli,Mattia Mantovani,Amanda Prorok,Lorenzo Sabattini
発行日 2025-02-11 14:45:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Distributed Coverage Control for Time-Varying Spatial Processes はコメントを受け付けていません

Beyond Behavior Cloning: Robustness through Interactive Imitation and Contrastive Learning

要約

行動クローン(BC)は、実証されたアクションが最適であると仮定して、伝統的にデモデータに依存しています。
これにより、特に表現型モデルが使用される場合(たとえば、暗黙のBCのエネルギーベースのモデル)、騒々しいデータの下で過剰留まることにつながる可能性があります。
これに対処するために、動作は、インタラクティブな模倣学習フレームワーク内で、最適なアクション推定の反復プロセスにクローニングします。
具体的には、インタラクティブ補正(CLIC)から対照的なポリシー学習を導入します。
CLICは、人間の修正を活用して、一連の目的のアクションを推定し、このセットからアクションを選択するポリシーを最適化します。
単一および複数の最適アクションケースの両方で、最適なアクションに設定された目的のアクションセットの収束の理論的保証を提供します。
大規模なシミュレーションとレアルロボット実験では、エネルギーベースのモデルの安定したトレーニング、フィードバックノイズへの堅牢性、デモを超えた多様なフィードバックタイプへの適応性など、既存の最先端の方法に対するCLICの利点を検証します。
私たちのコードはまもなく公開されます。

要約(オリジナル)

Behavior cloning (BC) traditionally relies on demonstration data, assuming the demonstrated actions are optimal. This can lead to overfitting under noisy data, particularly when expressive models are used (e.g., the energy-based model in Implicit BC). To address this, we extend behavior cloning into an iterative process of optimal action estimation within the Interactive Imitation Learning framework. Specifically, we introduce Contrastive policy Learning from Interactive Corrections (CLIC). CLIC leverages human corrections to estimate a set of desired actions and optimizes the policy to select actions from this set. We provide theoretical guarantees for the convergence of the desired action set to optimal actions in both single and multiple optimal action cases. Extensive simulation and real-robot experiments validate CLIC’s advantages over existing state-of-the-art methods, including stable training of energy-based models, robustness to feedback noise, and adaptability to diverse feedback types beyond demonstrations. Our code will be publicly available soon.

arxiv情報

著者 Zhaoting Li,Rodrigo Pérez-Dattari,Robert Babuska,Cosimo Della Santina,Jens Kober
発行日 2025-02-11 15:34:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Beyond Behavior Cloning: Robustness through Interactive Imitation and Contrastive Learning はコメントを受け付けていません

SurgicAI: A Hierarchical Platform for Fine-Grained Surgical Policy Learning and Benchmarking

要約

ロボット支援手術の進歩にもかかわらず、縫合などの複雑なタスクを自動化することは、適応性と精度の必要性のために依然として困難なままです。
学習ベースのアプローチ、特に強化学習(RL)および模倣学習(IL)には、効率的なデータ収集のために現実的なシミュレーション環境が必要です。
ただし、現在のプラットフォームには、比較的単純で非療法の操作のみが含まれることが多く、効果的な学習と一般化に必要な柔軟性がありません。
RLベースの外科ロボット工学におけるモジュール式サブタスクとより重要なことにタスク分解の両方に対応する柔軟性を提供することにより、これらの課題に対処するための開発とベンチマークの新しいプラットフォームであるSurgicaiを紹介します。
Da Vinci Surgical Systemと互換性のあるSurgiCaiは、専門家のデモを収集および利用するための標準化されたパイプラインを提供します。
複数のRLおよびILアプローチの展開と、高い器用さとモジュール化を特徴とする縫合シナリオにおける特異および組成サブタスクの両方のトレーニングをサポートします。
一方、Surgicaiは、学習ポリシーの評価のために明確なメトリックとベンチマークを設定します。
SurgiCaiに複数のRLおよびILアルゴリズムを実装および評価しました。
当社の詳細なベンチマーク分析では、外科ロボット工学における政策学習を進めるSurgicaiの可能性を強調しています。
詳細:https://github.com/surgical-robotics-ai/surgicai

要約(オリジナル)

Despite advancements in robotic-assisted surgery, automating complex tasks like suturing remain challenging due to the need for adaptability and precision. Learning-based approaches, particularly reinforcement learning (RL) and imitation learning (IL), require realistic simulation environments for efficient data collection. However, current platforms often include only relatively simple, non-dexterous manipulations and lack the flexibility required for effective learning and generalization. We introduce SurgicAI, a novel platform for development and benchmarking addressing these challenges by providing the flexibility to accommodate both modular subtasks and more importantly task decomposition in RL-based surgical robotics. Compatible with the da Vinci Surgical System, SurgicAI offers a standardized pipeline for collecting and utilizing expert demonstrations. It supports deployment of multiple RL and IL approaches, and the training of both singular and compositional subtasks in suturing scenarios, featuring high dexterity and modularization. Meanwhile, SurgicAI sets clear metrics and benchmarks for the assessment of learned policies. We implemented and evaluated multiple RL and IL algorithms on SurgicAI. Our detailed benchmark analysis underscores SurgicAI’s potential to advance policy learning in surgical robotics. Details: https://github.com/surgical-robotics-ai/SurgicAI

arxiv情報

著者 Jin Wu,Haoying Zhou,Peter Kazanzides,Adnan Munawar,Anqi Liu
発行日 2025-02-11 16:27:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | SurgicAI: A Hierarchical Platform for Fine-Grained Surgical Policy Learning and Benchmarking はコメントを受け付けていません

GaRLIO: Gravity enhanced Radar-LiDAR-Inertial Odometry

要約

最近、重力は、潜在的な垂直ドリフトを緩和するための状態推定の重要な制約として強調されています。
既存のオンライン重力推定方法は、IMU測定と組み合わせたポーズ推定に依存しています。これは、直接速度測定が利用できない場合にベストプラクティスと見なされます。
ただし、レーダーセンサーが直接的な速度データを提供しているため、重力推定にまだ利用されていない測定値は、重力推定の精度を大幅に改善する重要な機会を見つけました。
提案されている重力強化レーダーライダー介入臭トメトリーであるガリオは、重力を堅牢に予測して垂直ドリフトを減らし、同時に点ごとの速度測定を使用した状態推定パフォーマンスを向上させることができます。
さらに、Garlioは、Ladarを使用してLidar Point Cloudsから動的オブジェクトを削除することにより、動的環境での堅牢性を保証します。
私たちの方法は、垂直ドリフトに陥りやすいさまざまな環境での実験を通じて検証され、従来のライダー腸の臭気測定法と比較して優れた性能を示しています。
ソースコードを公開して、さらなる研究開発を促進します。
https://github.com/chiyunnoh/garlio

要約(オリジナル)

Recently, gravity has been highlighted as a crucial constraint for state estimation to alleviate potential vertical drift. Existing online gravity estimation methods rely on pose estimation combined with IMU measurements, which is considered best practice when direct velocity measurements are unavailable. However, with radar sensors providing direct velocity data-a measurement not yet utilized for gravity estimation-we found a significant opportunity to improve gravity estimation accuracy substantially. GaRLIO, the proposed gravity-enhanced Radar-LiDAR-Inertial Odometry, can robustly predict gravity to reduce vertical drift while simultaneously enhancing state estimation performance using pointwise velocity measurements. Furthermore, GaRLIO ensures robustness in dynamic environments by utilizing radar to remove dynamic objects from LiDAR point clouds. Our method is validated through experiments in various environments prone to vertical drift, demonstrating superior performance compared to traditional LiDAR-Inertial Odometry methods. We make our source code publicly available to encourage further research and development. https://github.com/ChiyunNoh/GaRLIO

arxiv情報

著者 Chiyun Noh,Wooseong Yang,Minwoo Jung,Sangwoo Jung,Ayoung Kim
発行日 2025-02-11 17:00:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | GaRLIO: Gravity enhanced Radar-LiDAR-Inertial Odometry はコメントを受け付けていません

Hierarchical Equivariant Policy via Frame Transfer

要約

階層的な政策学習における最近の進歩は、システムを高レベルで低レベルのエージェントに分解することの利点を強調し、効率的な長期推論と正確な細粒の制御を可能にします。
ただし、これらの階層レベル間のインターフェースは露出度の低いままであり、既存の階層的手法はドメインの対称性を無視することが多く、その結果、堅牢なパフォーマンスを実現するための広範なデモンストレーションが必要になります。
これらの問題に対処するために、新しい階層的ポリシーフレームワークである階層的等式ポリシー(HEP)を提案します。
高レベルのエージェントの出力を低レベルエージェントの座標フレームとして使用する階層的なポリシー学習のフレーム転送インターフェイスを提案し、柔軟性を維持しながら強力な帰納的バイアスを提供します。
さらに、ドメインの対称性を両方のレベルに統合し、理論的にシステムの全体的な等容量を実証します。
HEPは、複雑なロボット操作タスクで最先端のパフォーマンスを実現し、シミュレーションと現実世界の両方の設定の両方の大幅な改善を示しています。

要約(オリジナル)

Recent advances in hierarchical policy learning highlight the advantages of decomposing systems into high-level and low-level agents, enabling efficient long-horizon reasoning and precise fine-grained control. However, the interface between these hierarchy levels remains underexplored, and existing hierarchical methods often ignore domain symmetry, resulting in the need for extensive demonstrations to achieve robust performance. To address these issues, we propose Hierarchical Equivariant Policy (HEP), a novel hierarchical policy framework. We propose a frame transfer interface for hierarchical policy learning, which uses the high-level agent’s output as a coordinate frame for the low-level agent, providing a strong inductive bias while retaining flexibility. Additionally, we integrate domain symmetries into both levels and theoretically demonstrate the system’s overall equivariance. HEP achieves state-of-the-art performance in complex robotic manipulation tasks, demonstrating significant improvements in both simulation and real-world settings.

arxiv情報

著者 Haibo Zhao,Dian Wang,Yizhe Zhu,Xupeng Zhu,Owen Howell,Linfeng Zhao,Yaoyao Qian,Robin Walters,Robert Platt
発行日 2025-02-11 17:14:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Hierarchical Equivariant Policy via Frame Transfer はコメントを受け付けていません

DeepVL: Dynamics and Inertial Measurements-based Deep Velocity Learning for Underwater Odometry

要約

このホワイトペーパーでは、ダイナミクス認識の固有受容を通じて水中ロボットのロボット中心の速度を予測する学習モデルを紹介します。
この方法は、入力としての慣性キュー、モーターコマンド、およびバッテリー電圧測定値を使用して、堅牢な速度推定値とそれらに関連する不確実性を出力する前のタイムステップの隠された状態とともに、再発性ニューラルネットワークを悪用します。
ネットワークのアンサンブルが利用され、速度と不確実性の予測が強化されます。
ネットワークの出力を拡張されたカルマンフィルターに融合し、慣性予測とバロメーターの更新とともに、この方法により、それ以上の外観なしに長期の水中臭トメトリが可能になります。
さらに、視覚慣性匂い測定に統合された場合、この方法は、従来の視覚慣性システムと比較して追跡された(わずか1)追跡された合計機能が数桁少ない場合に、推定回復力の強化を支援します。
船上でテストされた水中ロボットは、実験室プールとトロンハイムフィヨルドの両方に展開されているため、CPUまたはNVIDIA Orin AGXのGPUのいずれかで推論するには5ms未満かかり、完全な軌道中の新規軌道で4%未満の相対位置誤差を示しています。
視覚的なブラックアウト、および単眼カメラから最大2つの視覚的特徴が利用可能な場合、約2%の相対誤差。

要約(オリジナル)

This paper presents a learned model to predict the robot-centric velocity of an underwater robot through dynamics-aware proprioception. The method exploits a recurrent neural network using as inputs inertial cues, motor commands, and battery voltage readings alongside the hidden state of the previous time-step to output robust velocity estimates and their associated uncertainty. An ensemble of networks is utilized to enhance the velocity and uncertainty predictions. Fusing the network’s outputs into an Extended Kalman Filter, alongside inertial predictions and barometer updates, the method enables long-term underwater odometry without further exteroception. Furthermore, when integrated into visual-inertial odometry, the method assists in enhanced estimation resilience when dealing with an order of magnitude fewer total features tracked (as few as 1) as compared to conventional visual-inertial systems. Tested onboard an underwater robot deployed both in a laboratory pool and the Trondheim Fjord, the method takes less than 5ms for inference either on the CPU or the GPU of an NVIDIA Orin AGX and demonstrates less than 4% relative position error in novel trajectories during complete visual blackout, and approximately 2% relative error when a maximum of 2 visual features from a monocular camera are available.

arxiv情報

著者 Mohit Singh,Kostas Alexis
発行日 2025-02-11 17:39:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | DeepVL: Dynamics and Inertial Measurements-based Deep Velocity Learning for Underwater Odometry はコメントを受け付けていません

DOGlove: Dexterous Manipulation with a Low-Cost Open-Source Haptic Force Feedback Glove

要約

器用な手操作は、ロボットが人間レベルの操作の器用さを実現できるようにする上で極めて重要な役割を果たします。
ただし、現在の遠隔操作システムは、多くの場合、高価な機器に依存しており、マルチモーダルの感覚フィードバックを欠いているため、オブジェクトプロパティを認識して複雑な操作タスクを実行する人間のオペレーターの能力が制限されています。
これらの制限に対処するために、テレオ操作と操作のための低コスト、正確、および触覚力のフィードバックグローブシステムであるDogloveを提示します。
Dogloveは、600米ドル未満の費用で数時間で組み立てることができます。
21-DOFモーションキャプチャのカスタマイズされたジョイント構造、5-DOF多方向力フィードバックのコンパクトなケーブル駆動型トルク透過メカニズム、および5-DOFの指先の触覚フィードバックの線形共鳴アクチュエータを備えています。
アクションと触覚力のリターゲティングを活用して、Dogloveは、器用なロボットハンドの正確で没入型のテレオ操作を可能にし、複雑で接触豊富なタスクで高い成功率を達成します。
さらに、視覚的なフィードバックなしにシナリオでDogloveを評価し、タスクパフォ​​ーマンスにおける触覚力フィードバックの重要な役割を示しています。
さらに、収集されたデモンストレーションを利用して、模倣学習ポリシーを訓練し、Dogloveの潜在性と有効性を強調しています。
Dogloveのハードウェアおよびソフトウェアシステムは、https://do-glove.github.io/で完全にオープンソーシングされます。

要約(オリジナル)

Dexterous hand teleoperation plays a pivotal role in enabling robots to achieve human-level manipulation dexterity. However, current teleoperation systems often rely on expensive equipment and lack multi-modal sensory feedback, restricting human operators’ ability to perceive object properties and perform complex manipulation tasks. To address these limitations, we present DOGlove, a low-cost, precise, and haptic force feedback glove system for teleoperation and manipulation. DoGlove can be assembled in hours at a cost under 600 USD. It features a customized joint structure for 21-DoF motion capture, a compact cable-driven torque transmission mechanism for 5-DoF multidirectional force feedback, and a linear resonate actuator for 5-DoF fingertip haptic feedback. Leveraging action and haptic force retargeting, DOGlove enables precise and immersive teleoperation of dexterous robotic hands, achieving high success rates in complex, contact-rich tasks. We further evaluate DOGlove in scenarios without visual feedback, demonstrating the critical role of haptic force feedback in task performance. In addition, we utilize the collected demonstrations to train imitation learning policies, highlighting the potential and effectiveness of DOGlove. DOGlove’s hardware and software system will be fully open-sourced at https://do-glove.github.io/.

arxiv情報

著者 Han Zhang,Songbo Hu,Zhecheng Yuan,Huazhe Xu
発行日 2025-02-11 17:47:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | DOGlove: Dexterous Manipulation with a Low-Cost Open-Source Haptic Force Feedback Glove はコメントを受け付けていません

VIP: Vision Instructed Pre-training for Robotic Manipulation

要約

ロボット操作におけるトレーニングデータのスケーリングの有効性はまだ限られています。
操作の主な課題は、タスクが多様であり、タスクターゲットが明確に指定されていない場合、訓練されたポリシーが混乱することです。
既存の作品は、主にターゲットを説明するためにテキスト命令に依存しています。
ただし、現在のロボットデータは、テキストの指導を効果的に理解するためのポリシーを訓練できないことを明らかにし、ビジョンははるかに理解しやすいことを明らかにしています。
したがって、ターゲットを指定するためにビジョン命令を利用することを紹介します。
簡単な実装は、現在の観察と将来のイメージをリンクする中間アクションを予測するポリシーをトレーニングすることです。
それにもかかわらず、単一の将来の画像では、タスクのターゲットを詳細に不十分に説明していません。
この問題を処理するために、より詳細な情報を提供するために、スパースポイントフローを使用することを提案します。
広範なタスクは、実際の環境とシミュレートされた環境に基づいて設計されており、Vision Pre-Training(VIP)メソッドの有効性を評価します。
結果は、VIPが多様なタスクのパフォーマンスを大幅に改善し、派生したポリシーが「密閉されたボトルの蓋を開く」などの競争力のあるタスクを完了することができることを示しています。

要約(オリジナル)

The effectiveness of scaling up training data in robotic manipulation is still limited. A primary challenge in manipulation is the tasks are diverse, and the trained policy would be confused if the task targets are not specified clearly. Existing works primarily rely on text instruction to describe targets. However, we reveal that current robotic data cannot train policies to understand text instruction effectively, and vision is much more comprehensible. Therefore, we introduce utilizing vision instruction to specify targets. A straightforward implementation is training a policy to predict the intermediate actions linking the current observation and a future image. Nevertheless, a single future image does not describe the task target in insufficient detail. To handle this problem, we propose to use sparse point flows to provide more detailed information. Extensive tasks are designed based on real and simulated environments to evaluate the effectiveness of our vision instructed pre-training (VIP) method. The results indicate VIP improves the performance on diverse tasks significantly, and the derived policy can complete competitive tasks like “opening the lid of a tightly sealed bottle”.

arxiv情報

著者 Zhuoling Li,Liangliang Ren,Jinrong Yang,Yong Zhao,Xiaoyang Wu,Zhenhua Xu,Xiang Bai,Hengshuang Zhao
発行日 2025-02-11 17:59:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | VIP: Vision Instructed Pre-training for Robotic Manipulation はコメントを受け付けていません

Automatic Robot Task Planning by Integrating Large Language Model with Genetic Programming

要約

正確なタスク計画は、ロボット、ドローン、自動運転車などの自律システムを制御するために重要です。
動作ツリー(BTS)は、モジュール性、柔軟性、および再利用性のため、タスク計画における最も顕著な制御ポリティ定義フレームワークの1つと考えられています。
ロボットシステムの信頼性が高く正確なBTベースの制御ポリシーを生成することは困難なままであり、多くの場合、ドメインの専門知識が必要です。
このホワイトペーパーでは、BTSの生成と構成を自動化するために、大規模な言語モデル(LLM)と遺伝子プログラミング(GP)を活用するLLM-GP-BT技術を紹介します。
LLM-GP-BT技術は、人間の自然言語で表現されたロボットタスクコマンドを処理し、それらを計算効率的でユーザーフレンドリーな方法で正確で信頼できるBTベースのタスク計画に変換します。
提案された手法は、シミュレーション実験を通じて体系的に開発および検証され、自律システムのタスク計画を合理化する可能性を示しています。

要約(オリジナル)

Accurate task planning is critical for controlling autonomous systems, such as robots, drones, and self-driving vehicles. Behavior Trees (BTs) are considered one of the most prominent control-policy-defining frameworks in task planning, due to their modularity, flexibility, and reusability. Generating reliable and accurate BT-based control policies for robotic systems remains challenging and often requires domain expertise. In this paper, we present the LLM-GP-BT technique that leverages the Large Language Model (LLM) and Genetic Programming (GP) to automate the generation and configuration of BTs. The LLM-GP-BT technique processes robot task commands expressed in human natural language and converts them into accurate and reliable BT-based task plans in a computationally efficient and user-friendly manner. The proposed technique is systematically developed and validated through simulation experiments, demonstrating its potential to streamline task planning for autonomous systems.

arxiv情報

著者 Azizjon Kobilov,Jianglin Lan
発行日 2025-02-11 18:56:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | Automatic Robot Task Planning by Integrating Large Language Model with Genetic Programming はコメントを受け付けていません