BiC-MPPI: Goal-Pursuing, Sampling-Based Bidirectional Rollout Clustering Path Integral for Trajectory Optimization

要約

このペーパーでは、モデル予測パス積分 (MPPI) フレームワーク内の目標指向のガイダンスを強化することを目的とした新しい軌道最適化手法である、双方向クラスター MPPI (BiC-MPPI) アルゴリズムを紹介します。
BiC-MPPI には、双方向ダイナミクス近似と新しいガイド コスト メカニズムが組み込まれており、軌道計画と目標到達パフォーマンスの両方が向上します。
前方ロールアウトと後方ロールアウトを活用することで、双方向アプローチにより初期状態と最終状態の間の効果的な軌道接続が保証され、ガイド コストは動的に実行可能なパスの発見に役立ちます。
実験結果は、BiC-MPPI が 2D 環境と 3D 環境の両方で既存の MPPI バリアントよりも優れたパフォーマンスを示し、自律航行用に修正された BARN データセットでの 900 回のシミュレーション全体で、より高い成功率と競争力のある計算時間を達成することを示しています。
GitHub: https://github.com/i-ASL/BiC-MPPI

要約(オリジナル)

This paper introduces the Bidirectional Clustered MPPI (BiC-MPPI) algorithm, a novel trajectory optimization method aimed at enhancing goal-directed guidance within the Model Predictive Path Integral (MPPI) framework. BiC-MPPI incorporates bidirectional dynamics approximations and a new guide cost mechanism, improving both trajectory planning and goal-reaching performance. By leveraging forward and backward rollouts, the bidirectional approach ensures effective trajectory connections between initial and terminal states, while the guide cost helps discover dynamically feasible paths. Experimental results demonstrate that BiC-MPPI outperforms existing MPPI variants in both 2D and 3D environments, achieving higher success rates and competitive computation times across 900 simulations on a modified BARN dataset for autonomous navigation. GitHub: https://github.com/i-ASL/BiC-MPPI

arxiv情報

著者 Minchan Jung,Kwangki Kim
発行日 2024-10-09 02:36:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 13P25, 68T40, cs.AI, cs.RO, cs.SY, eess.SY, G.1.6, math.OC | コメントする

QuadBEV: An Efficient Quadruple-Task Perception Framework via Bird’s-Eye-View Representation

要約

Bird’s-Eye-View (BEV) 認識は、複数のセンサー入力を統一表現に統合し、さまざまな下流タスクのパフォーマンスを向上させる機能により、自動運転システムの重要なコンポーネントとなっています。
ただし、BEV モデルの計算要求は、リソースが限られた車両に実際に導入する場合に課題を引き起こします。
これらの制限に対処するために、3D オブジェクト検出、車線検出、マップ セグメンテーション、占有予測という 4 つの主要なタスクにわたって共有された空間情報とコンテキスト情報を活用する、効率的なマルチタスク認識フレームワークである QuadBEV を提案します。
QuadBEV は、共有バックボーンとタスク固有のヘッドを使用してこれらのタスクの統合を合理化するだけでなく、学習率の感度や競合するタスク目標などの一般的なマルチタスク学習の課題にも対処します。
私たちのフレームワークは冗長な計算を削減し、それによってシステム効率を向上させ、特に組み込みシステムに適しています。
QuadBEV の有効性と堅牢性を検証する包括的な実験を紹介し、現実世界のアプリケーションへの適合性を実証します。

要約(オリジナル)

Bird’s-Eye-View (BEV) perception has become a vital component of autonomous driving systems due to its ability to integrate multiple sensor inputs into a unified representation, enhancing performance in various downstream tasks. However, the computational demands of BEV models pose challenges for real-world deployment in vehicles with limited resources. To address these limitations, we propose QuadBEV, an efficient multitask perception framework that leverages the shared spatial and contextual information across four key tasks: 3D object detection, lane detection, map segmentation, and occupancy prediction. QuadBEV not only streamlines the integration of these tasks using a shared backbone and task-specific heads but also addresses common multitask learning challenges such as learning rate sensitivity and conflicting task objectives. Our framework reduces redundant computations, thereby enhancing system efficiency, making it particularly suited for embedded systems. We present comprehensive experiments that validate the effectiveness and robustness of QuadBEV, demonstrating its suitability for real-world applications.

arxiv情報

著者 Yuxin Li,Yiheng Li,Xulei Yang,Mengying Yu,Zihang Huang,Xiaojun Wu,Chai Kiat Yeo
発行日 2024-10-09 03:31:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | コメントする

Real-to-Sim Grasp: Rethinking the Gap between Simulation and Real World in Grasp Detection

要約

6-DoF 把握検出では、シミュレートされたデータを拡張してより強力なモデルをトレーニングできますが、シミュレーションと現実世界の間に大きなギャップがあるという課題に直面しています。
以前の作品は、シミュレーションから現実への方法でこのギャップを埋めました。
ただし、この方法では、把握検出器をトレーニングするときに、明示的または暗黙的にシミュレートされたデータをノイズの多い実際のデータに適応させることになります。カメラ ノイズ内の位置ドリフトや構造的歪みが把握学習に悪影響を及ぼします。
この研究では、R2SGrasp という名前の 6-DoF 掴み検出用の Real-to-Sim フレームワークを提案します。これは、掴み検出器のトレーニングでカメラ ノイズを直接バイパスする、Real-to-Sim の方法でこのギャップを埋めるという重要な洞察を備えています。
推論とリアルタイムのシミュレーションへの適応を通じて。
このリアルからシムへの適応を実現するために、当社の R2SGrasp は、データ レベルでリアル デプス マップのカメラ ノイズを軽減するためのリアルからシムへのデータ修復 (R2SRepairer) と、リアルからシムへの機能エンハンサー (R2SEnhancer) を設計します。
フィーチャレベルで正確にシミュレートされた幾何学的プリミティブを使用して実際のフィーチャを強化します。
フレームワークに一般化機能を持たせるために、把握検出器をトレーニングするための大規模なシミュレートされたデータセットをコスト効率よく構築します。これには、1,440 万の把握アノテーションを含む 64,000 の RGB-D 画像が含まれます。
十分な実験により、R2SGrasp が強力であり、現実からシミュレーションへの視点が効果的であることが示されています。
実際の実験では、R2SGrasp の優れた一般化能力がさらに示されています。
プロジェクトページは https://isee-laboratory.github.io/R2SGrasp から入手できます。

要約(オリジナル)

For 6-DoF grasp detection, simulated data is expandable to train more powerful model, but it faces the challenge of the large gap between simulation and real world. Previous works bridge this gap with a sim-to-real way. However, this way explicitly or implicitly forces the simulated data to adapt to the noisy real data when training grasp detectors, where the positional drift and structural distortion within the camera noise will harm the grasp learning. In this work, we propose a Real-to-Sim framework for 6-DoF Grasp detection, named R2SGrasp, with the key insight of bridging this gap in a real-to-sim way, which directly bypasses the camera noise in grasp detector training through an inference-time real-to-sim adaption. To achieve this real-to-sim adaptation, our R2SGrasp designs the Real-to-Sim Data Repairer (R2SRepairer) to mitigate the camera noise of real depth maps in data-level, and the Real-to-Sim Feature Enhancer (R2SEnhancer) to enhance real features with precise simulated geometric primitives in feature-level. To endow our framework with the generalization ability, we construct a large-scale simulated dataset cost-efficiently to train our grasp detector, which includes 64,000 RGB-D images with 14.4 million grasp annotations. Sufficient experiments show that R2SGrasp is powerful and our real-to-sim perspective is effective. The real-world experiments further show great generalization ability of R2SGrasp. Project page is available on https://isee-laboratory.github.io/R2SGrasp.

arxiv情報

著者 Jia-Feng Cai,Zibo Chen,Xiao-Ming Wu,Jian-Jian Jiang,Yi-Lin Wei,Wei-Shi Zheng
発行日 2024-10-09 03:49:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | コメントする

Agile Mobility with Rapid Online Adaptation via Meta-learning and Uncertainty-aware MPPI

要約

最新の非線形モデルベースのコントローラーでは、モバイル ロボットを限界で制御できるように、正確な物理モデルとモデル パラメーターが必要です。
また、高速での表面の滑りにより、摩擦パラメーターが継続的に変化する可能性があり (自律走行レースにおけるタイヤの劣化など)、コントローラーが迅速に適応する必要がある場合があります。
多くの研究では、タスクにうまく機能するパラメーター適応スキームを備えたタスク固有のロボット モデルを導出していますが、プラットフォームやタスクごとに多大な労力と調整が必要です。
この研究では、メタ事前トレーニングに基づいた完全なモデル学習ベースのコントローラーを設計します。このコントローラーは、モデルの不確実性について推論しながら、数ショットのダイナミクス データを使用して、任意のモデル パラメーターを持つ車輪ベースのロボットに非常に迅速に適応できます。
小規模な数値シミュレーション、大規模な Unity シミュレーター、および幅広い設定を備えた中規模のハードウェア プラットフォームで結果を実証します。
私たちの結果は、ドメイン固有の適切に設計されたコントローラーと同等であり、すべてのシナリオにわたって優れた汎化パフォーマンスがあることを示しています。

要約(オリジナル)

Modern non-linear model-based controllers require an accurate physics model and model parameters to be able to control mobile robots at their limits. Also, due to surface slipping at high speeds, the friction parameters may continually change (like tire degradation in autonomous racing), and the controller may need to adapt rapidly. Many works derive a task-specific robot model with a parameter adaptation scheme that works well for the task but requires a lot of effort and tuning for each platform and task. In this work, we design a full model-learning-based controller based on meta pre-training that can very quickly adapt using few-shot dynamics data to any wheel-based robot with any model parameters, while also reasoning about model uncertainty. We demonstrate our results in small-scale numeric simulation, the large-scale Unity simulator, and on a medium-scale hardware platform with a wide range of settings. We show that our results are comparable to domain-specific well-engineered controllers, and have excellent generalization performance across all scenarios.

arxiv情報

著者 Dvij Kalaria,Haoru Xue,Wenli Xiao,Tony Tao,Guanya Shi,John M. Dolan
発行日 2024-10-09 05:59:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | コメントする

Disturbance Observer-based Control Barrier Functions with Residual Model Learning for Safe Reinforcement Learning

要約

強化学習 (RL) エージェントは、最適な行動を学習し、最大の報酬を達成するために環境を探索する必要があります。
ただし、実際のシステム上で RL を直接トレーニングする場合、探索には危険が伴う可能性がありますが、シミュレーションベースのトレーニングでは、シミュレーションと実際のギャップという厄介な問題が発生します。
最近のアプローチでは、コントロール バリア機能 (CBF) などの安全フィルターを利用して、RL トレーニング中に危険な行為を罰します。
ただし、CBF の強力な安全性保証は、正確な動的モデルに依存しています。
実際には、力学の誤差による内部擾乱や風などの外部擾乱など、不確実性が常に存在します。
この研究では、外乱拒否保護学習に基づいた新しい安全な RL フレームワークを提案します。これにより、想定される、しかし必ずしも正確ではない公称動的モデルを使用した、ほぼモデルフリーの RL が可能になります。
私たちは、ポイント ロボットとカー ロボットのセーフティ ジム ベンチマークで、残差モデル学習または外乱オブザーバー (DOB) のみを使用する最先端のアプローチを上回るすべてのタスクの結果を実証します。
さらに、物理的な F1/10 レーシング カーを使用してフレームワークの有効性を検証します。
ビデオ: https://sites.google.com/view/res-dob-cbf-rl

要約(オリジナル)

Reinforcement learning (RL) agents need to explore their environment to learn optimal behaviors and achieve maximum rewards. However, exploration can be risky when training RL directly on real systems, while simulation-based training introduces the tricky issue of the sim-to-real gap. Recent approaches have leveraged safety filters, such as control barrier functions (CBFs), to penalize unsafe actions during RL training. However, the strong safety guarantees of CBFs rely on a precise dynamic model. In practice, uncertainties always exist, including internal disturbances from the errors of dynamics and external disturbances such as wind. In this work, we propose a new safe RL framework based on disturbance rejection-guarded learning, which allows for an almost model-free RL with an assumed but not necessarily precise nominal dynamic model. We demonstrate our results on the Safety-gym benchmark for Point and Car robots on all tasks where we can outperform state-of-the-art approaches that use only residual model learning or a disturbance observer (DOB). We further validate the efficacy of our framework using a physical F1/10 racing car. Videos: https://sites.google.com/view/res-dob-cbf-rl

arxiv情報

著者 Dvij Kalaria,Qin Lin,John M. Dolan
発行日 2024-10-09 06:08:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | コメントする

ES-Gaussian: Gaussian Splatting Mapping via Error Space-Based Gaussian Completion

要約

ロボットの効果的なナビゲーションとインタラクションには、正確かつ手頃な価格の屋内 3D 再構成が不可欠です。
従来の LiDAR ベースのマッピングは高精度を提供しますが、コストが高く、重く、電力を大量に消費し、新しいビューのレンダリングの能力が限られています。
ビジョンベースのマッピングは、費用対効果が高く、視覚データをキャプチャできますが、点群がまばらなため、高品質の 3D 再構成に苦労することがよくあります。
私たちは、高品質な屋内 3D 再構築のための低高度カメラとシングルライン LiDAR を使用するエンドツーエンド システムである ES-Gaussian を提案します。
当社のシステムは、2D エラー マップから幾何学的詳細が不十分な領域を特定して修正することで、まばらな点群を強化する Visual Error Construction (VEC) を備えています。
さらに、シングルライン LiDAR によってガイドされる新しい 3DGS 初期化方法を導入し、従来のマルチビュー設定の制限を克服し、リソースに制約のある環境で効果的な再構築を可能にします。
新しい Dreame-SR データセットと公開されているデータセットに関する広範な実験結果は、特に困難なシナリオにおいて、ES-Gaussian が既存の手法よりも優れていることを示しています。
プロジェクト ページは https://chenlu-china.github.io/ES-Gaussian/ から入手できます。

要約(オリジナル)

Accurate and affordable indoor 3D reconstruction is critical for effective robot navigation and interaction. Traditional LiDAR-based mapping provides high precision but is costly, heavy, and power-intensive, with limited ability for novel view rendering. Vision-based mapping, while cost-effective and capable of capturing visual data, often struggles with high-quality 3D reconstruction due to sparse point clouds. We propose ES-Gaussian, an end-to-end system using a low-altitude camera and single-line LiDAR for high-quality 3D indoor reconstruction. Our system features Visual Error Construction (VEC) to enhance sparse point clouds by identifying and correcting areas with insufficient geometric detail from 2D error maps. Additionally, we introduce a novel 3DGS initialization method guided by single-line LiDAR, overcoming the limitations of traditional multi-view setups and enabling effective reconstruction in resource-constrained environments. Extensive experimental results on our new Dreame-SR dataset and a publicly available dataset demonstrate that ES-Gaussian outperforms existing methods, particularly in challenging scenarios. The project page is available at https://chenlu-china.github.io/ES-Gaussian/.

arxiv情報

著者 Lu Chen,Yingfu Zeng,Haoang Li,Zhitao Deng,Jiafu Yan,Zhenjun Zhao
発行日 2024-10-09 07:09:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | コメントする

Pair-VPR: Place-Aware Pre-training and Contrastive Pair Classification for Visual Place Recognition with Vision Transformers

要約

この研究では、再ランキングのためのグローバル記述子とペア分類器を同時に学習する、視覚的場所認識 (VPR) のための新しい共同トレーニング方法を提案します。
ペア分類器は、指定された画像のペアが同じ場所からのものであるかどうかを予測できます。
ネットワークは、エンコーダーとペア分類器の両方の Vision Transformer コンポーネントのみで構成され、両方のコンポーネントはそれぞれのクラス トークンを使用してトレーニングされます。
既存の VPR 方法では、通常、ネットワークは ImageNet などの汎用画像データセットからの事前トレーニングされた重みを使用して初期化されます。
この研究では、事前トレーニング タスクとしてシャム マスク イメージ モデリングを使用する、代替の事前トレーニング戦略を提案します。
VPR 用に特別に調整された視覚的特徴を学習するために、モデルを事前トレーニングするために、大規模な VPR データセットのコレクションから場所を認識した画像サンプリング手順を提案します。
トレーニングの第 2 段階でマスク イメージ モデリングのエンコーダーとデコーダーの重みを再利用することにより、Pair-VPR は、ViT-B エンコーダーを使用して 5 つのベンチマーク データセットにわたって最先端の VPR パフォーマンスを達成し、さらにローカリゼーションを向上させることができます。
より大きなエンコーダーでリコールします。
ペア VPR の Web サイトは、https://csiro-robotics.github.io/Pair-VPR です。

要約(オリジナル)

In this work we propose a novel joint training method for Visual Place Recognition (VPR), which simultaneously learns a global descriptor and a pair classifier for re-ranking. The pair classifier can predict whether a given pair of images are from the same place or not. The network only comprises Vision Transformer components for both the encoder and the pair classifier, and both components are trained using their respective class tokens. In existing VPR methods, typically the network is initialized using pre-trained weights from a generic image dataset such as ImageNet. In this work we propose an alternative pre-training strategy, by using Siamese Masked Image Modelling as a pre-training task. We propose a Place-aware image sampling procedure from a collection of large VPR datasets for pre-training our model, to learn visual features tuned specifically for VPR. By re-using the Mask Image Modelling encoder and decoder weights in the second stage of training, Pair-VPR can achieve state-of-the-art VPR performance across five benchmark datasets with a ViT-B encoder, along with further improvements in localization recall with larger encoders. The Pair-VPR website is: https://csiro-robotics.github.io/Pair-VPR.

arxiv情報

著者 Stephen Hausler,Peyman Moghadam
発行日 2024-10-09 07:09:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.RO | コメントする

Task Coordination and Trajectory Optimization for Multi-Aerial Systems via Signal Temporal Logic: A Wind Turbine Inspection Study

要約

この論文では、風力タービンの検査に焦点を当て、マルチコプタードローンのフリートを使用した共同検査ミッションにおけるタスクの割り当てと軌道生成の方法を紹介します。
このアプローチは、信号時間論理 (STL) 仕様に基づいて最適化問題を定式化することにより、時間に敏感な制約と車両の制限を遵守する安全で実現可能な飛行経路を生成します。
イベントトリガーの再計画メカニズムは予期せぬイベントや遅延に対処し、一般化された堅牢性スコアリング手法はユーザーの好みを組み込んでタスクの競合を最小限に抑えます。
このアプローチは、MATLAB と Gazebo でのシミュレーション、およびモックアップ シナリオでのフィールド実験を通じて検証されます。

要約(オリジナル)

This paper presents a method for task allocation and trajectory generation in cooperative inspection missions using a fleet of multirotor drones, with a focus on wind turbine inspection. The approach generates safe, feasible flight paths that adhere to time-sensitive constraints and vehicle limitations by formulating an optimization problem based on Signal Temporal Logic (STL) specifications. An event-triggered replanning mechanism addresses unexpected events and delays, while a generalized robustness scoring method incorporates user preferences and minimizes task conflicts. The approach is validated through simulations in MATLAB and Gazebo, as well as field experiments in a mock-up scenario.

arxiv情報

著者 Giuseppe Silano,Alvaro Caballero,Davide Liuzza,Luigi Iannelli,Stjepan Bogdan,Martin Saska
発行日 2024-10-09 07:16:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | コメントする

M${}^{3}$Bench: Benchmarking Whole-body Motion Generation for Mobile Manipulation in 3D Scenes

要約

我々は、モバイル操作タスクのための全身動作生成のための新しいベンチマークである M^3Bench を提案します。
3D シーンのコンテキストが与えられると、M^3Bench では、身体化されたエージェントがその構成、環境制約、タスクの目的を理解し、オブジェクトの再配置タスクのために調整された全身運動の軌道を生成する必要があります。
M^3Bench は 119 の多様なシーンにわたる 30,000 のオブジェクト再配置タスクを備えており、新しく開発された M^3BenchMaker によって生成された専門家のデモンストレーションを提供します。
この自動データ生成ツールは、基本的なシーンとロボットの情報のみを必要とする、高レベルのタスク命令から調整された全身動作の軌跡を生成します。
私たちのベンチマークには、さまざまなタスク分割を組み込んで、さまざまな次元にわたる一般化を評価し、軌道評価のために現実的な物理シミュレーションを活用します。
広範な実験解析を通じて、最先端のモデルは、環境コンテキストやタスク固有の制約を遵守しながらも、ベースアームの動作を調整することに依然として苦労していることを明らかにし、このギャップに対処する新しいモデルを開発する必要性を強調しています。
私たちは、M^3Bench を通じて、現実世界の多様な環境における、より適応的で有能なモバイル操作に向けた将来のロボット研究を促進することを目指しています。

要約(オリジナル)

We propose M^3Bench, a new benchmark for whole-body motion generation for mobile manipulation tasks. Given a 3D scene context, M^3Bench requires an embodied agent to understand its configuration, environmental constraints and task objectives, then generate coordinated whole-body motion trajectories for object rearrangement tasks. M^3Bench features 30k object rearrangement tasks across 119 diverse scenes, providing expert demonstrations generated by our newly developed M^3BenchMaker. This automatic data generation tool produces coordinated whole-body motion trajectories from high-level task instructions, requiring only basic scene and robot information. Our benchmark incorporates various task splits to assess generalization across different dimensions and leverages realistic physics simulation for trajectory evaluation. Through extensive experimental analyses, we reveal that state-of-the-art models still struggle with coordinated base-arm motion while adhering to environment-context and task-specific constraints, highlighting the need to develop new models that address this gap. Through M^3Bench, we aim to facilitate future robotics research towards more adaptive and capable mobile manipulation in diverse, real-world environments.

arxiv情報

著者 Zeyu Zhang,Sixu Yan,Muzhi Han,Zaijin Wang,Xinggang Wang,Song-Chun Zhu,Hangxin Liu
発行日 2024-10-09 08:38:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, cs.RO | コメントする

HBTP: Heuristic Behavior Tree Planning with Large Language Model Reasoning

要約

ビヘイビア ツリー (BT) は、そのモジュール性、反応性、堅牢性により、ロボット工学における制御構造としてますます人気が高まっています。
BT 生成方法に関しては、BT 計画は信頼性の高い BT を生成する可能性を示しています。
ただし、BT 計画のスケーラビリティは、主にドメイン知識の不足が原因で、複雑なシナリオでの計画時間が長くなることで制限されることがよくあります。
対照的に、事前トレーニングされた大規模言語モデル (LLM) は、さまざまなドメインにわたってタスク推論機能を実証していますが、その計画の正確さと安全性は依然として不確実です。
この論文では、BT 計画を LLM 推論と統合し、BT 生成のための信頼性が高く効率的なフレームワークであるヒューリスティック動作ツリー計画 (HBTP) を導入することを提案します。
HBTP の重要なアイデアは、タスク固有の推論に LLM を活用してヒューリスティック パスを生成し、BT 計画がそのパスに従って効率的に拡張できるようにすることです。
まず、ヒューリスティック BT 拡張プロセスと、それぞれ最適な計画と満足のいく計画のために設計された 2 つのヒューリスティック バリアントを紹介します。
次に、アクション空間の枝刈りや反射フィードバックなど、LLM 推論の不正確さに対処し、推論の精度と計画効率の両方をさらに向上させる方法を提案します。
実験では HBTP の理論的限界を実証し、4 つのデータセットの結果により、日常のサービス ロボット アプリケーションにおけるその実際の有効性が確認されています。

要約(オリジナル)

Behavior Trees (BTs) are increasingly becoming a popular control structure in robotics due to their modularity, reactivity, and robustness. In terms of BT generation methods, BT planning shows promise for generating reliable BTs. However, the scalability of BT planning is often constrained by prolonged planning times in complex scenarios, largely due to a lack of domain knowledge. In contrast, pre-trained Large Language Models (LLMs) have demonstrated task reasoning capabilities across various domains, though the correctness and safety of their planning remain uncertain. This paper proposes integrating BT planning with LLM reasoning, introducing Heuristic Behavior Tree Planning (HBTP)-a reliable and efficient framework for BT generation. The key idea in HBTP is to leverage LLMs for task-specific reasoning to generate a heuristic path, which BT planning can then follow to expand efficiently. We first introduce the heuristic BT expansion process, along with two heuristic variants designed for optimal planning and satisficing planning, respectively. Then, we propose methods to address the inaccuracies of LLM reasoning, including action space pruning and reflective feedback, to further enhance both reasoning accuracy and planning efficiency. Experiments demonstrate the theoretical bounds of HBTP, and results from four datasets confirm its practical effectiveness in everyday service robot applications.

arxiv情報

著者 Yishuai Cai,Xinglin Chen,Yunxin Mao,Minglong Li,Shaowu Yang,Wenjing Yang,Ji Wang
発行日 2024-10-09 08:55:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | コメントする