A Framework for Joint Grasp and Motion Planning in Confined Spaces

要約

ロボット把握は、ロボットアプリケーションのすべてのドメインにわたる基本的なスキルです。
テーブルトップのシナリオには、オブジェクトを把握するための多くの研究があり、適切な握りを見つけることが主な課題です。
この作業では、オブジェクトが閉じ込められたスペースにあるシナリオに興味があり、したがって到達が特に困難です。
ロボットがオブジェクトにアプローチする方法を計画することは、課題の主要な部分になり、共同把握とモーション計画の方法を生み出します。
このペーパーで提案されているフレームワークは、困難を体系的に増加させる20のベンチマークシナリオ、事前計算された把握注釈を備えた現実的なオブジェクト、およびより多くのシナリオを作成および共有するツールを提供します。
さらに、2つのベースラインプランナーを提供し、シナリオでそれらを評価し、提案された難易度が実際に意味のある進行を提供することを示しています。
すべてのコンポーネントをオープンソースとして公開できるようにすることにより、このフレームワークの上に研究コミュニティを招待します。

要約(オリジナル)

Robotic grasping is a fundamental skill across all domains of robot applications. There is a large body of research for grasping objects in table-top scenarios, where finding suitable grasps is the main challenge. In this work, we are interested in scenarios where the objects are in confined spaces and hence particularly difficult to reach. Planning how the robot approaches the object becomes a major part of the challenge, giving rise to methods for joint grasp and motion planning. The framework proposed in this paper provides 20 benchmark scenarios with systematically increasing difficulty, realistic objects with precomputed grasp annotations, and tools to create and share more scenarios. We further provide two baseline planners and evaluate them on the scenarios, demonstrating that the proposed difficulty levels indeed offer a meaningful progression. We invite the research community to build upon this framework by making all components publicly available as open source.

arxiv情報

著者 Martin Rudorfer,Jiří Hartvich,Vojtěch Vonásek
発行日 2025-05-12 06:21:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | A Framework for Joint Grasp and Motion Planning in Confined Spaces はコメントを受け付けていません

CHD: Coupled Hierarchical Diffusion for Long-Horizon Tasks

要約

拡散ベースのプランナーは、短距離タスクで強力なパフォーマンスを示していますが、しばしば複雑で長期の設定で失敗します。
高レベル(HL)サブゴール選択と低レベル(LL)軌道の生成との間の結合を緩和できなかったことを追跡します。これは、一貫性のない計画とパフォーマンスの低下につながります。
統合拡散プロセス内でHLサブゴールとLL軌道を共同でモデル化するフレームワークである結合階層拡散(CHD)を提案します。
共有分類器は、サンプリングが進行中に自己修正されるように、上流のLLフィードバックを渡します。
このタイトなHL-LLカップリングは、軌道の一貫性を改善し、スケーラブルな長期拡散計画を可能にします。
迷路のナビゲーション、卓上操作、および家庭環境全体の実験では、CHDが一貫してフラットと階層の両方の拡散ベースラインよりも優れていることが示されています。

要約(オリジナル)

Diffusion-based planners have shown strong performance in short-horizon tasks but often fail in complex, long-horizon settings. We trace the failure to loose coupling between high-level (HL) sub-goal selection and low-level (LL) trajectory generation, which leads to incoherent plans and degraded performance. We propose Coupled Hierarchical Diffusion (CHD), a framework that models HL sub-goals and LL trajectories jointly within a unified diffusion process. A shared classifier passes LL feedback upstream so that sub-goals self-correct while sampling proceeds. This tight HL-LL coupling improves trajectory coherence and enables scalable long-horizon diffusion planning. Experiments across maze navigation, tabletop manipulation, and household environments show that CHD consistently outperforms both flat and hierarchical diffusion baselines.

arxiv情報

著者 Ce Hao,Anxing Xiao,Zhiwei Xue,Harold Soh
発行日 2025-05-12 06:21:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | CHD: Coupled Hierarchical Diffusion for Long-Horizon Tasks はコメントを受け付けていません

Analysis of Forces Exerted by Shoulder and Elbow Fabric-based Pneumatic Actuators for Pediatric Exosuits

要約

小児のエクソスーツの設計を強化するには、アクチュエータが生成した力を評価することが重要です。
この作業は、上肢の小児科のエクソスーツの柔らかい布ベースの空気圧アクチュエーターによって発揮される接触力を評価します。
2つのアクチュエーターが検査されました。肩の誘duction/状況のための単一細胞の双方向アクチュエーターと、肘の伸展/屈曲のためのベロータイプのアクチュエーターです。
実験では、アクチュエータの固定点と、発揮された力と作動の関節運動範囲(ROM)に対する隣接する関節の角度の影響を評価しました。
これらは、2つの自由度(2つの回転関節)を持つカスタム乳児規模のエンジニアリング装置に統合された負荷セルとエンコーダーを介して測定されました。
肩のアクチュエーターの場合、結果は、肩の中心からさらに固定することを示していますが、肘が90ドルで曲げられ、体に及ぼすピーク力を最小限に抑えながら、最高のROMを生成します。
肘のアクチュエータの場合、肩の関節が0^\ circ $がアクチュエータのパフォーマンスを最適化する間、対称的に固定します。
これらの調査結果は、機能性と摩耗性のために考慮されたエクソスーツ設計を共同最適化するための重要なステップに貢献します。

要約(オリジナル)

To enhance pediatric exosuit design, it is crucial to assess the actuator-generated forces. This work evaluates the contact forces exerted by soft fabric-based pneumatic actuators in an upper extremity pediatric exosuit. Two actuators were examined: a single-cell bidirectional actuator for shoulder abduction/adduction and a bellow-type actuator for elbow extension/flexion. Experiments assessed the impact of actuator anchoring points and the adjacent joint’s angle on exerted forces and actuated joint range of motion (ROM). These were measured via load cells and encoders integrated into a custom infant-scale engineered apparatus with two degrees of freedom (two revolute joints). For the shoulder actuator, results show that anchoring it further from the shoulder joint center while the elbow is flexed at $90^\circ$ yields the highest ROM while minimizing the peak force exerted on the body. For the elbow actuator, anchoring it symmetrically while the shoulder joint is at $0^\circ$ optimizes actuator performance. These findings contribute a key step toward co-optimizing the considered exosuit design for functionality and wearability.

arxiv情報

著者 Mehrnoosh Ayazi,Ipsita Sahin,Caio Mucchiani,Elena Kokkoni,Konstantinos Karydis
発行日 2025-05-12 06:34:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Analysis of Forces Exerted by Shoulder and Elbow Fabric-based Pneumatic Actuators for Pediatric Exosuits はコメントを受け付けていません

BETTY Dataset: A Multi-modal Dataset for Full-Stack Autonomy

要約

いくつかの自律的なレーシング車両で収集された大規模なマルチモーダルデータセットであるBetty Datasetを提示し、監督された自己監視の状態の推定、ダイナミクスモデリング、モーション予測、認識などを対象としています。
既存の大規模なデータセット、特に自動運転車データセットは、主に監視された認識、計画、およびモーション予測タスクに焦点を当てています。
当社の作業により、セマンティックメタデータとグラウンドトゥルース情報とともに、すべてのセンサー入力とソフトウェアスタックからの出力を含めることにより、マルチモーダルのデータ駆動型メソッドが可能になります。
データセットには、現在13時間以上で32TBを含む4年間のデータが含まれており、自律的なレーシング車両プラットフォームで収集されています。
このデータは、高速楕円形のコースを含む6つの多様なレース環境に及び、特徴型シナリオの単一およびマルチエージェントアルゴリズムの評価、および高速および横方向の加速と緊密なGPS除去環境を備えた高速道路コースに及びます。
63 m/sのクラッシュ、タイヤトラクションの喪失、安定性の限界での動作など、非常に動的な状態をキャプチャします。
クロスモーダルと動的なデータを大幅に提供することにより、Bettyデータセットは完全な自律スタックパイプラインのトレーニングとテストを可能にし、すべてのアルゴリズムのパフォーマンスを制限に押し上げます。
現在のデータセットは、https://pitt-mit-iac.github.io/betty-dataset/で入手できます。

要約(オリジナル)

We present the BETTY dataset, a large-scale, multi-modal dataset collected on several autonomous racing vehicles, targeting supervised and self-supervised state estimation, dynamics modeling, motion forecasting, perception, and more. Existing large-scale datasets, especially autonomous vehicle datasets, focus primarily on supervised perception, planning, and motion forecasting tasks. Our work enables multi-modal, data-driven methods by including all sensor inputs and the outputs from the software stack, along with semantic metadata and ground truth information. The dataset encompasses 4 years of data, currently comprising over 13 hours and 32TB, collected on autonomous racing vehicle platforms. This data spans 6 diverse racing environments, including high-speed oval courses, for single and multi-agent algorithm evaluation in feature-sparse scenarios, as well as high-speed road courses with high longitudinal and lateral accelerations and tight, GPS-denied environments. It captures highly dynamic states, such as 63 m/s crashes, loss of tire traction, and operation at the limit of stability. By offering a large breadth of cross-modal and dynamic data, the BETTY dataset enables the training and testing of full autonomy stack pipelines, pushing the performance of all algorithms to the limits. The current dataset is available at https://pitt-mit-iac.github.io/betty-dataset/.

arxiv情報

著者 Micah Nye,Ayoub Raji,Andrew Saba,Eidan Erlich,Robert Exley,Aragya Goyal,Alexander Matros,Ritesh Misra,Matthew Sivaprakasam,Marko Bertogna,Deva Ramanan,Sebastian Scherer
発行日 2025-05-12 06:35:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | BETTY Dataset: A Multi-modal Dataset for Full-Stack Autonomy はコメントを受け付けていません

MOANA: Multi-Radar Dataset for Maritime Odometry and Autonomous Navigation Application

要約

海上環境センシングでは、過酷な天候、プラットフォームの摂動、大きな動的なオブジェクト、長い検出範囲の要件などの複雑な条件からの課題を克服する必要があります。
カメラとLIDARはグラウンドビークルナビゲーションで一般的に使用されますが、海事設定での適用性は、範囲の制約とハードウェアのメンテナンスの問題によって制限されます。
ただし、レーダーセンサーは、堅牢な長距離検出機能と、天候や生理食塩水による物理的汚染に対する回復力を提供し、海上航法の強力なセンサーになります。
さまざまなレーダータイプの中で、Xバンドレーダーは海上船のナビゲーションに広く採用されており、状況認識と衝突回避に不可欠な効果的な長距離検出を提供します。
それにもかかわらず、それは近距離の検出が重要な停止操作中に制限を示します。
この欠点に対処するために、近くのオブジェクトの検出に優れているWバンドレーダーを組み込みます。
マルチレンジ検出機能を備えた包括的な海上センサーデータセットを紹介します。
このデータセットは、短距離LIDARデータ、中距離Wバンドレーダーデータ、および長距離Xバンドレーダーデータを統合フレームワークに統合します。
さらに、レーダーとステレオカメラの画像から派生した、海洋オブジェクト検出の使用に関するオブジェクトラベルが含まれています。
データセットは、さまざまなレベルの\ BL {ナビゲーションアルゴリズム}推定難易度を持つ多様な領域から収集された7つのシーケンスで構成され、簡単なものから挑戦的なものまで、グローバルローカリゼーションタスクに適した一般的な場所が含まれています。
このデータセットは、海事環境内での場所認識、臭気測定の推定、スラム、オブジェクト検出、および動的オブジェクトの排除の研究を進めるための貴重なリソースとして機能します。
データセットはhttps://sites.google.com/view/rpmmoanaにあります。

要約(オリジナル)

Maritime environmental sensing requires overcoming challenges from complex conditions such as harsh weather, platform perturbations, large dynamic objects, and the requirement for long detection ranges. While cameras and LiDAR are commonly used in ground vehicle navigation, their applicability in maritime settings is limited by range constraints and hardware maintenance issues. Radar sensors, however, offer robust long-range detection capabilities and resilience to physical contamination from weather and saline conditions, making it a powerful sensor for maritime navigation. Among various radar types, X-band radar is widely employed for maritime vessel navigation, providing effective long-range detection essential for situational awareness and collision avoidance. Nevertheless, it exhibits limitations during berthing operations where near-field detection is critical. To address this shortcoming, we incorporate W-band radar, which excels in detecting nearby objects with a higher update rate. We present a comprehensive maritime sensor dataset featuring multi-range detection capabilities. This dataset integrates short-range LiDAR data, medium-range W-band radar data, and long-range X-band radar data into a unified framework. Additionally, it includes object labels for oceanic object detection usage, derived from radar and stereo camera images. The dataset comprises seven sequences collected from diverse regions with varying levels of \bl{navigation algorithm} estimation difficulty, ranging from easy to challenging, and includes common locations suitable for global localization tasks. This dataset serves as a valuable resource for advancing research in place recognition, odometry estimation, SLAM, object detection, and dynamic object elimination within maritime environments. Dataset can be found at https://sites.google.com/view/rpmmoana.

arxiv情報

著者 Hyesu Jang,Wooseong Yang,Hanguen Kim,Dongje Lee,Yongjin Kim,Jinbum Park,Minsoo Jeon,Jaeseong Koh,Yejin Kang,Minwoo Jung,Sangwoo Jung,Chng Zhen Hao,Wong Yu Hin,Chew Yihang,Ayoung Kim
発行日 2025-05-12 06:39:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | MOANA: Multi-Radar Dataset for Maritime Odometry and Autonomous Navigation Application はコメントを受け付けていません

HuB: Learning Extreme Humanoid Balance

要約

人体は、片足で着実に立ったり、1.5メートル以上の脚を上げて正確なバランス制御を必要とするハイキックを行うなど、例外的な運動能力などを示しています。
ヒューマノイド制御に関する最近の研究では、スキル獲得のために人間の動きを追跡するための強化学習を活用していますが、このパラダイムをバランスを残すタスクに適用することは依然として困難です。
この作業では、3つの重要な障害を特定します。参照モーションエラーからの不安定性、形態学的不一致による学習困難、およびセンサーノイズとモデルのないダイナミクスによって引き起こされるSIMからリアルのギャップです。
これらの課題に対処するために、参照モーションの改良、バランスを認識した政策学習、およびSIMからリアルの堅牢性トレーニングを統合する統合されたフレームワークであるハブ(ヒューマノイドバランス)を提案します。
私たちは、ツバメのバランスやブルース・リーのキックなどの極端な一本足のポーズを含む、挑戦的な準静的バランスタスク全体にわたって、Unitree G1ヒューマノイドロボットでのアプローチを検証します。
私たちの政策は、強力なサッカーのストライクであるベースライン方法が一貫してこれらのタスクを完了できないため、強力な身体障害の下でも安定したままです。
プロジェクトWebサイト:https://hub-robot.github.io

要約(オリジナル)

The human body demonstrates exceptional motor capabilities-such as standing steadily on one foot or performing a high kick with the leg raised over 1.5 meters-both requiring precise balance control. While recent research on humanoid control has leveraged reinforcement learning to track human motions for skill acquisition, applying this paradigm to balance-intensive tasks remains challenging. In this work, we identify three key obstacles: instability from reference motion errors, learning difficulties due to morphological mismatch, and the sim-to-real gap caused by sensor noise and unmodeled dynamics. To address these challenges, we propose HuB (Humanoid Balance), a unified framework that integrates reference motion refinement, balance-aware policy learning, and sim-to-real robustness training, with each component targeting a specific challenge. We validate our approach on the Unitree G1 humanoid robot across challenging quasi-static balance tasks, including extreme single-legged poses such as Swallow Balance and Bruce Lee’s Kick. Our policy remains stable even under strong physical disturbances-such as a forceful soccer strike-while baseline methods consistently fail to complete these tasks. Project website: https://hub-robot.github.io

arxiv情報

著者 Tong Zhang,Boyuan Zheng,Ruiqian Nai,Yingdong Hu,Yen-Jen Wang,Geng Chen,Fanqi Lin,Jiongye Li,Chuye Hong,Koushil Sreenath,Yang Gao
発行日 2025-05-12 07:31:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO, cs.SY, eess.SY | HuB: Learning Extreme Humanoid Balance はコメントを受け付けていません

Autonomous Robotic Pruning in Orchards and Vineyards: a Review

要約

手動剪定は労働集約的であり、特に運用上の課題とコストの制約が大規模な機械の採用を制限するリンゴの果樹園やブドウ園では、果物生産における年間人件費の最大25%を表しています。
これに応じて、増え続ける研究は、特に従来の機械化が不足している場合、さまざまな地形で正確に剪定できるコンパクトで柔軟なロボットプラットフォームを調査しています。
このペーパーでは、果樹園とブドウ園の自律的なロボット剪定における最近の進歩をレビューし、精密な農業における重要なニーズに対処しています。
私たちのレビューでは、2014年から2024年の間に公開された文献を調べ、主要なシステムコンポーネント全体の革新的な貢献に焦点を当てています。
マシンビジョン、知覚、植物の骨格化、および制御戦略の最近の開発に特に注意が払われています。これは、人工知能と機械学習の進歩から大きな影響を与えた分野です。
この分析は、これらの技術的傾向を、人件費の上昇、若い農民の数の減少、リンゴ、グレープバイン、桜などのさまざまな果物の多様な剪定要件など、より広範な農業の課題の中に位置付けられています。
さまざまなロボットアーキテクチャと方法論を比較することにより、この調査では、自律的な剪定に向けた進捗を強調するだけでなく、重要な開かれた課題と将来の研究の方向性を特定します。
この調査結果は、マニュアルと機械化された操作のギャップを埋めるロボットシステムの可能性を強調し、より効率的で持続可能な、正確な農業慣行のための道を開いています。

要約(オリジナル)

Manual pruning is labor intensive and represents up to 25% of annual labor costs in fruit production, notably in apple orchards and vineyards where operational challenges and cost constraints limit the adoption of large-scale machinery. In response, a growing body of research is investigating compact, flexible robotic platforms capable of precise pruning in varied terrains, particularly where traditional mechanization falls short. This paper reviews recent advances in autonomous robotic pruning for orchards and vineyards, addressing a critical need in precision agriculture. Our review examines literature published between 2014 and 2024, focusing on innovative contributions across key system components. Special attention is given to recent developments in machine vision, perception, plant skeletonization, and control strategies, areas that have experienced significant influence from advancements in artificial intelligence and machine learning. The analysis situates these technological trends within broader agricultural challenges, including rising labor costs, a decline in the number of young farmers, and the diverse pruning requirements of different fruit species such as apple, grapevine, and cherry trees. By comparing various robotic architectures and methodologies, this survey not only highlights the progress made toward autonomous pruning but also identifies critical open challenges and future research directions. The findings underscore the potential of robotic systems to bridge the gap between manual and mechanized operations, paving the way for more efficient, sustainable, and precise agricultural practices.

arxiv情報

著者 Alessandro Navone,Mauro Martini,Marcello Chiaberge
発行日 2025-05-12 08:05:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Autonomous Robotic Pruning in Orchards and Vineyards: a Review はコメントを受け付けていません

Drive Fast, Learn Faster: On-Board RL for High Performance Autonomous Racing

要約

自律的なレースは、その非線形ダイナミクス、関係する高速、および動的かつ予測不可能な条件下でのリアルタイムの意思決定の重要な必要性により、ユニークな課題を提示します。
ほとんどの従来の強化学習(RL)アプローチは、広範なシミュレーションベースのプリトレーニングに依存しています。
このペーパーでは、シミュレーションベースのプリトレーニングへの依存を排除​​し、直接的な現実世界の適応を可能にするように設計された、自律レース用の堅牢なオンボードRLフレームワークを紹介します。
提案されたシステムは、洗練されたソフトアクタークリティック(SAC)アルゴリズムを導入し、残留RL構造を活用して、マルチステップ時間差(TD)学習、非同期トレーニングパイプライン、およびヒューリスティック遅延報酬調整(HDRA)を統合することにより、クラシックコントローラーをリアルタイムで強化し、サンプル効率とトレーニングの安定性を改善します。
このフレームワークは、F1tenthレーシングプラットフォームでの広範な実験を通じて検証されます。残りのRLコントローラーは、ベースラインコントローラーを常に上回り、最大のトレーニング(SOTA)と比較して最大11.5%のラップ時間を達成します。
さらに、ベースラインコントローラーなしで訓練されたエンドツーエンド(E2E)RLコントローラーは、持続的なオントラック学習で以前の最良の結果を上回ります。
これらの調査結果は、このフレームワークを、高性能の自律レースのための堅牢なソリューションと、他のリアルタイムで動的な自律システムの有望な方向性として位置付けています。

要約(オリジナル)

Autonomous racing presents unique challenges due to its non-linear dynamics, the high speed involved, and the critical need for real-time decision-making under dynamic and unpredictable conditions. Most traditional Reinforcement Learning (RL) approaches rely on extensive simulation-based pre-training, which faces crucial challenges in transfer effectively to real-world environments. This paper introduces a robust on-board RL framework for autonomous racing, designed to eliminate the dependency on simulation-based pre-training enabling direct real-world adaptation. The proposed system introduces a refined Soft Actor-Critic (SAC) algorithm, leveraging a residual RL structure to enhance classical controllers in real-time by integrating multi-step Temporal-Difference (TD) learning, an asynchronous training pipeline, and Heuristic Delayed Reward Adjustment (HDRA) to improve sample efficiency and training stability. The framework is validated through extensive experiments on the F1TENTH racing platform, where the residual RL controller consistently outperforms the baseline controllers and achieves up to an 11.5 % reduction in lap times compared to the State-of-the-Art (SotA) with only 20 min of training. Additionally, an End-to-End (E2E) RL controller trained without a baseline controller surpasses the previous best results with sustained on-track learning. These findings position the framework as a robust solution for high-performance autonomous racing and a promising direction for other real-time, dynamic autonomous systems.

arxiv情報

著者 Benedict Hildisch,Edoardo Ghignone,Nicolas Baumann,Cheng Hu,Andrea Carron,Michele Magno
発行日 2025-05-12 08:06:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Drive Fast, Learn Faster: On-Board RL for High Performance Autonomous Racing はコメントを受け付けていません

Stiffness-based Analytic Centre Method for Cable-Driven Parallel Robots

要約

今日、速くて正確であることは、ロボット工学の重要な要件です。
この作業では、張力分布の問題に同時に対処しながら、ケーブル駆動型の並列ロボット(CDPRS)の剛性を調整するための新しい方法論を紹介します。
特に、このアプローチは分析中心法に依存しています。
確かに、バリア関数の重み付けは自然に剛性の適応になります。
タスクの実行中に剛性を調整する本質的な能力により、CDPRは上記の要件を効果的に満たすことができます。
メソッドの機能は、シミュレーションを既存のアプローチと比較することにより、シミュレーションを通じて実証されます。

要約(オリジナル)

Nowadays, being fast and precise are key requirements in Robotics. This work introduces a novel methodology to tune the stiffness of Cable-Driven Parallel Robots (CDPRs) while simultaneously addressing the tension distribution problem. In particular, the approach relies on the Analytic-Centre method. Indeed, weighting the barrier functions makes natural the stiffness adaptation. The intrinsic ability to adjust the stiffness during the execution of the task enables the CDPRs to effectively meet above-mentioned requirements. The capabilities of the method are demonstrated through simulations by comparing it with the existing approach.

arxiv情報

著者 Domenico Dona’,Vincenzo Di Paola,Matteo Zoppi,Alberto Trevisani
発行日 2025-05-12 08:41:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | Stiffness-based Analytic Centre Method for Cable-Driven Parallel Robots はコメントを受け付けていません

Causality-enhanced Decision-Making for Autonomous Mobile Robots in Dynamic Environments

要約

倉庫、ショッピングセンター、病院などの共有環境でのロボットの統合の拡大は、個人がさまざまな活動や相互作用に従事する方法、いつ、どこで関与するかなど、根本的なダイナミクスと人間の行動を深く理解する必要があります。
この知識は、単純な相関研究を超えており、より包括的な因果分析が必要です。
原因推論を活用して原因と効果の関係をモデル化することにより、重要な環境要因をより適切に予測し、自律的なロボットがタスクをより効果的に計画および実行できるようにすることができます。
この目的のために、私たちは、学習した因果モデルよりもバッテリーの使用と人間の妨害を予測する理由を理由にして、これらの要因がロボットタスクの実行にどのように影響するかを理解するための新しい因果関係に基づいた意思決定フレームワークを提案します。
このような推論フレームワークは、特定のタスクをいつ、どのように完了するかを決定する際にロボットを支援します。
これを達成するために、共有ワークスペースでのコンテキストに敏感な人間ロボット空間的相互作用をモデル化するように設計された新しいガゼボベースのシミュレーターであるPeopleFlowも開発しました。
PeopleFlowは、時間、環境のレイアウト、ロボット状態などのコンテキスト要因の影響を受ける現実的な人間およびロボットの軌跡を特徴としており、多数のエージェントをシミュレートできます。
シミュレーターは汎用ですが、このホワイトペーパーでは、ケーススタディとして倉庫のような環境に焦点を当て、非因果的なベースラインに対する因果アプローチを大幅に実施しています。
私たちの調査結果は、提案されたソリューションの有効性を示しており、因果的推論により、自律的なロボットが人間と共有された動的環境でより効率的かつ安全に動作することを強調しています。

要約(オリジナル)

The growing integration of robots in shared environments — such as warehouses, shopping centres, and hospitals — demands a deep understanding of the underlying dynamics and human behaviours, including how, when, and where individuals engage in various activities and interactions. This knowledge goes beyond simple correlation studies and requires a more comprehensive causal analysis. By leveraging causal inference to model cause-and-effect relationships, we can better anticipate critical environmental factors and enable autonomous robots to plan and execute tasks more effectively. To this end, we propose a novel causality-based decision-making framework that reasons over a learned causal model to predict battery usage and human obstructions, understanding how these factors could influence robot task execution. Such reasoning framework assists the robot in deciding when and how to complete a given task. To achieve this, we developed also PeopleFlow, a new Gazebo-based simulator designed to model context-sensitive human-robot spatial interactions in shared workspaces. PeopleFlow features realistic human and robot trajectories influenced by contextual factors such as time, environment layout, and robot state, and can simulate a large number of agents. While the simulator is general-purpose, in this paper we focus on a warehouse-like environment as a case study, where we conduct an extensive evaluation benchmarking our causal approach against a non-causal baseline. Our findings demonstrate the efficacy of the proposed solutions, highlighting how causal reasoning enables autonomous robots to operate more efficiently and safely in dynamic environments shared with humans.

arxiv情報

著者 Luca Castri,Gloria Beraldo,Nicola Bellotto
発行日 2025-05-12 09:35:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | Causality-enhanced Decision-Making for Autonomous Mobile Robots in Dynamic Environments はコメントを受け付けていません