Eye-tracking-Driven Shared Control for Robotic Arms:Wizard of Oz Studies to Assess Design Choices

要約

補助ロボットアームの視線追跡制御の進歩は、身体障害のある人々に直感的な相互作用の機会を提供します。
共有制御は、ロボット制御の部分的な自動化を通じてユーザーの満足度を改善することにより、近年関心を集めています。
最先端の文献からの洞察に基づいて、視線誘導の共有コントロール設計を提示します。
オンスの魔法使いが使用されました。このセットアップでは、完全な実装を必要とせずに概念を評価するために、実験者によって自動化がシミュレートされました。
このアプローチにより、ユーザーのニーズを迅速に調査し、将来の反復を知らせることができました。
ユーザーエクスペリエンスを評価し、設計上の課題を特定し、ユーザビリティとアクセシビリティを確保するための改善を見つけるために2つの研究が実施されました。
最初の研究では、調査を提供することで障害のある人々を抱えており、2番目の研究では、OZの魔法使い設計を直接使用して技術的な洞察を得て、調査結果の包括的な状況につながりました。

要約(オリジナル)

Advances in eye-tracking control for assistive robotic arms provide intuitive interaction opportunities for people with physical disabilities. Shared control has gained interest in recent years by improving user satisfaction through partial automation of robot control. We present an eye-tracking-guided shared control design based on insights from state-of-the-art literature. A Wizard of Oz setup was used in which automation was simulated by an experimenter to evaluate the concept without requiring full implementation. This approach allowed for rapid exploration of user needs and expectations to inform future iterations. Two studies were conducted to assess user experience, identify design challenges, and find improvements to ensure usability and accessibility. The first study involved people with disabilities by providing a survey, and the second study used the Wizard of Oz design in person to gain technical insights, leading to a comprehensive picture of findings.

arxiv情報

著者 Anke Fischer-Janzen,Thomas M. Wendt,Daniel Görlich,Kristof Van Laerhoven
発行日 2025-05-29 06:38:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 93C85, cs.HC, cs.RO, H.1.2 | Eye-tracking-Driven Shared Control for Robotic Arms:Wizard of Oz Studies to Assess Design Choices はコメントを受け付けていません

Safety Implications of Explainable Artificial Intelligence in End-to-End Autonomous Driving

要約

エンドツーエンドの学習パイプラインは、主に深い学習の進歩、大規模なトレーニングデータセットの利用可能性、統合センサーデバイスの改善により、徐々に自律車両(AV)の進行中の開発にパラダイムシフトを徐々に作成しています。
ただし、現代の学習方法によるリアルタイムの決定における説明可能性の欠如は、ユーザーの信頼を妨げ、そのような車両の広範な展開と商業化を弱めます。
さらに、これらの車両が交通事故に関与したり、引き起こしたりすると、問題は悪化します。
その結果、車両の自動化への信頼を築くためには、エンドツーエンドの自律運転の説明可能性が不可欠です。
そうは言っても、自動車の研究者は、エンドツーエンドの自律運転における説明の安全上の利点と結果の結果をまだ厳密に調査していません。
このペーパーは、これらのトピック間のギャップを埋めることを目的としており、次の研究質問に答えようとしています。エンドツーエンドの自律運転における説明の安全上の意味は何ですか?
この点で、最初に、エンドツーエンドの運転において、確立された安全性と説明可能性の概念を再検討します。
さらに、重要なケーススタディを提示し、運転の安全性を高める上での説明の極めて重要な役割を示しています。
最後に、経験的研究からの洞察を説明し、エンドツーエンドの運転の安全性に対する潜在的な影響に関する実用的な説明可能なAIメソッドの潜在的な価値、制限、および警告を明らかにします。

要約(オリジナル)

The end-to-end learning pipeline is gradually creating a paradigm shift in the ongoing development of highly autonomous vehicles (AVs), largely due to advances in deep learning, the availability of large-scale training datasets, and improvements in integrated sensor devices. However, a lack of explainability in real-time decisions with contemporary learning methods impedes user trust and attenuates the widespread deployment and commercialization of such vehicles. Moreover, the issue is exacerbated when these vehicles are involved in or cause traffic accidents. Consequently, explainability in end-to-end autonomous driving is essential to build trust in vehicular automation. With that said, automotive researchers have not yet rigorously explored safety benefits and consequences of explanations in end-to-end autonomous driving. This paper aims to bridge the gaps between these topics and seeks to answer the following research question: What are safety implications of explanations in end-to-end autonomous driving? In this regard, we first revisit established safety and explainability concepts in end-to-end driving. Furthermore, we present critical case studies and show the pivotal role of explanations in enhancing driving safety. Finally, we describe insights from empirical studies and reveal potential value, limitations, and caveats of practical explainable AI methods with respect to their potential impacts on safety of end-to-end driving.

arxiv情報

著者 Shahin Atakishiyev,Mohammad Salameh,Randy Goebel
発行日 2025-05-29 06:50:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | Safety Implications of Explainable Artificial Intelligence in End-to-End Autonomous Driving はコメントを受け付けていません

Global Tensor Motion Planning

要約

バッチ計画は、蒸留や模倣学習など、下流の学習アプリケーションの多様で質の高いモーションプランを迅速に作成するためにますます必要になっています。
このペーパーでは、テンソル操作のみを含むサンプリングベースのモーション計画アルゴリズムであるグローバルテンソルモーションプランニング(GTMP)を紹介します。
ランダムなマルチパルタイトグラフとして表される新しい離散化構造を導入し、効率的なベクトル化されたサンプリング、衝突チェック、および検索を可能にします。
GTMPが最新のGPU/TPUをサポートしながら確率的完全性を示していることを示す理論的調査を提供します。
さらに、滑らかな構造をマルチパルタイトグラフに組み込むことにより、GTMPは勾配ベースの最適化を必要とせずにスムーズなスプラインを直接計画します。
LIDARを使用した占有マップとMotionBenchmarker Datasetの実験では、BATCH計画におけるGTMPの計算効率がベースラインと比較して実証されており、GTMPの多様なアプリケーションと大規模なロボット学習タスクの堅牢でスケーラブルなプランナーとしての可能性を強調しています。

要約(オリジナル)

Batch planning is increasingly necessary to quickly produce diverse and quality motion plans for downstream learning applications, such as distillation and imitation learning. This paper presents Global Tensor Motion Planning (GTMP) — a sampling-based motion planning algorithm comprising only tensor operations. We introduce a novel discretization structure represented as a random multipartite graph, enabling efficient vectorized sampling, collision checking, and search. We provide a theoretical investigation showing that GTMP exhibits probabilistic completeness while supporting modern GPU/TPU. Additionally, by incorporating smooth structures into the multipartite graph, GTMP directly plans smooth splines without requiring gradient-based optimization. Experiments on lidar-scanned occupancy maps and the MotionBenchMarker dataset demonstrate GTMP’s computation efficiency in batch planning compared to baselines, underscoring GTMP’s potential as a robust, scalable planner for diverse applications and large-scale robot learning tasks.

arxiv情報

著者 An T. Le,Kay Hansel,João Carvalho,Joe Watson,Julen Urain,Armin Biess,Georgia Chalvatzaki,Jan Peters
発行日 2025-05-29 07:05:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO, cs.SY, eess.SY | Global Tensor Motion Planning はコメントを受け付けていません

LocoTouch: Learning Dexterous Quadrupedal Transport with Tactile Sensing

要約

四葉型ロボットは、複雑な地形を横断する顕著な俊敏性と堅牢性を示しています。
ただし、持続的な接触を必要とするオブジェクトの相互作用を実行するには、限られたままです。
この作業では、このカテゴリで挑戦的なタスクに対処するために触覚を触覚に装備するシステムであるlocotouchを提示します。これは、通常、安定性を維持するためにカスタムマウントメカニズムを必要とする無担保の円筒オブジェクトの長距離輸送です。
効率的な大型エリア触覚センシングのために、ロボットの背面全体を覆う高密度分散触覚センサーアレイを設計します。
運動制御のために触覚フィードバックを効果的に活用するために、忠実度の高い触覚信号を備えたシミュレーション環境を開発し、2段階の学習パイプラインを使用して触覚を意識した輸送ポリシーを訓練します。
さらに、安定した、対称的、および周波数適応運動歩行を促進するための新しい報酬関数を設計します。
シミュレーションのトレーニング後、locotouchは現実の世界にゼロショットを転送し、サイズと重量が大きく異なる幅広い無担保の円筒形の日常のオブジェクトを確実にバランスさせ、輸送します。
触覚センサーの応答性と適応的な歩行報酬のおかげで、locotouchは、オブジェクトを長距離にわたる滑りやすい表面と、または深刻な外部摂動の下で堅牢にバランスをとることができます。

要約(オリジナル)

Quadrupedal robots have demonstrated remarkable agility and robustness in traversing complex terrains. However, they remain limited in performing object interactions that require sustained contact. In this work, we present LocoTouch, a system that equips quadrupedal robots with tactile sensing to address a challenging task in this category: long-distance transport of unsecured cylindrical objects, which typically requires custom mounting mechanisms to maintain stability. For efficient large-area tactile sensing, we design a high-density distributed tactile sensor array that covers the entire back of the robot. To effectively leverage tactile feedback for locomotion control, we develop a simulation environment with high-fidelity tactile signals, and train tactile-aware transport policies using a two-stage learning pipeline. Furthermore, we design a novel reward function to promote stable, symmetric, and frequency-adaptive locomotion gaits. After training in simulation, LocoTouch transfers zero-shot to the real world, reliably balancing and transporting a wide range of unsecured, cylindrical everyday objects with broadly varying sizes and weights. Thanks to the responsiveness of the tactile sensor and the adaptive gait reward, LocoTouch can robustly balance objects with slippery surfaces over long distances, or even under severe external perturbations.

arxiv情報

著者 Changyi Lin,Yuxin Ray Song,Boda Huo,Mingyang Yu,Yikai Wang,Shiqi Liu,Yuxiang Yang,Wenhao Yu,Tingnan Zhang,Jie Tan,Yiyue Luo,Ding Zhao
発行日 2025-05-29 07:12:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | LocoTouch: Learning Dexterous Quadrupedal Transport with Tactile Sensing はコメントを受け付けていません

TrackVLA: Embodied Visual Tracking in the Wild

要約

具体化された視覚追跡は、具体化されたAIの基本的なスキルであり、エージェントがエゴセントリックビジョンのみを使用して動的環境で特定のターゲットに従うことができます。
このタスクは、正確なターゲット認識と、重度の閉塞と高いシーンのダイナミクスの条件下での効果的な軌道計画の両方を必要とするため、本質的に挑戦的です。
既存のアプローチは、通常、認識と計画のモジュール式分離を通じてこの課題に対処します。
この作業では、オブジェクト認識と軌跡計画の相乗効果を学習するVision-Language-action(VLA)モデルであるTrackVLAを提案します。
共有LLMバックボーンを活用して、認識のために言語モデリングヘッドと軌道計画のためのアンカーベースの拡散モデルを採用しています。
TrackVLAを訓練するために、具体化された視覚追跡ベンチマーク(EVTベンチ)を構築し、多様な難易度の認識サンプルを収集して、170万サンプルのデータセットになります。
合成環境と現実世界の両方の環境での広範な実験を通じて、TrackVLAはSOTAパフォーマンスと強力な一般化可能性を示しています。
パブリックベンチマークで既存のメソッドをゼロショット方法で大幅に上回り、10 fpsの推論速度で実際のシナリオでの高いダイナミクスと閉塞に堅牢であり続けます。
プロジェクトのページは、https://pku-epic.github.io/trackvla-webです。

要約(オリジナル)

Embodied visual tracking is a fundamental skill in Embodied AI, enabling an agent to follow a specific target in dynamic environments using only egocentric vision. This task is inherently challenging as it requires both accurate target recognition and effective trajectory planning under conditions of severe occlusion and high scene dynamics. Existing approaches typically address this challenge through a modular separation of recognition and planning. In this work, we propose TrackVLA, a Vision-Language-Action (VLA) model that learns the synergy between object recognition and trajectory planning. Leveraging a shared LLM backbone, we employ a language modeling head for recognition and an anchor-based diffusion model for trajectory planning. To train TrackVLA, we construct an Embodied Visual Tracking Benchmark (EVT-Bench) and collect diverse difficulty levels of recognition samples, resulting in a dataset of 1.7 million samples. Through extensive experiments in both synthetic and real-world environments, TrackVLA demonstrates SOTA performance and strong generalizability. It significantly outperforms existing methods on public benchmarks in a zero-shot manner while remaining robust to high dynamics and occlusion in real-world scenarios at 10 FPS inference speed. Our project page is: https://pku-epic.github.io/TrackVLA-web.

arxiv情報

著者 Shaoan Wang,Jiazhao Zhang,Minghan Li,Jiahang Liu,Anqi Li,Kui Wu,Fangwei Zhong,Junzhi Yu,Zhizheng Zhang,He Wang
発行日 2025-05-29 07:28:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | TrackVLA: Embodied Visual Tracking in the Wild はコメントを受け付けていません

UPP: Unified Path Planner with Adaptive Safety and Optimality

要約

私たちは、複雑なタスクの実行を支援するロボットに囲まれています。
ロボットには、産業の自動化からパーソナライズされた支援まで、幅広いアプリケーションがあります。
しかし、大きな技術革新により、大きな課題があります。
ロボット工学の主要な課題の1つは、パス計画です。
グラフ検索、サンプリング、潜在的なフィールド方法などの進歩にもかかわらず、ほとんどのパス計画アルゴリズムは最適性または安全性に焦点を当てています。
両方が同時に対処する研究はほとんどありません。
修正されたヒューリスティックと動的な安全コスト関数を使用して、安全性と最適性のバランスをとる統一されたパスプランナー(UPP)を提案します。
安全性のレベルは、調整可能なパラメーターを介して調整し、計算の複雑さと取引することができます。
シミュレーションにおけるプランナーのパフォーマンスを示し、パラメーターの変動が結果にどのように影響するかを示します。
UPPは、さまざまなシナリオにわたるさまざまな従来の最適計画アルゴリズムと比較されます。
また、ロボットが安全で最適下のパスを正常に見つけるタートルボットでそれを検証します。

要約(オリジナル)

We are surrounded by robots helping us perform complex tasks. Robots have a wide range of applications, from industrial automation to personalized assistance. However, with great technological innovation come significant challenges. One of the major challenges in robotics is path planning. Despite advancements such as graph search, sampling, and potential field methods, most path planning algorithms focus either on optimality or on safety. Very little research addresses both simultaneously. We propose a Unified Path Planner (UPP) that uses modified heuristics and a dynamic safety cost function to balance safety and optimality. The level of safety can be adjusted via tunable parameters, trading off against computational complexity. We demonstrate the planner’s performance in simulations, showing how parameter variation affects results. UPP is compared with various traditional and safe-optimal planning algorithms across different scenarios. We also validate it on a TurtleBot, where the robot successfully finds safe and sub-optimal paths.

arxiv情報

著者 Jatin Kumar Arora,Shubhendu Bhasin
発行日 2025-05-29 07:34:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | UPP: Unified Path Planner with Adaptive Safety and Optimality はコメントを受け付けていません

Universal Trajectory Optimization Framework for Differential Drive Robot Class

要約

ディファレンシャルドライブロボットは、家庭サービスロボットから災害対応フィールドロボットまで、その単純な原則のおかげで、さまざまなシナリオで広く使用されています。
二輪の四輪スキッドステアリング、追跡されたロボットなど、実際のアプリケーションにはいくつかのタイプの運転メカニズムがあります。
運転メカニズムの違いは、通常、正確な制御が必要な場合、特定の運動モデリングを必要とします。
さらに、非ホロノミックダイナミクスと可能な横滑りは、実行可能で高品質の軌跡を取得するのが困難な程度の程度につながります。
したがって、さまざまな種類のディファレンシャルドライブロボットの軌道を効率的に計算するための包括的な軌跡最適化フレームワークが非常に望ましいです。
この論文では、差動駆動ロボットに適用できる普遍的な軌跡最適化フレームワークを提案し、制限された計算時間枠内で高品質の軌跡の生成を可能にします。
モーション状態の多項式パラメーター化または角度および線形速度などの積分に基づいて、ロボットの動きを制御原理に本質的に一致させるという新しい軌道表現を導入します。
軌道最適化問題は、安全性と運用効率を優先しながら複雑さを最小限に抑えるために策定されています。
次に、フルスタックの自律計画および制御システムを構築して、その実現可能性と堅牢性を実証します。
私たちは、アプローチの有効性を検証するために、3種類の微分駆動ロボットを備えた混雑した環境で広範なシミュレーションと現実世界のテストを実施しています。

要約(オリジナル)

Differential drive robots are widely used in various scenarios thanks to their straightforward principle, from household service robots to disaster response field robots. There are several types of driving mechanisms for real-world applications, including two-wheeled, four-wheeled skid-steering, tracked robots, and so on. The differences in the driving mechanisms usually require specific kinematic modeling when precise control is desired. Furthermore, the nonholonomic dynamics and possible lateral slip lead to different degrees of difficulty in getting feasible and high-quality trajectories. Therefore, a comprehensive trajectory optimization framework to compute trajectories efficiently for various kinds of differential drive robots is highly desirable. In this paper, we propose a universal trajectory optimization framework that can be applied to differential drive robots, enabling the generation of high-quality trajectories within a restricted computational timeframe. We introduce a novel trajectory representation based on polynomial parameterization of motion states or their integrals, such as angular and linear velocities, which inherently matches the robots’ motion to the control principle. The trajectory optimization problem is formulated to minimize complexity while prioritizing safety and operational efficiency. We then build a full-stack autonomous planning and control system to demonstrate its feasibility and robustness. We conduct extensive simulations and real-world testing in crowded environments with three kinds of differential drive robots to validate the effectiveness of our approach.

arxiv情報

著者 Mengke Zhang,Nanhe Chen,Hu Wang,Jianxiong Qiu,Zhichao Han,Qiuyu Ren,Chao Xu,Fei Gao,Yanjun Cao
発行日 2025-05-29 09:03:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Universal Trajectory Optimization Framework for Differential Drive Robot Class はコメントを受け付けていません

VLM-RRT: Vision Language Model Guided RRT Search for Autonomous UAV Navigation

要約

パス計画は、自律的な無人航空機(UAV)の基本的な能力であり、障害を避けながらターゲット領域に向かって効率的にナビゲートしたり、複雑な環境を探索したりすることができます。
迅速に発表されたランダムツリー(RRT)などの従来のパスプランニング方法は、効果的であることが証明されていますが、しばしば重要な課題に遭遇しています。
これらには、高い検索スペースの複雑さ、最適ではないパスの品質、および収束が遅いことに、迅速かつ効率的な計画が重要な災害対応などのハイステークスアプリケーションで特に問題がある問題が含まれます。
これらの制限に対処し、パス計画効率を高めるために、Vision言語モデルRRT(VLM-RRT)を提案します。これは、Vision言語モデル(VLM)のパターン認識能力をRRTのパス計画強度と統合するハイブリッドアプローチです。
VLMを活用して環境スナップショットに基づいて初期の方向ガイダンスを提供することにより、メソッドバイアスは、実現可能なパスを含む可能性が高い地域にサンプリングし、サンプリング効率とパスの品質を大幅に改善します。
さまざまな最先端のVLMを使用した広範な定量的および定性的実験は、この提案されたアプローチの有効性を示しています。

要約(オリジナル)

Path planning is a fundamental capability of autonomous Unmanned Aerial Vehicles (UAVs), enabling them to efficiently navigate toward a target region or explore complex environments while avoiding obstacles. Traditional pathplanning methods, such as Rapidly-exploring Random Trees (RRT), have proven effective but often encounter significant challenges. These include high search space complexity, suboptimal path quality, and slow convergence, issues that are particularly problematic in high-stakes applications like disaster response, where rapid and efficient planning is critical. To address these limitations and enhance path-planning efficiency, we propose Vision Language Model RRT (VLM-RRT), a hybrid approach that integrates the pattern recognition capabilities of Vision Language Models (VLMs) with the path-planning strengths of RRT. By leveraging VLMs to provide initial directional guidance based on environmental snapshots, our method biases sampling toward regions more likely to contain feasible paths, significantly improving sampling efficiency and path quality. Extensive quantitative and qualitative experiments with various state-of-the-art VLMs demonstrate the effectiveness of this proposed approach.

arxiv情報

著者 Jianlin Ye,Savvas Papaioannou,Panayiotis Kolios
発行日 2025-05-29 09:15:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | VLM-RRT: Vision Language Model Guided RRT Search for Autonomous UAV Navigation はコメントを受け付けていません

USPilot: An Embodied Robotic Assistant Ultrasound System with Large Language Model Enhanced Graph Planner

要約

大規模な言語モデル(LLMS)の時代では、具体化された人工知能は、ロボット操作タスクの変革的な機会を提供します。
広く使用されており、費用対効果の高い医療診断手順である超音波イメージングは​​、プロの超音波検査学者の世界的不足により課題に直面しています。
この問題に対処するために、自律的な超音波取得を可能にするためにLLMベースのフレームワークを搭載した具体化されたロボットアシスタント超音波システムであるUspilotを提案します。
Uspilotは、仮想ソノグラファーとして機能するように設計されており、患者の超音波関連クエリに対応し、ユーザーの意図に基づいて超音波スキャンを実行できます。
LLMを微調整することにより、Uspilotは超音波固有の質問とタスクを深く理解しています。
さらに、UspilotにはLLM強化グラフニューラルネットワーク(GNN)が組み込まれており、超音波ロボットAPIを管理し、タスクプランナーとして機能します。
実験結果は、LLM強化GNNがパブリックデータセットのタスク計画において前例のない精度を達成することを示しています。
さらに、このシステムは、超音波手順を自律的に理解および実行することにおいて重要な可能性を示しています。
これらの進歩により、自律的で潜在的に無人のロボット超音波システムの達成に近づき、医療イメージングの重要なリソースギャップに対処します。

要約(オリジナル)

In the era of Large Language Models (LLMs), embodied artificial intelligence presents transformative opportunities for robotic manipulation tasks. Ultrasound imaging, a widely used and cost-effective medical diagnostic procedure, faces challenges due to the global shortage of professional sonographers. To address this issue, we propose USPilot, an embodied robotic assistant ultrasound system powered by an LLM-based framework to enable autonomous ultrasound acquisition. USPilot is designed to function as a virtual sonographer, capable of responding to patients’ ultrasound-related queries and performing ultrasound scans based on user intent. By fine-tuning the LLM, USPilot demonstrates a deep understanding of ultrasound-specific questions and tasks. Furthermore, USPilot incorporates an LLM-enhanced Graph Neural Network (GNN) to manage ultrasound robotic APIs and serve as a task planner. Experimental results show that the LLM-enhanced GNN achieves unprecedented accuracy in task planning on public datasets. Additionally, the system demonstrates significant potential in autonomously understanding and executing ultrasound procedures. These advancements bring us closer to achieving autonomous and potentially unmanned robotic ultrasound systems, addressing critical resource gaps in medical imaging.

arxiv情報

著者 Mingcong Chen,Siqi Fan,Guanglin Cao,Yun-hui Liu,Hongbin Liu
発行日 2025-05-29 09:25:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | USPilot: An Embodied Robotic Assistant Ultrasound System with Large Language Model Enhanced Graph Planner はコメントを受け付けていません

MEF-Explore: Communication-Constrained Multi-Robot Entropy-Field-Based Exploration

要約

未知の環境探査のための共同複数のロボットは、その驚くべきパフォーマンスと効率のために主流になっています。
ただし、ほとんどの既存の方法は、実世界の設定では達成できない探索中の完全なロボットのコミュニケーションを想定しています。
コミュニケーションが制約されている状況に取り組むことを目的とした最近の作品がありましたが、情報共有と探査戦略の両方の側面の両方のための実質的な進歩の余地が残っています。
この論文では、コミュニケーションが制約されているマルチロボットエントロピーフィールドベースの探索(MEF-Explore)を提案します。
提案された方法の最初のモジュールは、2層のロボット間通信認識情報共有戦略です。
動的グラフは、マルチロボットネットワークを表すために使用され、低速か高速かどうかに基づいて通信を決定します。
具体的には、すべてのロボット間で常にアクセスできる低速通信は、現在のポジションを共有するためにのみ使用できます。
ロボットが特定の範囲内にある場合、ロボット間マップの合併に高速通信が利用可能になります。
2番目のモジュールは、エントロピーフィールドベースの探索戦略です。
特に、ロボットは、フロンティアとロボットのエントロピーを評価するために構築された斬新な形式に従って、未知の地域を分配して探索します。
これらのエントロピーは、暗黙のロボットランデブーを引き起こし、実行可能な場合にロボット間マップの合併を強化することもできます。
さらに、ロボットの目標割り当てを管理するための期間適応ゴールアシングモジュールを含めます。
シミュレーション結果は、私たちのMEFエクスプロールが、すべてのシナリオでの探査時間と成功率に関して既存のものを上回っていることを示しています。
実際の実験では、私たちの方法は、ベースラインと比較して、21.32%の探索時間と16.67%の成功率につながります。

要約(オリジナル)

Collaborative multiple robots for unknown environment exploration have become mainstream due to their remarkable performance and efficiency. However, most existing methods assume perfect robots’ communication during exploration, which is unattainable in real-world settings. Though there have been recent works aiming to tackle communication-constrained situations, substantial room for advancement remains for both information-sharing and exploration strategy aspects. In this paper, we propose a Communication-Constrained Multi-Robot Entropy-Field-Based Exploration (MEF-Explore). The first module of the proposed method is the two-layer inter-robot communication-aware information-sharing strategy. A dynamic graph is used to represent a multi-robot network and to determine communication based on whether it is low-speed or high-speed. Specifically, low-speed communication, which is always accessible between every robot, can only be used to share their current positions. If robots are within a certain range, high-speed communication will be available for inter-robot map merging. The second module is the entropy-field-based exploration strategy. Particularly, robots explore the unknown area distributedly according to the novel forms constructed to evaluate the entropies of frontiers and robots. These entropies can also trigger implicit robot rendezvous to enhance inter-robot map merging if feasible. In addition, we include the duration-adaptive goal-assigning module to manage robots’ goal assignment. The simulation results demonstrate that our MEF-Explore surpasses the existing ones regarding exploration time and success rate in all scenarios. For real-world experiments, our method leads to a 21.32% faster exploration time and a 16.67% higher success rate compared to the baseline.

arxiv情報

著者 Khattiya Pongsirijinda,Zhiqiang Cao,Billy Pik Lik Lau,Ran Liu,Chau Yuen,U-Xuan Tan
発行日 2025-05-29 11:57:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | MEF-Explore: Communication-Constrained Multi-Robot Entropy-Field-Based Exploration はコメントを受け付けていません