SPINE: Online Semantic Planning for Missions with Incomplete Natural Language Specifications in Unstructured Environments

要約

ロボットがますます有能になるにつれて、ユーザーは高レベルのミッションを説明し、ロボットに関連する詳細を推測したいと思うでしょう。
事前に構築されたマップは多くの現実的な設定で取得するのが難しいため、そのようなミッションを達成するには、ロボットがオンラインでマッピングおよび計画する必要があります。
多くのセマンティック計画方法はオンラインで動作しますが、通常、オブジェクト検索や探索などの適切に指定されたミッション向けに設計されています。
最近、大規模な言語モデル(LLMS)は、自然言語で説明されているさまざまなロボットタスクに対して強力なコンテキスト推論能力を実証しています。
ただし、既存のLLM対応プランナーは通常、オンライン計画や複雑なミッションを考慮しません。
むしろ、関連するサブタスクとセマンティクスは、事前に構築されたマップまたはユーザーによって提供されます。
これらの制限は、自然言語で提供される不完全なミッション仕様を伴うミッションのオンラインプランナーであるSpineを介して対処します。
プランナーはLLMを使用して、ミッション仕様によって暗示されているサブタスクについて推論し、これらのサブタスクを後退する地平線フレームワークで実現します。
タスクは安全性のために自動的に検証され、新しいマップの観察によりオンラインで洗練されます。
シミュレーションと現実世界の設定で脊椎を評価し、20,000mを超える$^2 $の散らかった屋外環境で、セマンティック推論と探索の複数のステップを必要とするミッションを使用します。
既存のLLM対応計画アプローチを使用するベースラインと比較して、私たちの方法は時間と距離の点で2倍の効率が高く、ユーザーの対話が少なく、完全なマップは必要ありません。
追加のリソースは、https://zacravichandran.github.io/spineで提供されます。

要約(オリジナル)

As robots become increasingly capable, users will want to describe high-level missions and have robots infer the relevant details. Because pre-built maps are difficult to obtain in many realistic settings, accomplishing such missions will require the robot to map and plan online. While many semantic planning methods operate online, they are typically designed for well specified missions such as object search or exploration. Recently, Large Language Models (LLMs) have demonstrated powerful contextual reasoning abilities over a range of robotic tasks described in natural language. However, existing LLM-enabled planners typically do not consider online planning or complex missions; rather, relevant subtasks and semantics are provided by a pre-built map or a user. We address these limitations via SPINE, an online planner for missions with incomplete mission specifications provided in natural language. The planner uses an LLM to reason about subtasks implied by the mission specification and then realizes these subtasks in a receding horizon framework. Tasks are automatically validated for safety and refined online with new map observations. We evaluate SPINE in simulation and real-world settings with missions that require multiple steps of semantic reasoning and exploration in cluttered outdoor environments of over 20,000m$^2$. Compared to baselines that use existing LLM-enabled planning approaches, our method is over twice as efficient in terms of time and distance, requires less user interactions, and does not require a full map. Additional resources are provided at https://zacravichandran.github.io/SPINE.

arxiv情報

著者 Zachary Ravichandran,Varun Murali,Mariliza Tzes,George J. Pappas,Vijay Kumar
発行日 2025-03-21 01:34:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | SPINE: Online Semantic Planning for Missions with Incomplete Natural Language Specifications in Unstructured Environments はコメントを受け付けていません

SV4D 2.0: Enhancing Spatio-Temporal Consistency in Multi-View Video Diffusion for High-Quality 4D Generation

要約

動的3Dアセット生成のためのマルチビュービデオ拡散モデルであるStable Video 4d 2.0(SV4D 2.0)を紹介します。
前身のSV4Dと比較して、SV4D 2.0はオクルージョンや大きな動きにより堅牢であり、現実世界のビデオによりよく一般化し、詳細なシャープネスと時空間整合性の観点から高品質の出力を生成します。
複数の側面に重要な改善を導入することでこれを達成します。1)ネットワークアーキテクチャ:参照マルチビューの依存性を排除し、3Dとフレームの注意のためのブレンディングメカニズムの設計を排除する、2)データの質と量のデータ:3)トレーニング戦略:トレーニング戦略:より良い一般化のためのプログレッシブ3D-4Dトレーニングの採用4)
広範な実験は、視覚的および定量的にSV4D 2.0による有意なパフォーマンスゲインを示し、SV4Dと比較して、小説ビデオ統合と4D最適化(-12 \%LPIPSおよび-24 \%FV4D)で、より良いディテール(-14 \%LPIPS)と4D一貫性(-44 \%FV4D)を達成します。

要約(オリジナル)

We present Stable Video 4D 2.0 (SV4D 2.0), a multi-view video diffusion model for dynamic 3D asset generation. Compared to its predecessor SV4D, SV4D 2.0 is more robust to occlusions and large motion, generalizes better to real-world videos, and produces higher-quality outputs in terms of detail sharpness and spatio-temporal consistency. We achieve this by introducing key improvements in multiple aspects: 1) network architecture: eliminating the dependency of reference multi-views and designing blending mechanism for 3D and frame attention, 2) data: enhancing quality and quantity of training data, 3) training strategy: adopting progressive 3D-4D training for better generalization, and 4) 4D optimization: handling 3D inconsistency and large motion via 2-stage refinement and progressive frame sampling. Extensive experiments demonstrate significant performance gain by SV4D 2.0 both visually and quantitatively, achieving better detail (-14\% LPIPS) and 4D consistency (-44\% FV4D) in novel-view video synthesis and 4D optimization (-12\% LPIPS and -24\% FV4D) compared to SV4D.

arxiv情報

著者 Chun-Han Yao,Yiming Xie,Vikram Voleti,Huaizu Jiang,Varun Jampani
発行日 2025-03-21 03:39:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV | SV4D 2.0: Enhancing Spatio-Temporal Consistency in Multi-View Video Diffusion for High-Quality 4D Generation はコメントを受け付けていません

A Single-Loop Smoothed Gradient Descent-Ascent Algorithm for Nonconvex-Concave Min-Max Problems

要約

非コンベックスコンケーブMIN-MAXの問題は、多くの機械学習アプリケーションで発生します。これには、非コンベックス関数のセットのポイントワイズ最大値と、ニューラルネットワークの堅牢な敵対的トレーニングが含まれます。
この問題を解決するための一般的なアプローチは、勾配降下(GDA)アルゴリズムであり、残念ながら非粘性の場合に振動を示すことができます。
このホワイトペーパーでは、GDAと組み合わせて振動を安定させ、固定ソリューションとの収束を確保できる「スムージング」スキームを紹介します。
安定化されたGDAアルゴリズムが、非凸関数の有限コレクションのポイントワイズ最大コレクションを最小化するために$ O(1/\ epsilon^2)$反復の複雑さを達成できることを証明します。
さらに、Smoothed GDAアルゴリズムは、一般的な非コンベックスコンケーブの問題に対して$ O(1/\ epsilon^4)$反復の複雑さを実現します。
この安定化されたGDAアルゴリズムの拡張は、マルチブロックケースへの拡張が表示されます。
私たちの知る限り、これは、継続的でない問題のクラスで$ o(1/\ epsilon^2)$を達成した最初のアルゴリズムです。
堅牢なトレーニングに関する安定化されたGDAアルゴリズムの実用的な効率を示します。

要約(オリジナル)

Nonconvex-concave min-max problem arises in many machine learning applications including minimizing a pointwise maximum of a set of nonconvex functions and robust adversarial training of neural networks. A popular approach to solve this problem is the gradient descent-ascent (GDA) algorithm which unfortunately can exhibit oscillation in case of nonconvexity. In this paper, we introduce a ‘smoothing’ scheme which can be combined with GDA to stabilize the oscillation and ensure convergence to a stationary solution. We prove that the stabilized GDA algorithm can achieve an $O(1/\epsilon^2)$ iteration complexity for minimizing the pointwise maximum of a finite collection of nonconvex functions. Moreover, the smoothed GDA algorithm achieves an $O(1/\epsilon^4)$ iteration complexity for general nonconvex-concave problems. Extensions of this stabilized GDA algorithm to multi-block cases are presented. To the best of our knowledge, this is the first algorithm to achieve $O(1/\epsilon^2)$ for a class of nonconvex-concave problem. We illustrate the practical efficiency of the stabilized GDA algorithm on robust training.

arxiv情報

著者 Jiawei Zhang,Peijun Xiao,Ruoyu Sun,Zhi-Quan Luo
発行日 2025-03-20 15:46:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, math.OC | A Single-Loop Smoothed Gradient Descent-Ascent Algorithm for Nonconvex-Concave Min-Max Problems はコメントを受け付けていません

PEnGUiN: Partially Equivariant Graph NeUral Networks for Sample Efficient MARL

要約

等量のグラフニューラルネットワーク(EGNNS)は、マルチエージェント補強学習(MARL)における有望なアプローチとして浮上しており、サンプルの効率と一般化を大幅に改善するために対称性保証を活用しています。
ただし、実際の環境は、外力、測定の不正確さ、または固有のシステムバイアスなどの要因から生じる固有の非対称性を示すことがよくあります。
このペーパーでは、\ textit {部分的に等しく等しいグラフニューラルネットワーク(ペンギン)}を紹介します。これらの課題に対処するために特別に設計された新しいアーキテクチャ。
MARLに関連するさまざまなタイプの部分的等錯体を正式に特定し、分類します。これには、サブグループの同等性、機能ごとの同等性、地域の等語性、および近似等量を含みます。
ペンギンは、統一されたフレームワーク内で完全に等量(EGNN)と非等変量(GNN)表現の両方を学習できることを理論的に実証します。
さまざまな非対称性を取り入れたさまざまなMARL問題に関する広範な実験を通じて、ペンギンの有効性を経験的に検証します。
私たちの結果は、ペンギンが非対称環境でEGNNと標準GNNの両方を上回ることを一貫して示しており、実際のシナリオでグラフベースのMARLアルゴリズムの堅牢性と適用性を改善する可能性を強調しています。

要約(オリジナル)

Equivariant Graph Neural Networks (EGNNs) have emerged as a promising approach in Multi-Agent Reinforcement Learning (MARL), leveraging symmetry guarantees to greatly improve sample efficiency and generalization. However, real-world environments often exhibit inherent asymmetries arising from factors such as external forces, measurement inaccuracies, or intrinsic system biases. This paper introduces \textit{Partially Equivariant Graph NeUral Networks (PEnGUiN)}, a novel architecture specifically designed to address these challenges. We formally identify and categorize various types of partial equivariance relevant to MARL, including subgroup equivariance, feature-wise equivariance, regional equivariance, and approximate equivariance. We theoretically demonstrate that PEnGUiN is capable of learning both fully equivariant (EGNN) and non-equivariant (GNN) representations within a unified framework. Through extensive experiments on a range of MARL problems incorporating various asymmetries, we empirically validate the efficacy of PEnGUiN. Our results consistently demonstrate that PEnGUiN outperforms both EGNNs and standard GNNs in asymmetric environments, highlighting their potential to improve the robustness and applicability of graph-based MARL algorithms in real-world scenarios.

arxiv情報

著者 Joshua McClellan,Greyson Brothers,Furong Huang,Pratap Tokekar
発行日 2025-03-19 18:01:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO | PEnGUiN: Partially Equivariant Graph NeUral Networks for Sample Efficient MARL はコメントを受け付けていません

Neural Lyapunov Function Approximation with Self-Supervised Reinforcement Learning

要約

制御lyapunov関数は、従来、希望の状態への収束を保証するコントローラーを設計するために伝統的に使用されていますが、非線形システムのこれらの機能を導き出すことは複雑な課題のままです。
この論文では、非線形リアプノフ関数の神経近似のための新しいサンプル効率の高い方法を紹介します。特に、トレーニングデータ生成を強化して、特に国家空間の不正確に代表される領域のために、自己監視補強学習(RL)を活用します。
提案されているアプローチは、データ駆動型の世界モデルを採用して、ポリック外の軌跡からリアプノフ機能を訓練します。
この方法は、標準および目標条件の両方のロボットタスクの両方で検証され、最先端の神経リアプノフ近似ベースラインと比較して、より速い収束と近似精度が高いことを示しています。
このコードは、https://github.com/cav-research-lab/sacla.gitで入手できます

要約(オリジナル)

Control Lyapunov functions are traditionally used to design a controller which ensures convergence to a desired state, yet deriving these functions for nonlinear systems remains a complex challenge. This paper presents a novel, sample-efficient method for neural approximation of nonlinear Lyapunov functions, leveraging self-supervised Reinforcement Learning (RL) to enhance training data generation, particularly for inaccurately represented regions of the state space. The proposed approach employs a data-driven World Model to train Lyapunov functions from off-policy trajectories. The method is validated on both standard and goal-conditioned robotic tasks, demonstrating faster convergence and higher approximation accuracy compared to the state-of-the-art neural Lyapunov approximation baseline. The code is available at: https://github.com/CAV-Research-Lab/SACLA.git

arxiv情報

著者 Luc McCutcheon,Bahman Gharesifard,Saber Fallah
発行日 2025-03-19 18:29:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CG, cs.LG, cs.RO | Neural Lyapunov Function Approximation with Self-Supervised Reinforcement Learning はコメントを受け付けていません

Mechanisms and Computational Design of Multi-Modal End-Effector with Force Sensing using Gated Networks

要約

Limbed Roboticsでは、エンドエフェクターは、移動のための両方の足や把握のグリッパーなど、デザインの課題を示すデュアル機能を提供する必要があります。
このペーパーでは、把握能力を提供しながら、フラットとラインのフット構成を遷移できるマルチモーダルエンドエフェクターを紹介します。
Magpieは、ホール効果センサーを使用して提案されたメカニズムを使用して8軸の力センシングを統合し、接触力と触覚力の両方の測定を可能にします。
ノイズと干渉を説明するセンシングメカニズムの計算設計フレームワークを提示し、望ましい感度と力の範囲を可能にし、理想的な逆モデルを生成します。
カササギのハードウェア実装は実験を通じて検証され、足としての機能を実証し、センシングメカニズム、理想的なモデル、ゲートネットワークベースのモデルのパフォーマンスを検証します。

要約(オリジナル)

In limbed robotics, end-effectors must serve dual functions, such as both feet for locomotion and grippers for grasping, which presents design challenges. This paper introduces a multi-modal end-effector capable of transitioning between flat and line foot configurations while providing grasping capabilities. MAGPIE integrates 8-axis force sensing using proposed mechanisms with hall effect sensors, enabling both contact and tactile force measurements. We present a computational design framework for our sensing mechanism that accounts for noise and interference, allowing for desired sensitivity and force ranges and generating ideal inverse models. The hardware implementation of MAGPIE is validated through experiments, demonstrating its capability as a foot and verifying the performance of the sensing mechanisms, ideal models, and gated network-based models.

arxiv情報

著者 Yusuke Tanaka,Alvin Zhu,Richard Lin,Ankur Mehta,Dennis Hong
発行日 2025-03-19 19:30:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Mechanisms and Computational Design of Multi-Modal End-Effector with Force Sensing using Gated Networks はコメントを受け付けていません

Fast3R: Towards 3D Reconstruction of 1000+ Images in One Forward Pass

要約

マルチビュー3D再構成は、特に多様な視点で正確でスケーラブルな表現を必要とするアプリケーションで、コンピュータービジョンの中心的な課題のままです。
Dust3Rなどの現在の主要な方法は、根本的にペアワイズアプローチを採用し、画像をペアで処理し、複数のビューから再構築するための費用のかかるグローバルアライメント手順を必要とします。
この作業では、多くのビューを並行して処理することにより効率的でスケーラブルな3D再構成を達成するDust3Rへの新しいマルチビューの一般化である高速3D再構成(FAST3R)を提案します。
Fast3Rの変圧器ベースのアーキテクチャは、単一のフォワードパスでn画像を転送し、反復アライメントの必要性を回避します。
カメラの推定値と3D再構成に関する広範な実験を通じて、Fast3Rは最先端のパフォーマンスを示し、推論速度が大幅に改善され、誤差蓄積が減少します。
これらの結果は、Multi-Viewアプリケーションの堅牢な代替品としてFast3Rを確立し、再構成の精度を損なうことなくスケーラビリティを向上させます。

要約(オリジナル)

Multi-view 3D reconstruction remains a core challenge in computer vision, particularly in applications requiring accurate and scalable representations across diverse perspectives. Current leading methods such as DUSt3R employ a fundamentally pairwise approach, processing images in pairs and necessitating costly global alignment procedures to reconstruct from multiple views. In this work, we propose Fast 3D Reconstruction (Fast3R), a novel multi-view generalization to DUSt3R that achieves efficient and scalable 3D reconstruction by processing many views in parallel. Fast3R’s Transformer-based architecture forwards N images in a single forward pass, bypassing the need for iterative alignment. Through extensive experiments on camera pose estimation and 3D reconstruction, Fast3R demonstrates state-of-the-art performance, with significant improvements in inference speed and reduced error accumulation. These results establish Fast3R as a robust alternative for multi-view applications, offering enhanced scalability without compromising reconstruction accuracy.

arxiv情報

著者 Jianing Yang,Alexander Sax,Kevin J. Liang,Mikael Henaff,Hao Tang,Ang Cao,Joyce Chai,Franziska Meier,Matt Feiszli
発行日 2025-03-19 19:35:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.GR, cs.RO | Fast3R: Towards 3D Reconstruction of 1000+ Images in One Forward Pass はコメントを受け付けていません

GASP: Unifying Geometric and Semantic Self-Supervised Pre-training for Autonomous Driving

要約

次のトークンの予測に基づいた自己監視の事前トレーニングにより、大規模な言語モデルがテキストの根底にある構造をキャプチャすることができ、大規模に適用された場合、多数のタスクで前例のないパフォーマンスをもたらしました。
同様に、自律運転は膨大な量の空間的データを生成し、環境の基礎となる幾何学的および意味的構造とその進化を長期にわたって学習するために規模を活用する可能性をほのめかします。
この方向には、時空のQUERIED future Pointで、3Dシーンの進化する構造をキャプチャする一般占有率を予測することにより統一された表現を学習する幾何学的およびセマンティックな自己監視前の前訓練方法であるGaspを提案します。
(2)エゴの占有、環境を通るエゴ車のパスのモデリング。
(3)Vision Foundationモデルから蒸留高レベルの機能。
生のセンサー測定の代わりに幾何学的およびセマンティック4D占有フィールドをモデル化することにより、モデルは環境とその進化の構造化された一般化可能な表現を時間とともに学習します。
複数の自律運転ベンチマークでGaspを検証し、セマンティック占有率の予測、オンラインマッピング、および自我軌道予測の大幅な改善を示しています。
我々の結果は、継続的な4D幾何学的およびセマンティック占有率予測が自律運転のためのスケーラブルで効果的なトレーニング前パラダイムを提供することを示しています。
コードと追加の視覚化については、\ href {https://research.zenseact.com/publications/gasp/を参照してください。

要約(オリジナル)

Self-supervised pre-training based on next-token prediction has enabled large language models to capture the underlying structure of text, and has led to unprecedented performance on a large array of tasks when applied at scale. Similarly, autonomous driving generates vast amounts of spatiotemporal data, alluding to the possibility of harnessing scale to learn the underlying geometric and semantic structure of the environment and its evolution over time. In this direction, we propose a geometric and semantic self-supervised pre-training method, GASP, that learns a unified representation by predicting, at any queried future point in spacetime, (1) general occupancy, capturing the evolving structure of the 3D scene; (2) ego occupancy, modeling the ego vehicle path through the environment; and (3) distilled high-level features from a vision foundation model. By modeling geometric and semantic 4D occupancy fields instead of raw sensor measurements, the model learns a structured, generalizable representation of the environment and its evolution through time. We validate GASP on multiple autonomous driving benchmarks, demonstrating significant improvements in semantic occupancy forecasting, online mapping, and ego trajectory prediction. Our results demonstrate that continuous 4D geometric and semantic occupancy prediction provides a scalable and effective pre-training paradigm for autonomous driving. For code and additional visualizations, see \href{https://research.zenseact.com/publications/gasp/.

arxiv情報

著者 William Ljungbergh,Adam Lilja,Adam Tonderski. Arvid Laveno Ling,Carl Lindström,Willem Verbeke,Junsheng Fu,Christoffer Petersson,Lars Hammarstrand,Michael Felsberg
発行日 2025-03-19 20:00:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | GASP: Unifying Geometric and Semantic Self-Supervised Pre-training for Autonomous Driving はコメントを受け付けていません

Robotic Paper Wrapping by Learning Force Control

要約

ラッピングペーパーを使用したロボットパッケージは、材料の複雑な変形特性のために大きな課題をもたらします。
パッケージングプロセス自体には、主に紙の折りたたみや折り目の作成として分類される複数のステップが含まれます。
ロボットの腕の軌跡または力ベクトルの小さな逸脱は、材料特性の変動によって悪化する紙の引き裂きやしわにつながる可能性があります。
この研究では、模倣学習と強化学習を組み合わせて、ロボットがパッケージングプロセスの各ステップを効率的に実行できるようにする新しいフレームワークを紹介します。
このフレームワークにより、ロボットは、人間のデモンストレーションに基づいて、ツールセンターポイント(TCP)の近似軌跡をたどりながら、力制御パラメーターを最適化して、包装紙の材料が可変的であっても、引き裂きやしわを防ぐことができます。
提案された方法は、アブレーション研究を通じて検証され、涙としわの速度が大幅に減少し、タスクの完了が成功したことが示されました。
さらに、力制御戦略は、さまざまなラッピングペーパー材料にわたって適応可能であり、ターゲットオブジェクトのサイズのバリエーションに対して堅牢であることが証明されました。

要約(オリジナル)

Robotic packaging using wrapping paper poses significant challenges due to the material’s complex deformation properties. The packaging process itself involves multiple steps, primarily categorized as folding the paper or creating creases. Small deviations in the robot’s arm trajectory or force vector can lead to tearing or wrinkling of the paper, exacerbated by the variability in material properties. This study introduces a novel framework that combines imitation learning and reinforcement learning to enable a robot to perform each step of the packaging process efficiently. The framework allows the robot to follow approximate trajectories of the tool-center point (TCP) based on human demonstrations while optimizing force control parameters to prevent tearing or wrinkling, even with variable wrapping paper materials. The proposed method was validated through ablation studies, which demonstrated successful task completion with a significant reduction in tear and wrinkle rates. Furthermore, the force control strategy proved to be adaptable across different wrapping paper materials and robust against variations in the size of the target object.

arxiv情報

著者 Hiroki Hanai,Takuya Kiyokawa,Weiwei Wan,Kensuke Harada
発行日 2025-03-19 20:45:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO | Robotic Paper Wrapping by Learning Force Control はコメントを受け付けていません

Capturing a Moving Target by Two Robots in the F2F Model

要約

移動ターゲットを無限の実際のラインでキャプチャするための検索問題を調査します。
2つの自律的なモバイルロボット(1の最大速度で移動できます)が最初に原点に配置されますが、最初はオリジンから離れた距離$ d $に忘れられない移動ターゲットが配置されます。
ロボットは任意の方向にラインに沿って移動できますが、ターゲットは忘れられず、方向を変えることができず、一定の速度$ v $で起源に向かって離れて移動します。
私たちの目的は、2つのロボットがターゲットをキャプチャする効率的なアルゴリズムを設計することです。
ターゲットは、両方のロボットがそれと共同で配置されている場合にのみキャプチャされます。
ロボットは互いに対面(F2F)のみ通信します。つまり、ターゲットは忘れられず、通信能力がない一方で、共同住宅の場合にのみ情報を交換できることを意味します。
さまざまな知識シナリオの下でアルゴリズムを設計します。これは、ロボットが開始距離$ d $、動きの方向(原点に向かう、または離れている)、およびターゲットの速度$ v $についての事前知識を考慮しています。
アルゴリズムの効率の尺度として、競合比を使用します。これは、フル知識モデルのキャプチャ時間に対する知識が限られているアルゴリズムのキャプチャ時間の比率です。
分析では、移動方向の変化のコストに留意し、最大3つの方向の変化(ターン)でターゲットのキャプチャを達成する方法を示します。

要約(オリジナル)

We study a search problem on capturing a moving target on an infinite real line. Two autonomous mobile robots (which can move with a maximum speed of 1) are initially placed at the origin, while an oblivious moving target is initially placed at a distance $d$ away from the origin. The robots can move along the line in any direction, but the target is oblivious, cannot change direction, and moves either away from or toward the origin at a constant speed $v$. Our aim is to design efficient algorithms for the two robots to capture the target. The target is captured only when both robots are co-located with it. The robots communicate with each other only face-to-face (F2F), meaning they can exchange information only when co-located, while the target remains oblivious and has no communication capabilities. We design algorithms under various knowledge scenarios, which take into account the prior knowledge the robots have about the starting distance $d$, the direction of movement (either toward or away from the origin), and the speed $v$ of the target. As a measure of the efficiency of the algorithms, we use the competitive ratio, which is the ratio of the capture time of an algorithm with limited knowledge to the capture time in the full-knowledge model. In our analysis, we are mindful of the cost of changing direction of movement, and show how to accomplish the capture of the target with at most three direction changes (turns).

arxiv情報

著者 Khaled Jawhar,Evangelos Kranakis
発行日 2025-03-19 20:53:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.DC, cs.RO | Capturing a Moving Target by Two Robots in the F2F Model はコメントを受け付けていません