A Study on Human-Swarm Interaction: A Framework for Assessing Situation Awareness and Task Performance

要約

このペーパーでは、動的環境での状況認識を測定する人間の群れ相互作用研究のフレームワークを紹介します。
タブレットベースのインターフェイスは、フレームワークで導入された概念を実装することにより、ユーザー調査用に開発されました。ここでは、オペレーターが単一ターゲット検索タスクでロボットの群れを導き、群れに知られていない有害セルをマークしました。
主観的および客観的な状況認識対策が使用され、ロボットがターゲットにどれだけ近いかに基づいてタスクのパフォーマンスが評価されました。
フレームワークにより、人間の群れ相互作用における状況認識の役割の構造化された調査が可能になり、試み全体でタスクパフォ​​ーマンスの向上などの重要な調査結果につながり、インターフェイスが学習可能であることを示す重要な調査結果につながり、セントロイドのアクティブロボットの位置が学習可能であることを示しました。
両方をサポートするインターフェイス。
これらの調査結果は、状況認識の概念を人間の群れ相互作用研究に統合するための構造化されたアプローチとして、私たちのフレームワークを検証し、状況認識とタスクのパフォーマンスを評価するための体系的な方法を提供します。
フレームワークは、他の群れ研究に適用して、インターフェイスの学習性を評価し、意味のあるタスクパフォ​​ーマンスメトリックを特定し、インターフェイス設計を改良して状況認識を高め、最終的に動的環境での人間の群れの相互作用を改善することができます。

要約(オリジナル)

This paper introduces a framework for human swarm interaction studies that measures situation awareness in dynamic environments. A tablet-based interface was developed for a user study by implementing the concepts introduced in the framework, where operators guided a robotic swarm in a single-target search task, marking hazardous cells unknown to the swarm. Both subjective and objective situation awareness measures were used, with task performance evaluated based on how close the robots were to the target. The framework enabled a structured investigation of the role of situation awareness in human swarm interaction, leading to key findings such as improved task performance across attempts, showing the interface was learnable, centroid active robot position proved to be a useful task performance metric for assessing situation awareness, perception and projection played a key role in task performance, highlighting their importance in interface design and both subjective and objective situation awareness influenced task performance, emphasizing the need for interfaces that support both. These findings validate our framework as a structured approach for integrating situation awareness concepts into human swarm interaction studies, offering a systematic way to assess situation awareness and task performance. The framework can be applied to other swarming studies to evaluate interface learnability, identify meaningful task performance metrics, and refine interface designs to enhance situation awareness, ultimately improving human swarm interaction in dynamic environments.

arxiv情報

著者 Wasura D. Wattearachchi,Erandi Lakshika,Kathryn Kasmarik,Michael Barlow
発行日 2025-03-19 00:51:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.HC, cs.RO | A Study on Human-Swarm Interaction: A Framework for Assessing Situation Awareness and Task Performance はコメントを受け付けていません

SNAIL Radar: A large-scale diverse benchmark for evaluating 4D-radar-based SLAM

要約

4Dレーダーは、厳しい天候や動的環境での堅牢性のために、自律システムの臭気とマッピングにますます好まれています。
ただし、既存のデータセットは、多くの場合、限られた領域をカバーし、通常、単一のプラットフォームを使用してキャプチャされます。
このギャップに対処するために、4Dレーダーベースのローカリゼーションとマッピング専用に設計された多様な大規模なデータセットを提示します。
このデータセットは、晴れた日、夜間、大雨などのさまざまな環境条件の下で、ハンドヘルドデバイス、eバイク、SUVの3つの異なるプラットフォームを使用して収集されました。
データ収集は、2023年9月から2024年2月までに発生し、植生キャンパスの道路や高速道路のトンネルなどの多様な設定を網羅しています。
各ルートは、場所認識評価を容易にするために複数回通過しました。
センサースイートには、3D LIDAR、4Dレーダー、ステレオカメラ、消費者グレードのIMUS、およびGNSS/INSシステムが含まれていました。
センサーデータパケットは、凸面ハルベースのスムージングと相関ベースの修正を含む2段階のプロセスを使用して、GNSS時間に同期しました。
プラットフォームの参照モーションは、前方および後方処理をサポートするLIDAR慣性シーケンシャルローカライザーによって、Lidarスキャンを地上レーザースキャナー(TLS)ポイントクラウドマップに登録することにより生成されました。
バックワードパスにより、参照運動精度の詳細な定量的および定性的評価が可能になります。
データセットのユーティリティを実証するために、いくつかの最先端のレーダーベースの臭気と場所認識方法を評価し、レーダーベースのスラムの既存の課題を示しました。

要約(オリジナル)

4D radars are increasingly favored for odometry and mapping of autonomous systems due to their robustness in harsh weather and dynamic environments. Existing datasets, however, often cover limited areas and are typically captured using a single platform. To address this gap, we present a diverse large-scale dataset specifically designed for 4D radar-based localization and mapping. This dataset was gathered using three different platforms: a handheld device, an e-bike, and an SUV, under a variety of environmental conditions, including clear days, nighttime, and heavy rain. The data collection occurred from September 2023 to February 2024, encompassing diverse settings such as roads in a vegetated campus and tunnels on highways. Each route was traversed multiple times to facilitate place recognition evaluations. The sensor suite included a 3D lidar, 4D radars, stereo cameras, consumer-grade IMUs, and a GNSS/INS system. Sensor data packets were synchronized to GNSS time using a two-step process including a convex-hull-based smoothing and a correlation-based correction. The reference motion for the platforms was generated by registering lidar scans to a terrestrial laser scanner (TLS) point cloud map by a lidar inertial sequential localizer which supports forward and backward processing. The backward pass enables detailed quantitative and qualitative assessments of reference motion accuracy. To demonstrate the dataset’s utility, we evaluated several state-of-the-art radar-based odometry and place recognition methods, indicating existing challenges in radar-based SLAM.

arxiv情報

著者 Jianzhu Huai,Binliang Wang,Yuan Zhuang,Yiwen Chen,Qipeng Li,Yulong Han
発行日 2025-03-19 01:13:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, eess.SP | SNAIL Radar: A large-scale diverse benchmark for evaluating 4D-radar-based SLAM はコメントを受け付けていません

Curiosity-Diffuser: Curiosity Guide Diffusion Models for Reliability

要約

ロボットインテリジェンスのボトルネックの1つは、コントロールモデルとは異なり、明確に定義された収束ドメインと安定性を欠いているニューラルネットワークモデルの不安定性です。
これは、物理的な世界で知性を適用する際のリスクにつながります。
具体的には、ニューラルネットワークに基づく模倣ポリシーは幻覚を生成し、実際のアプリケーションの安全性に影響を与える不正確な行動につながる可能性があります。
この問題に対処するために、このペーパーでは、好奇心を低下させる軌跡を生成するために条件付き拡散モデルを導くことを目的とした、好奇心拡散装置を提案し、それによって政策の信頼性が向上します。
コアのアイデアは、ランダムネットワーク蒸留(RND)Curiosity Moduleを使用して、モデルの動作がトレーニングデータと整合するかどうかを評価し、分類器ガイダンスの拡散により好奇心を最小限に抑えて、推論中の過剰な一般化を減らすことです。
さらに、信頼性の学習に関する研究を容易にするために、生成された動作とトレーニングデータセットの類似性を測定し、ポリシーの信頼性を評価するための計算効率の高いメトリックを提案します。
最後に、シミュレーションは、提案された方法のさまざまなシナリオへの有効性と適用性を検証し、Curiosity-Diffuserがタスクのパフォーマンスを大幅に改善し、トレーニングデータにより似た動作を生成することを示します。
この作業のコードは、github.com/carldegio/curisity-diffuserで入手できます

要約(オリジナル)

One of the bottlenecks in robotic intelligence is the instability of neural network models, which, unlike control models, lack a well-defined convergence domain and stability. This leads to risks when applying intelligence in the physical world. Specifically, imitation policy based on neural network may generate hallucinations, leading to inaccurate behaviors that impact the safety of real-world applications. To address this issue, this paper proposes the Curiosity-Diffuser, aimed at guiding the conditional diffusion model to generate trajectories with lower curiosity, thereby improving the reliability of policy. The core idea is to use a Random Network Distillation (RND) curiosity module to assess whether the model’s behavior aligns with the training data, and then minimize curiosity by classifier guidance diffusion to reduce overgeneralization during inference. Additionally, we propose a computationally efficient metric for evaluating the reliability of the policy, measuring the similarity between the generated behaviors and the training dataset, to facilitate research about reliability learning. Finally, simulation verify the effectiveness and applicability of the proposed method to a variety of scenarios, showing that Curiosity-Diffuser significantly improves task performance and produces behaviors that are more similar to the training data. The code for this work is available at: github.com/CarlDegio/Curiosity-Diffuser

arxiv情報

著者 Zihao Liu,Xing Liu,Yizhai Zhang,Zhengxiong Liu,Panfeng Huang
発行日 2025-03-19 02:25:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO | Curiosity-Diffuser: Curiosity Guide Diffusion Models for Reliability はコメントを受け付けていません

SemanticFlow: A Self-Supervised Framework for Joint Scene Flow Prediction and Instance Segmentation in Dynamic Environments

要約

ダイナミックトラフィックシーンの正確な認識は、高レベルの自律運転システムにとって重要であり、堅牢なオブジェクトモーション推定とインスタンスセグメンテーションを必要とします。
ただし、従来の方法は、それらを個別のタスクとして扱うことが多く、最適ではないパフォーマンス、空間的矛盾、および情報共有がないための複雑なシナリオの非効率性につながります。
このホワイトペーパーでは、シーンの流れとインスタンスセグメンテーションを同時に予測するためのマルチタスクセマンティックフローフレームワークを提案します。
この作業の斬新さは3つあります。1)粗から洗練された予測ベースのマルチタスクスキームの開発。静的背景と動的オブジェクトの初期粗いセグメンテーションを使用して、共有機能処理モジュールを介してモーション情報とセマンティック情報を改良するためのコンテキスト情報を提供します。
2)シーンフローの推定とインスタンスセグメンテーションのパフォーマンスを強化するための一連の損失関数を開発するが、トラフィックシーン内の静的オブジェクトと動的オブジェクトの両方の空間的および時間的一貫性を確保するのに役立ちます。
3)粗いセグメンテーションを利用して剛体オブジェクトを検出し、シーケンシャルフレーム間で変換マトリックスを計算し、自己監視ラベルの生成を可能にする自己監視学習スキームを開発します。
提案されたフレームワークは、Argoverse and Waymoデータセットで検証されており、たとえばセグメンテーションの精度、シーンフロー推定、計算効率で優れたパフォーマンスを示し、動的なシーン理解における自己監視方法の新しいベンチマークを確立します。

要約(オリジナル)

Accurate perception of dynamic traffic scenes is crucial for high-level autonomous driving systems, requiring robust object motion estimation and instance segmentation. However, traditional methods often treat them as separate tasks, leading to suboptimal performance, spatio-temporal inconsistencies, and inefficiency in complex scenarios due to the absence of information sharing. This paper proposes a multi-task SemanticFlow framework to simultaneously predict scene flow and instance segmentation of full-resolution point clouds. The novelty of this work is threefold: 1) developing a coarse-to-fine prediction based multi-task scheme, where an initial coarse segmentation of static backgrounds and dynamic objects is used to provide contextual information for refining motion and semantic information through a shared feature processing module; 2) developing a set of loss functions to enhance the performance of scene flow estimation and instance segmentation, while can help ensure spatial and temporal consistency of both static and dynamic objects within traffic scenes; 3) developing a self-supervised learning scheme, which utilizes coarse segmentation to detect rigid objects and compute their transformation matrices between sequential frames, enabling the generation of self-supervised labels. The proposed framework is validated on the Argoverse and Waymo datasets, demonstrating superior performance in instance segmentation accuracy, scene flow estimation, and computational efficiency, establishing a new benchmark for self-supervised methods in dynamic scene understanding.

arxiv情報

著者 Yinqi Chen,Meiying Zhang,Qi Hao,Guang Zhou
発行日 2025-03-19 02:43:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | SemanticFlow: A Self-Supervised Framework for Joint Scene Flow Prediction and Instance Segmentation in Dynamic Environments はコメントを受け付けていません

Project Jenkins: Turning Monkey Neural Data into Robotic Arm Movement, and Back

要約

Project Jenkinsは、脳の神経活動をロボットの動きにデコードする方法と、逆に、動きパターンを使用して合成神経データを生成する方法を探ります。
Jenkinsという名前のマカクサルの運動および運動前皮質領域から記録された実際のニューラルデータを使用して、デコード(脳信号をロボットアームの動きに変換)し、エンコード(特定の動きに対応する脳活動をシミュレートする)のモデルを開発します。
脳のシミュレーションと物理世界の間のインターフェースには、Koch V1.1リーダーとフォロワーロボットアームを使用しました。
ユーザーがジョイスティックの動きからリアルタイムで合成脳データを生成できるインタラクティブなWebコンソールを開発しました。
私たちの結果は、脳制御のロボット工学、補綴物、および正常な運動機能の向上に向けた一歩です。
脳の活動を正確にモデル化することにより、事前定義された動きを超えて一般化する柔軟な脳コンピューターインターフェイスに向けて一歩踏み出します。
研究コミュニティをサポートするために、合成データ生成と神経デコードの両方のためのオープンソースツールを提供し、再現性を促進し、進捗を加速させます。
このプロジェクトは、https://www.808808robots.com/projects/jenkinsで入手できます

要約(オリジナル)

Project Jenkins explores how neural activity in the brain can be decoded into robotic movement and, conversely, how movement patterns can be used to generate synthetic neural data. Using real neural data recorded from motor and premotor cortex areas of a macaque monkey named Jenkins, we develop models for decoding (converting brain signals into robotic arm movements) and encoding (simulating brain activity corresponding to a given movement). For the interface between the brain simulation and the physical world, we utilized Koch v1.1 leader and follower robotic arms. We developed an interactive web console that allows users to generate synthetic brain data from joystick movements in real time. Our results are a step towards brain-controlled robotics, prosthetics, and enhancing normal motor function. By accurately modeling brain activity, we take a step toward flexible brain-computer interfaces that generalize beyond predefined movements. To support the research community, we provide open source tools for both synthetic data generation and neural decoding, fostering reproducibility and accelerating progress. The project is available at https://www.808robots.com/projects/jenkins

arxiv情報

著者 Andrii Zahorodnii,Dima Yanovsky
発行日 2025-03-19 03:12:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO, eess.SP, q-bio.NC | Project Jenkins: Turning Monkey Neural Data into Robotic Arm Movement, and Back はコメントを受け付けていません

Geometric Iterative Approach for Efficient Inverse Kinematics and Planning of Continuum Robots with a Floating Base Under Environment Constraints

要約

浮遊塩基を備えた連続体ロボットは、医療手術や機器のメンテナンスで遭遇したものなど、限られたスペースで例外的な運用機能を示しています。
ただし、この分野では、動きや計画の問題のための低コストソリューションの開発と計画の問題を開発することは依然として重要な課題です。
このペーパーでは、幾何学的反復戦略方法の連続体ロボットへの適用を調査し、モーション計画のための2層の幾何学的反復戦略の改善に基づいてアルゴリズムを提案します。
まず、フローティングベースを備えたマルチセグメント腱駆動型の連続体ロボットの運動学と効果的なワークスペースを徹底的に研究します。
次に、任意のセグメント連続ロボットを解くための一般化された反復アルゴリズムは、連続体ロボットに適用した場合に同様の方法によって示される初期腕の形状依存性などの一連の問題に基づいて提案されます。
さらに、タスクシナリオは、環境要因を考慮したフォローリーダーのタスクに拡張され、さらに拡張されたアルゴリズムが提案されています。
同様の方法を備えたシミュレーション比較結果は、最初の腕の形状依存性を排除し、ソリューションの効率と精度を改善する際の提案された方法の有効性を示しています。
実験結果はさらに、改善された2層の幾何学的反復に基づく方法が、エンド位置の平均偏差約4 mm、1度以下の平均方向偏差、および平均的な時間と時間コストの減少と同様の方法と同様の方法での72.6 MSの減少の下で、浮遊ベースの連続体ロボットのモーション計画タスクに使用できることをさらに示しています。

要約(オリジナル)

Continuum robots with floating bases demonstrate exceptional operational capabilities in confined spaces, such as those encountered in medical surgeries and equipment maintenance. However, developing low-cost solutions for their motion and planning problems remains a significant challenge in this field. This paper investigates the application of geometric iterative strategy methods to continuum robots, and proposes the algorithm based on an improved two-layer geometric iterative strategy for motion planning. First, we thoroughly study the kinematics and effective workspace of a multi-segment tendon-driven continuum robot with a floating base. Then, generalized iterative algorithms for solving arbitrary-segment continuum robots are proposed based on a series of problems such as initial arm shape dependence exhibited by similar methods when applied to continuum robots. Further, the task scenario is extended to a follow-the-leader task considering environmental factors, and further extended algorithm are proposed. Simulation comparison results with similar methods demonstrate the effectiveness of the proposed method in eliminating the initial arm shape dependence and improving the solution efficiency and accuracy. The experimental results further demonstrate that the method based on improved two-layer geometric iteration can be used for motion planning task of a continuum robot with a floating base, under an average deviation of about 4 mm in the end position, an average orientation deviation of no more than 1 degree, and the reduction of average number of iterations and time cost is 127.4 iterations and 72.6 ms compared with similar methods, respectively.

arxiv情報

著者 Congjun Ma,Quan Xiao,Liangcheng Liu,Xingxing You,Songyi Dian
発行日 2025-03-19 03:12:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Geometric Iterative Approach for Efficient Inverse Kinematics and Planning of Continuum Robots with a Floating Base Under Environment Constraints はコメントを受け付けていません

Sensorized gripper for human demonstrations

要約

プログラミングの容易さは、構造化されていない環境でロボットを遍在する重要な要素です。
この作業では、ボックスアセンブリタスクでボックスの人間のデモンストレーションを記録するために使用される、既製の部品で構築されたセンサーグリッパーを提示します。
それぞれ短い間隔タイミングの試行が非常に少ないため、ロボットがタスクを正常に繰り返すことができることを示します。
操作性を最大化するために、最適なロボット位置を同時に解決しながら、ジョイントスペースソリューションを計算しながらロボットモーション生成にデカルトアプローチを採用します。
人間のデモの統計は、ガウス混合モデル(GMM)を使用して抽出され、ロボットはインピーダンスコントロールを使用して指揮されます。

要約(オリジナル)

Ease of programming is a key factor in making robots ubiquitous in unstructured environments. In this work, we present a sensorized gripper built with off-the-shelf parts, used to record human demonstrations of a box in box assembly task. With very few trials of short interval timings each, we show that a robot can repeat the task successfully. We adopt a Cartesian approach to robot motion generation by computing the joint space solution while concurrently solving for the optimal robot position, to maximise manipulability. The statistics of the human demonstration are extracted using Gaussian Mixture Models (GMM) and the robot is commanded using impedance control.

arxiv情報

著者 Sri Harsha Turlapati,Gautami Golani,Mohammad Zaidi Ariffin,Domenico Campolo
発行日 2025-03-19 03:24:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Sensorized gripper for human demonstrations はコメントを受け付けていません

Dynamic Open-Vocabulary 3D Scene Graphs for Long-term Language-Guided Mobile Manipulation

要約

モバイルロボットが動的な現実世界環境で長期的なタスクを実行できるようにすることは、特に人間とロボットの相互作用やロボット自身の行動により環境が頻繁に変化する場合、恐るべき課題です。
従来の方法は通常、静的なシーンを想定しており、これにより、継続的に変化する現実世界での適用性が制限されます。
これらの制限を克服するために、動的なオープンボキャブラリー3Dシーングラフを活用する新しいモバイル操作フレームワークであるDOVSGと、長期タスク実行のための言語誘導タスク計画モジュールを提示します。
DOVSGはRGB-Dシーケンスを入力として取り、オブジェクト検出にVision-Language Models(VLMS)を利用して、高レベルのオブジェクトセマンティック機能を取得します。
セグメント化されたオブジェクトに基づいて、低レベルの空間関係のために構造化された3Dシーングラフが生成されます。
さらに、シーングラフをローカルに更新するための効率的なメカニズムにより、ロボットはフルシーンの再構成を必要とせずに、相互作用中にグラフの部分を動的に調整できます。
このメカニズムは、動的環境で特に価値があり、ロボットがシーンの変更に継続的に適応し、長期的なタスクの実行を効果的にサポートできるようになります。
私たちは、さまざまな程度の手動修正で現実世界の環境でシステムを検証し、その有効性と長期的なタスクにおける優れたパフォーマンスを実証しました。
プロジェクトページは、https://bjhyzj.github.io/dovsg-webで入手できます。

要約(オリジナル)

Enabling mobile robots to perform long-term tasks in dynamic real-world environments is a formidable challenge, especially when the environment changes frequently due to human-robot interactions or the robot’s own actions. Traditional methods typically assume static scenes, which limits their applicability in the continuously changing real world. To overcome these limitations, we present DovSG, a novel mobile manipulation framework that leverages dynamic open-vocabulary 3D scene graphs and a language-guided task planning module for long-term task execution. DovSG takes RGB-D sequences as input and utilizes vision-language models (VLMs) for object detection to obtain high-level object semantic features. Based on the segmented objects, a structured 3D scene graph is generated for low-level spatial relationships. Furthermore, an efficient mechanism for locally updating the scene graph, allows the robot to adjust parts of the graph dynamically during interactions without the need for full scene reconstruction. This mechanism is particularly valuable in dynamic environments, enabling the robot to continually adapt to scene changes and effectively support the execution of long-term tasks. We validated our system in real-world environments with varying degrees of manual modifications, demonstrating its effectiveness and superior performance in long-term tasks. Our project page is available at: https://bjhyzj.github.io/dovsg-web.

arxiv情報

著者 Zhijie Yan,Shufei Li,Zuoxu Wang,Lixiu Wu,Han Wang,Jun Zhu,Lijiang Chen,Jihong Liu
発行日 2025-03-19 03:24:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Dynamic Open-Vocabulary 3D Scene Graphs for Long-term Language-Guided Mobile Manipulation はコメントを受け付けていません

Speed Optimization Algorithm based on Deterministic Markov Decision Process for Automated Highway Merge

要約

この研究では、自動化された高速道路マージの堅牢な最適化アルゴリズムを示しています。
マージシナリオは、エンドポイントに到達する前に他の車両に合わせてエゴ車両の速度を調整する必要があるため、自動運転の挑戦的なシーンの1つです。
次に、速度計画の問題を決定論的なマルコフ決定プロセスとしてモデル化します。
提案されたスキームは、プロセスの各状態値を計算し、アクションの最適なシーケンスを確実に導き出すことができます。
私たちのアプローチでは、加速の突然の変化を防ぐために、プロセスの作用としてジャークを採用します。
ただし、これにより状態空間が拡大されるため、リアルタイムの操作を実現する方法も検討します。
スキームを単純なアルゴリズムとインテリジェントドライバーモデルと比較しました。
シミュレーション環境でスキームを評価しただけでなく、現実世界のテストも実施しました。

要約(オリジナル)

This study presents a robust optimization algorithm for automated highway merge. The merging scenario is one of the challenging scenes in automated driving, because it requires adjusting ego vehicle’s speed to match other vehicles before reaching the end point. Then, we model the speed planning problem as a deterministic Markov decision process. The proposed scheme is able to compute each state value of the process and reliably derive the optimal sequence of actions. In our approach, we adopt jerk as the action of the process to prevent a sudden change of acceleration. However, since this expands the state space, we also consider ways to achieve a real-time operation. We compared our scheme with a simple algorithm with the Intelligent Driver Model. We not only evaluated the scheme in a simulation environment but also conduct a real world testing.

arxiv情報

著者 Takeru Goto,Kosuke Toda,Takayasu Kumano
発行日 2025-03-19 04:57:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Speed Optimization Algorithm based on Deterministic Markov Decision Process for Automated Highway Merge はコメントを受け付けていません

PRESTO: Fast Motion Planning Using Diffusion Models Based on Key-Configuration Environment Representation

要約

軌道最適化のために拡散モデルを使用して種子軌道を生成する学習ガイド付きモーション計画フレームワークを紹介します。
ワークスペースが与えられた場合、この方法は、タスク関連のキー構成のまばらなセットからなる環境表現を通して、構成空間(Cスペース)障害物を概算します。これは、拡散モデルへのコンディショニング入力として使用されます。
拡散モデルは、トレーニング中に滑らかで衝突のない軌跡を促進する正則化用語を統合し、軌道最適化により生成された種子軌道を改良して衝突セグメントを修正します。
私たちの実験結果は、c空間接地拡散モデルを通じて学習した高品質の軌跡前の事前が、狭いパス環境での衝突のない軌跡の効率的な生成を可能にし、以前の学習および計画ベースのベースラインを上回ることを示しています。
ビデオと追加の資料は、プロジェクトページのページにあります:https://kiwi-sherbet.github.io/presto。

要約(オリジナル)

We introduce a learning-guided motion planning framework that generates seed trajectories using a diffusion model for trajectory optimization. Given a workspace, our method approximates the configuration space (C-space) obstacles through an environment representation consisting of a sparse set of task-related key configurations, which is then used as a conditioning input to the diffusion model. The diffusion model integrates regularization terms that encourage smooth, collision-free trajectories during training, and trajectory optimization refines the generated seed trajectories to correct any colliding segments. Our experimental results demonstrate that high-quality trajectory priors, learned through our C-space-grounded diffusion model, enable the efficient generation of collision-free trajectories in narrow-passage environments, outperforming previous learning- and planning-based baselines. Videos and additional materials can be found on the project page: https://kiwi-sherbet.github.io/PRESTO.

arxiv情報

著者 Mingyo Seo,Yoonyoung Cho,Yoonchang Sung,Peter Stone,Yuke Zhu,Beomjoon Kim
発行日 2025-03-19 05:05:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | PRESTO: Fast Motion Planning Using Diffusion Models Based on Key-Configuration Environment Representation はコメントを受け付けていません