Virtual Guidance as a Mid-level Representation for Navigation with Augmented Reality

要約

自律的なナビゲーションのコンテキストでは、特にナビゲーション情報がビジョンや高レベルの言語の説明などの多様なモダリティから導き出される場合、動的環境でエージェントに抽象的なナビゲーションキューを効果的に伝えることが重要な課題をもたらします。
この問題に対処するために、「仮想ガイダンス」と呼ばれる新しい手法を紹介します。これは、非視覚的指導信号を視覚的に表すように設計されています。
これらの視覚的な手がかりは、エージェントのカメラビューにオーバーレイされ、理解できるナビゲーションガイダンスシグナルとして機能します。
仮想ガイダンスの概念を検証するために、シミュレートされた環境から現実世界への訓練されたポリシーの転送を可能にし、実際のシナリオで仮想ガイダンスの適応性を確保するSIMからリアルのフレームワークを提案します。
シミュレーションの詳細な実験を通じて、提案された方法を非視覚的ガイダンスベースラインと比較して比較します。
実験結果は、提案された仮想ガイダンスアプローチが複数のシナリオでベースラインメソッドを上回り、自律ナビゲーションタスクにおけるその有効性の明確な証拠を提供することを示しています。

要約(オリジナル)

In the context of autonomous navigation, effectively conveying abstract navigational cues to agents in dynamic environments presents significant challenges, particularly when navigation information is derived from diverse modalities such as both vision and high-level language descriptions. To address this issue, we introduce a novel technique termed `Virtual Guidance,’ which is designed to visually represent non-visual instructional signals. These visual cues are overlaid onto the agent’s camera view and served as comprehensible navigational guidance signals. To validate the concept of virtual guidance, we propose a sim-to-real framework that enables the transfer of the trained policy from simulated environments to real world, ensuring the adaptability of virtual guidance in practical scenarios. We evaluate and compare the proposed method against a non-visual guidance baseline through detailed experiments in simulation. The experimental results demonstrate that the proposed virtual guidance approach outperforms the baseline methods across multiple scenarios and offers clear evidence of its effectiveness in autonomous navigation tasks.

arxiv情報

著者 Hsuan-Kung Yang,Tsung-Chih Chiang,Jou-Min Liu,Ting-Ru Liu,Chun-Wei Huang,Tsu-Ching Hsiao,Chun-Yi Lee
発行日 2025-03-14 07:17:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, cs.RO | Virtual Guidance as a Mid-level Representation for Navigation with Augmented Reality はコメントを受け付けていません

Leveraging Semantic Graphs for Efficient and Robust LiDAR SLAM

要約

正確で堅牢な同時ローカリゼーションとマッピング(SLAM)は、環境の幾何学的特徴を活用することで通常達成される自律モバイルシステムにとって重要です。
セマンティクスを組み込むことで、SLAMのローカリゼーションの精度を高めるだけでなく、下流のナビゲーションと計画タスクの高度な認知機能を可能にするシーン表現が豊富にあります。
既存のポイントごとのセマンティックライダースラムメソッドは、多くの場合、効率性と一般化が不十分であるため、多様な現実世界のシナリオでは堅牢性が低下します。
この論文では、環境構造に固有の幾何学的、セマンティック、トポロジーの特性を効果的に活用するSG-SLAMという名前のセマンティックグラフ強化スラムフレームワークを提案します。
セマンティックグラフは、匂い測定障害中の堅牢な再局在化、正確なループ閉鎖、セマンティックグラフマップ構築など、スラムの重要な機能を促進する基本的なコンポーネントとして機能します。
私たちの方法では、1つのスレッドがオンライン臭気と再局在化に特化したデュアルスレッドアーキテクチャを採用していますが、もう1つのスレッドはループクロージャーを処理し、グラフの最適化をポーズをとり、マップの更新を処理します。
この設計により、当社の方法はリアルタイムで動作し、グローバルに一貫したセマンティックグラフマップとポイントクラウドマップを生成できます。
キッティ、ムルラン、アポロデータセット全体での方法を広範囲に評価し、結果は最新の方法と比較してその優位性を示しています。
私たちの方法は、https://github.com/nubot-nudt/sg-slamでリリースされました。

要約(オリジナル)

Accurate and robust simultaneous localization and mapping (SLAM) is crucial for autonomous mobile systems, typically achieved by leveraging the geometric features of the environment. Incorporating semantics provides a richer scene representation that not only enhances localization accuracy in SLAM but also enables advanced cognitive functionalities for downstream navigation and planning tasks. Existing point-wise semantic LiDAR SLAM methods often suffer from poor efficiency and generalization, making them less robust in diverse real-world scenarios. In this paper, we propose a semantic graph-enhanced SLAM framework, named SG-SLAM, which effectively leverages the geometric, semantic, and topological characteristics inherent in environmental structures. The semantic graph serves as a fundamental component that facilitates critical functionalities of SLAM, including robust relocalization during odometry failures, accurate loop closing, and semantic graph map construction. Our method employs a dual-threaded architecture, with one thread dedicated to online odometry and relocalization, while the other handles loop closure, pose graph optimization, and map update. This design enables our method to operate in real time and generate globally consistent semantic graph maps and point cloud maps. We extensively evaluate our method across the KITTI, MulRAN, and Apollo datasets, and the results demonstrate its superiority compared to state-of-the-art methods. Our method has been released at https://github.com/nubot-nudt/SG-SLAM.

arxiv情報

著者 Neng Wang,Huimin Lu,Zhiqiang Zheng,Hesheng Wang,Yun-Hui Liu,Xieyuanli Chen
発行日 2025-03-14 07:25:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Leveraging Semantic Graphs for Efficient and Robust LiDAR SLAM はコメントを受け付けていません

$\mathcal{D(R,O)}$ Grasp: A Unified Representation of Robot and Object Interaction for Cross-Embodiment Dexterous Grasping

要約

器用な把握は、ロボットの操作における基本的でありながら挑戦的なスキルであり、ロボットの手とオブジェクトの間の正確な相互作用を必要とします。
このホワイトペーパーでは、$ \ mathcal {d(r、o)} $ graspを提示します。これは、その把握ポーズとオブジェクトのロボットハンド間の相互作用をモデル化する新しいフレームワークであり、さまざまなロボットの手とオブジェクトのジオメトリに広範な一般化を可能にします。
私たちのモデルは、ロボットハンドの説明とオブジェクトポイントクラウドを入力として取得し、運動的に有効で安定した握りを効率的に予測し、多様なロボットの実施形態とオブジェクトジオメトリに対する強い適応性を示します。
シミュレートされた環境と現実世界の両方の環境で実施された広範な実験は、成功率、多様性を把握し、複数のロボットハンドにわたって推論速度を大幅に改善し、アプローチの有効性を検証します。
私たちの方法は、3つの異なる器用なロボットハンドでテストされた1秒未満でシミュレーションで87.53%の平均成功率を達成します。
Leaphandを使用した実際の実験では、この方法は89%の平均成功率も示しています。
$ \ mathcal {d(r、o)} $ graspは、複雑で多様な環境で器用な握るための堅牢なソリューションを提供します。
コード、付録、ビデオは、プロジェクトWebサイトhttps://nus-lins-lab.github.io/drograspweb/で入手できます。

要約(オリジナル)

Dexterous grasping is a fundamental yet challenging skill in robotic manipulation, requiring precise interaction between robotic hands and objects. In this paper, we present $\mathcal{D(R,O)}$ Grasp, a novel framework that models the interaction between the robotic hand in its grasping pose and the object, enabling broad generalization across various robot hands and object geometries. Our model takes the robot hand’s description and object point cloud as inputs and efficiently predicts kinematically valid and stable grasps, demonstrating strong adaptability to diverse robot embodiments and object geometries. Extensive experiments conducted in both simulated and real-world environments validate the effectiveness of our approach, with significant improvements in success rate, grasp diversity, and inference speed across multiple robotic hands. Our method achieves an average success rate of 87.53% in simulation in less than one second, tested across three different dexterous robotic hands. In real-world experiments using the LeapHand, the method also demonstrates an average success rate of 89%. $\mathcal{D(R,O)}$ Grasp provides a robust solution for dexterous grasping in complex and varied environments. The code, appendix, and videos are available on our project website at https://nus-lins-lab.github.io/drograspweb/.

arxiv情報

著者 Zhenyu Wei,Zhixuan Xu,Jingxiang Guo,Yiwen Hou,Chongkai Gao,Zhehao Cai,Jiayu Luo,Lin Shao
発行日 2025-03-14 07:49:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | $\mathcal{D(R,O)}$ Grasp: A Unified Representation of Robot and Object Interaction for Cross-Embodiment Dexterous Grasping はコメントを受け付けていません

A Benchmarking Study of Vision-based Robotic Grasping Algorithms

要約

明確なアプローチを備えたビジョンベースのロボットグラスピングアルゴリズムのベンチマーク研究を提示し、比較分析を提供します。
特に、文献から既存のベンチマークプロトコルを使用して2つのマシンラーニングベースと2つの分析アルゴリズムを比較し、さまざまな実験条件下でアルゴリズムの長所と短所を決定します。
これらの条件には、照明、バックグラウンドテクスチャ、異なるノイズレベルのカメラ、グリッパーのバリエーションが含まれます。
また、シミュレーションおよび実際のロボットで類似の実験を実行し、矛盾を提示します。
いくつかの実験は、同じプロトコルを使用して2つの異なる研究所でも実行され、結果の再現性をさらに分析します。
5040の実験で構成されるこの研究は、ロボット操作における体系的な実験の役割と課題に関する重要な洞察を提供し、パフォーマンスに影響を与える可能性のある要因を考慮することにより、新しいアルゴリズムの開発を導くと考えています。
実験録音とベンチマークソフトウェアは公開されています。

要約(オリジナル)

We present a benchmarking study of vision-based robotic grasping algorithms with distinct approaches, and provide a comparative analysis. In particular, we compare two machine-learning-based and two analytical algorithms using an existing benchmarking protocol from the literature and determine the algorithm’s strengths and weaknesses under different experimental conditions. These conditions include variations in lighting, background textures, cameras with different noise levels, and grippers. We also run analogous experiments in simulations and with real robots and present the discrepancies. Some experiments are also run in two different laboratories using same protocols to further analyze the repeatability of our results. We believe that this study, comprising 5040 experiments, provides important insights into the role and challenges of systematic experimentation in robotic manipulation, and guides the development of new algorithms by considering the factors that could impact the performance. The experiment recordings and our benchmarking software are publicly available.

arxiv情報

著者 Bharath K Rameshbabu,Sumukh S Balakrishna,Brian Flynn,Vinarak Kapoor,Adam Norton,Holly Yanco,Berk Calli
発行日 2025-03-14 08:03:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 68T99, cs.CV, cs.RO | A Benchmarking Study of Vision-based Robotic Grasping Algorithms はコメントを受け付けていません

Hand Over or Place On The Table? A Study On Robotic Object Delivery When The Recipient Is Occupied

要約

この調査では、ユーザーが別のタスクで占有されている場合の2つのロボットオブジェクト配信方法の2つのロボットオブジェクト配信方法のユーザーの主観的な経験を調査します。
タイピングゲームに従事している15人の参加者を含むユーザー調査では、テーブルの配置が、特に満足度、知覚された安全性、直感性の観点から、直接的な拳銃と比較してユーザーエクスペリエンスを大幅に向上させることが明らかになりました。
さらに、ハンドオーバーはタイピングパフォーマンスに悪影響を及ぼしましたが、すべての参加者は、配信方法としてテーブル配置の明確な好みを表明しました。
これらの調査結果は、ユーザーの破壊を最小限に抑える必要があるシナリオでのテーブル配置の利点を強調しています。

要約(オリジナル)

This study investigates the subjective experiences of users in two robotic object delivery methods: direct handover and table placement, when users are occupied with another task. A user study involving 15 participants engaged in a typing game revealed that table placement significantly enhances user experience compared to direct handovers, particularly in terms of satisfaction, perceived safety and intuitiveness. Additionally, handovers negatively impacted typing performance, while all participants expressed a clear preference for table placement as the delivery method. These findings highlight the advantages of table placement in scenarios requiring minimal user disruption.

arxiv情報

著者 Thieu Long Phan,Akansel Cosgun
発行日 2025-03-14 08:25:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.HC, cs.RO | Hand Over or Place On The Table? A Study On Robotic Object Delivery When The Recipient Is Occupied はコメントを受け付けていません

GAIPAT -Dataset on Human Gaze and Actions for Intent Prediction in Assembly Tasks

要約

データセットの主な目的は、ハマンコボット相互作用の効率と安全性を大幅に向上させることを目的として、コボットで共有作業環境での人間の行動と視線の間の結合をよりよく理解することです。
より広く、視線パターンを物理的アクションとリンクすることにより、データセットは、アセンブリタスクのコンテキストでの認知プロセスと注意力学に関する貴重な洞察を提供します。
提案されたデータセットには、シミュレートされた産業アセンブリタスク中に記録された約80人の参加者からの視線とアクションデータが含まれています。
タスクは、参加者が教育の構成要素を操作した制御されたシナリオを使用してシミュレートされました。
視線データは、2つの異なる視線追跡セットアップを使用して収集されました。これは、座り、立っている2つのポジションで働いていました。

要約(オリジナル)

The primary objective of the dataset is to provide a better understanding of the coupling between human actions and gaze in a shared working environment with a cobot, with the aim of signifcantly enhancing the effciency and safety of humancobot interactions. More broadly, by linking gaze patterns with physical actions, the dataset offers valuable insights into cognitive processes and attention dynamics in the context of assembly tasks. The proposed dataset contains gaze and action data from approximately 80 participants, recorded during simulated industrial assembly tasks. The tasks were simulated using controlled scenarios in which participants manipulated educational building blocks. Gaze data was collected using two different eye-tracking setups -head-mounted and remote-while participants worked in two positions: sitting and standing.

arxiv情報

著者 Maxence Grand,Damien Pellier,Francis Jambon
発行日 2025-03-14 08:32:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.HC, cs.RO | GAIPAT -Dataset on Human Gaze and Actions for Intent Prediction in Assembly Tasks はコメントを受け付けていません

LIX: Implicitly Infusing Spatial Geometric Prior Knowledge into Visual Semantic Segmentation for Autonomous Driving

要約

視覚セマンティックセグメンテーションのために二重エンコーダを使用してデータ融合ネットワークによって達成された印象的なパフォーマンスにもかかわらず、空間的な幾何学データが利用できない場合、それらは効果がありません。
データフュージョンの教師ネットワークによって取得された空間的幾何学的事前知識を暗黙的に単一モーダルの学生ネットワークに吹き込むことは、あまり探求されていない研究通りではありますが、実用的です。
この記事はこのトピックを掘り下げ、この問題に対処するために知識蒸留アプローチに頼ります。
「X」(lix)フレームワークを注入するための学習を紹介します。これは、ロジット蒸留と特徴の蒸留面の両方に新しい貢献をします。
分離された知識蒸留で単一の固定重量を使用することの制限を強調し、この問題の解決策としてロジットごとの動的ウェイトコントローラーを導入する数学的証拠を提示します。
さらに、2つの新しい技術を含む、適応的にレカリフォルションされた特徴蒸留アルゴリズムを開発します。カーネル回帰を介した特徴の再調整と、中心カーネルアライメントを介した詳細な特徴の一貫性の定量化です。
さまざまなパブリックデータセットで中間融合および遅延融合ネットワークで実施された広範な実験は、定量的評価と定性的評価の両方を提供し、他の最先端のアプローチと比較した場合、LIXフレームワークの優れたパフォーマンスを実証します。

要約(オリジナル)

Despite the impressive performance achieved by data-fusion networks with duplex encoders for visual semantic segmentation, they become ineffective when spatial geometric data are not available. Implicitly infusing the spatial geometric prior knowledge acquired by a data-fusion teacher network into a single-modal student network is a practical, albeit less explored research avenue. This article delves into this topic and resorts to knowledge distillation approaches to address this problem. We introduce the Learning to Infuse ”X” (LIX) framework, with novel contributions in both logit distillation and feature distillation aspects. We present a mathematical proof that underscores the limitation of using a single, fixed weight in decoupled knowledge distillation and introduce a logit-wise dynamic weight controller as a solution to this issue. Furthermore, we develop an adaptively-recalibrated feature distillation algorithm, including two novel techniques: feature recalibration via kernel regression and in-depth feature consistency quantification via centered kernel alignment. Extensive experiments conducted with intermediate-fusion and late-fusion networks across various public datasets provide both quantitative and qualitative evaluations, demonstrating the superior performance of our LIX framework when compared to other state-of-the-art approaches.

arxiv情報

著者 Sicen Guo,Ziwei Long,Zhiyuan Wu,Qijun Chen,Ioannis Pitas,Rui Fan
発行日 2025-03-14 09:24:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, cs.RO | LIX: Implicitly Infusing Spatial Geometric Prior Knowledge into Visual Semantic Segmentation for Autonomous Driving はコメントを受け付けていません

Ergodic exploration of dynamic distribution

要約

この研究では、動的環境で検索ミッションを実行するという課題に取り組んでいます。特に、動きが流れ場によって決定されるターゲットを漂うターゲットについて説明します。
これは、2つの部分的な微分方程式を統合する動的システムを通じて達成されます。1つは確率分布のダイナミクスと不確実性を支配するもの、もう1つはエルゴジック多因子検索の潜在的なフィールドを調節することです。
ターゲット確率フィールドは、環境によって課され、センシングの取り組みを達成したターゲットダイナミクスに応じて進化し、潜在的なフィールド勾配によって導かれた複数のロボットエージェントによって調査されます。
提案された方法論は、2つのシミュレートされた検索シナリオでテストされました。そのうちの1つは合成生成されたドメインを備えており、エージェントの範囲にわたって静的なターゲット確率を備えたベースラインメソッドと比較して、より良いパフォーマンスを紹介します。
2番目の検索シナリオは、検索開始が遅れ、検索が複数のロボット飛行ミッションで実行される現実的なSea Search and Rescueミッションを表し、ターゲットドリフトの不確実性補償の手順が実証されています。
さらに、提案された方法は、既知の検出/センシングパラメーターに基づいて、独立して見つかったターゲットの実際の数と相関する正確な調査完了メトリックを提供します。

要約(オリジナル)

This research addresses the challenge of performing search missions in dynamic environments, particularly for drifting targets whose movement is dictated by a flow field. This is accomplished through a dynamical system that integrates two partial differential equations: one governing the dynamics and uncertainty of the probability distribution, and the other regulating the potential field for ergodic multi-agent search. The target probability field evolves in response to the target dynamics imposed by the environment and accomplished sensing efforts, while being explored by multiple robot agents guided by the potential field gradient. The proposed methodology was tested on two simulated search scenarios, one of which features a synthetically generated domain and showcases better performance when compared to the baseline method with static target probability over a range of agent to flow field velocity ratios. The second search scenario represents a realistic sea search and rescue mission where the search start is delayed, the search is performed in multiple robot flight missions, and the procedure for target drift uncertainty compensation is demonstrated. Furthermore, the proposed method provides an accurate survey completion metric, based on the known detection/sensing parameters, that correlates with the actual number of targets found independently.

arxiv情報

著者 Luka Lanča,Karlo Jakac,Sylvain Calinon,Stefan Ivić
発行日 2025-03-14 09:33:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, math.DS, math.OC | Ergodic exploration of dynamic distribution はコメントを受け付けていません

Prof. Robot: Differentiable Robot Rendering Without Static and Self-Collisions

要約

微分可能なレンダリングは、ロボット工学の分野で大きな注目を集めており、微分可能なロボットレンダリングは、画像空間監督からロボットアクションを学習するための効果的なパラダイムとして浮上しています。
ただし、このアプローチにおける物理的な世界認識の欠如は、アクションの最適化中の潜在的な衝突につながる可能性があります。
この作業では、神経ロボット衝突分類器の学習を通じて衝突の物理的認識を組み込むことにより、以前の取り組みに関する新しい改善を紹介します。
これにより、ロボット自体だけでなく、静的で相互作用しない環境との衝突を回避するアクションの最適化が可能になります。
分類器による効果的な勾配の最適化を促進するために、根本的な問題を特定し、最適化のための一貫した勾配を確保するためにエイコナルの正則化を活用することを提案します。
当社のソリューションは、既存の微分可能なロボットレンダリングフレームワークにシームレスに統合でき、最適化のためにグラデーションを利用し、物理世界との相互作用の信頼性を向上させ、ロボット工学における微分可能なレンダリングの将来のアプリケーションの基盤を提供することができます。
定性的実験と定量的実験の両方が、以前のソリューションと比較して、私たちの方法の必要性と有効性を示しています。

要約(オリジナル)

Differentiable rendering has gained significant attention in the field of robotics, with differentiable robot rendering emerging as an effective paradigm for learning robotic actions from image-space supervision. However, the lack of physical world perception in this approach may lead to potential collisions during action optimization. In this work, we introduce a novel improvement on previous efforts by incorporating physical awareness of collisions through the learning of a neural robotic collision classifier. This enables the optimization of actions that avoid collisions with static, non-interactable environments as well as the robot itself. To facilitate effective gradient optimization with the classifier, we identify the underlying issue and propose leveraging Eikonal regularization to ensure consistent gradients for optimization. Our solution can be seamlessly integrated into existing differentiable robot rendering frameworks, utilizing gradients for optimization and providing a foundation for future applications of differentiable rendering in robotics with improved reliability of interactions with the physical world. Both qualitative and quantitative experiments demonstrate the necessity and effectiveness of our method compared to previous solutions.

arxiv情報

著者 Quanyuan Ruan,Jiabao Lei,Wenhao Yuan,Yanglin Zhang,Dekun Lu,Guiliang Liu,Kui Jia
発行日 2025-03-14 10:25:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | Prof. Robot: Differentiable Robot Rendering Without Static and Self-Collisions はコメントを受け付けていません

Online Context Learning for Socially Compliant Navigation

要約

ロボットのソーシャルナビゲーションは、さまざまな人的要因と環境コンテキストに適応する必要があります。
ただし、これらの要因とコンテキストは予測が困難であり、徹底的に列挙することはできないため、従来の学習ベースの方法は、長期および環境の展開におけるロボットの社会的属性を確保するのが困難です。
この手紙は、ロボットがオンラインで新しい社会環境に適応できるようにすることを目的とするオンラインコンテキスト学習方法を紹介します。
提案された方法は、2層構造を採用します。
最下層は、基本的なロボットナビゲーションコマンドの出力を確保するために、深い強化学習ベースの方法を使用して構築されています。
上層層は、オンラインロボット学習ベースの方法を使用して実装され、最下層で提案されたコントロールコマンドをソーシャル化します。
コミュニティ全体のシミュレーターを使用した実験は、私たちの方法が最先端のものよりも優れていることを示しています。
最も困難なシナリオでの実験結果は、私たちの方法が最先端のパフォーマンスを8%改善することを示しています。
提案された方法のソースコード、使用されたデータ、およびトレーニングごとのステップのツールは、https://github.com/nedzhaken/socsarl-olで公開されています。

要約(オリジナル)

Robot social navigation needs to adapt to different human factors and environmental contexts. However, since these factors and contexts are difficult to predict and cannot be exhaustively enumerated, traditional learning-based methods have difficulty in ensuring the social attributes of robots in long-term and cross-environment deployments. This letter introduces an online context learning method that aims to empower robots to adapt to new social environments online. The proposed method adopts a two-layer structure. The bottom layer is built using a deep reinforcement learning-based method to ensure the output of basic robot navigation commands. The upper layer is implemented using an online robot learning-based method to socialize the control commands suggested by the bottom layer. Experiments using a community-wide simulator show that our method outperforms the state-of-the-art ones. Experimental results in the most challenging scenarios show that our method improves the performance of the state-of-the-art by 8%. The source code of the proposed method, the data used, and the tools for the per-training step are publicly available at https://github.com/Nedzhaken/SOCSARL-OL.

arxiv情報

著者 Iaroslav Okunevich,Alexandre Lombard,Tomas Krajnik,Yassine Ruichek,Zhi Yan
発行日 2025-03-14 10:41:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | Online Context Learning for Socially Compliant Navigation はコメントを受け付けていません