Physical simulation of Marsupial UAV-UGV Systems Connected by a Variable-Length Hanging Tether

要約

このペーパーでは、UAVをUGVに接続して、調整可能な長さの吊りテザーのダイナミクスをモデル化できるシミュレーションフレームワークを紹介します。
このモデルには、UAV、UGV、およびウインチの間の相互作用が組み込まれているため、ロボットの相対的な動きに基づいて動的なテザー調整が可能になります。
シミュレーターの精度と信頼性は、実世界の実験との比較を含む広範な実験を通じて評価され、物理的な展開で観察された複雑なテザーダイナミクスを再現する能力を評価します。
結果は、特にテザー効果が重要な制約された環境で、シミュレーションが実際の動作と密接に整合することを示しています。
この作業は、テザー付きロボットシステムを研究するための検証済みのツールを提供し、モーションダイナミクスと制御戦略に関する貴重な洞察を提供します。

要約(オリジナル)

This paper presents a simulation framework able of modeling the dynamics of a hanging tether with adjustable length, connecting a UAV to a UGV. The model incorporates the interaction between the UAV, UGV, and a winch, allowing for dynamic tether adjustments based on the relative motion of the robots. The accuracy and reliability of the simulator are assessed through extensive experiments, including comparisons with real-world experiment, to evaluate its ability to reproduce the complex tether dynamics observed in physical deployments. The results demonstrate that the simulation closely aligns with real-world behavior, particularly in constrained environments where tether effects are significant. This work provides a validated tool for studying tethered robotic systems, offering valuable insights into their motion dynamics and control strategies.

arxiv情報

著者 Jose Enrique Maese,Fernando Caballero,Luis Merino
発行日 2025-02-24 09:44:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Physical simulation of Marsupial UAV-UGV Systems Connected by a Variable-Length Hanging Tether はコメントを受け付けていません

Unveiling the Potential of iMarkers: Invisible Fiducial Markers for Advanced Robotics

要約

Fiducialマーカーは、さまざまなロボットタスクで広く使用されており、ナビゲーションの強化、オブジェクト認識、シーンの理解が促進されます。
ロボットと拡張現実(AR)アプリケーションにとっての利点にもかかわらず、それらは人間に見えるため、環境の視覚的な美学を混乱させることが多く、非侵入的なユースケースには適さないものです。
このギャップに対処するために、このペーパーでは、「特殊なセンサーを装備したロボットだけが検出できる」「Imarkers」で控えめなfiducialマーカーを提示します。
これらのマーカーは、生産において高い柔軟性を提供し、視認性の範囲のカスタマイズと、さまざまな要求に合わせてエンコードアルゴリズムを可能にします。
このペーパーでは、イマーカーを検出するために開発されたハードウェア設計とソフトウェアアルゴリズムも紹介し、検出段階と認識段階で適応性と堅牢性を強調しています。
さまざまな評価により、従来の(印刷された)ファイディアマーカーと比較してImarkersの有効性が実証されており、多様なロボット工学シナリオでの適用性が確認されました。

要約(オリジナル)

Fiducial markers are widely used in various robotics tasks, facilitating enhanced navigation, object recognition, and scene understanding. Despite their advantages for robots and Augmented Reality (AR) applications, they often disrupt the visual aesthetics of environments because they are visible to humans, making them unsuitable for non-intrusive use cases. To address this gap, this paper presents ‘iMarkers’-innovative, unobtrusive fiducial markers detectable exclusively by robots equipped with specialized sensors. These markers offer high flexibility in production, allowing customization of their visibility range and encoding algorithms to suit various demands. The paper also introduces the hardware designs and software algorithms developed for detecting iMarkers, highlighting their adaptability and robustness in the detection and recognition stages. Various evaluations have demonstrated the effectiveness of iMarkers compared to conventional (printed) and blended fiducial markers and confirmed their applicability in diverse robotics scenarios.

arxiv情報

著者 Ali Tourani,Deniz Isinsu Avsar,Hriday Bavle,Jose Luis Sanchez-Lopez,Jan Lagerwall,Holger Voos
発行日 2025-02-24 10:27:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO, I.2.10 | Unveiling the Potential of iMarkers: Invisible Fiducial Markers for Advanced Robotics はコメントを受け付けていません

Evolution 6.0: Evolving Robotic Capabilities Through Generative Design

要約

生成AIによって駆動されるロボット工学の進化を表す新しい概念であるEvolution 6.0を提案します。
ロボットに人間が要求するタスクを達成するために必要なツールがない場合、必要な機器を自律的に設計し、それらを使用して目標を達成する方法を学びます。
Evolution 6.0は、Vision-Language Models(VLMS)、Vision-Language Action(VLA)モデル、およびツール設計とタスク実行のためのテキストから3Dの生成モデルを搭載した自律的なロボットシステムです。
このシステムは、視覚データとテキストデータからタスク固有のツールを製造するツール生成モジュールと、自然言語の指示をロボットアクションに変換するアクション生成モジュールの2つの重要なモジュールで構成されています。
環境理解用のQWENVLM、タスク実行のためのOpenVLA、3Dツール生成のLlama-Meshを統合します。
評価の結果は、10秒の推論時間と、物理的および視覚的一般化で83.5%、動きの一般化で70%、意味一般化で37%を達成するためのツール生成の90%の成功率を示しています。
将来の改善により、二マニュアル操作、タスク機能の拡大、環境解釈の強化に焦点を当て、実際の適応性を向上させます。

要約(オリジナル)

We propose a new concept, Evolution 6.0, which represents the evolution of robotics driven by Generative AI. When a robot lacks the necessary tools to accomplish a task requested by a human, it autonomously designs the required instruments and learns how to use them to achieve the goal. Evolution 6.0 is an autonomous robotic system powered by Vision-Language Models (VLMs), Vision-Language Action (VLA) models, and Text-to-3D generative models for tool design and task execution. The system comprises two key modules: the Tool Generation Module, which fabricates task-specific tools from visual and textual data, and the Action Generation Module, which converts natural language instructions into robotic actions. It integrates QwenVLM for environmental understanding, OpenVLA for task execution, and Llama-Mesh for 3D tool generation. Evaluation results demonstrate a 90% success rate for tool generation with a 10-second inference time, and action generation achieving 83.5% in physical and visual generalization, 70% in motion generalization, and 37% in semantic generalization. Future improvements will focus on bimanual manipulation, expanded task capabilities, and enhanced environmental interpretation to improve real-world adaptability.

arxiv情報

著者 Muhammad Haris Khan,Artyom Myshlyaev,Artyom Lykov,Miguel Altamirano Cabrera,Dzmitry Tsetserukou
発行日 2025-02-24 10:34:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.NE, cs.RO | Evolution 6.0: Evolving Robotic Capabilities Through Generative Design はコメントを受け付けていません

Efficient Multi-agent Navigation with Lightweight DRL Policy

要約

この記事では、マルチエージェントシステムのディープ補強学習(DRL)に基づいたエンドツーエンドの衝突回避ポリシーを提示し、実際のアプリケーションでの促進結果を実証します。
特に、当社のポリシーは、生のライダー観測に基づいてエージェントの制御コマンドを計算します。
さらに、提案された基本モデルのパラメーターの数は140,000であり、パラメーターファイルのサイズは3.5 MBであるため、ロボットはCPUのみからのアクションを計算できます。
シミュレーションと現実世界の間のギャップをさらに埋めるために、物理ベースのシミュレーターに基づいたマルチエージェントトレーニングプラットフォームを提案します。
このポリシーは、密集した乱雑なトレーニング環境で、ポリシー勾配ベースのRLアルゴリズムでトレーニングされています。
いくつかの一般的なシナリオで、最適ではないアクションを選択するエージェントの問題に対処するために、新しい報酬関数が導入されています。
トレーニングに使用されるデータはシミュレーションプラットフォームからのみですが、ポリシーを正常に転送および実際のロボットに展開できます。
最後に、当社のポリシーは意図的な障害に効果的に対応し、衝突を回避します。
このWebサイトは、https://sites.google.com/view/xingrong2024efficient/%E9%A6%96%E9%A1%B5で入手できます。

要約(オリジナル)

In this article, we present an end-to-end collision avoidance policy based on deep reinforcement learning (DRL) for multi-agent systems, demonstrating encouraging outcomes in real-world applications. In particular, our policy calculates the control commands of the agent based on the raw LiDAR observation. In addition, the number of parameters of the proposed basic model is 140,000, and the size of the parameter file is 3.5 MB, which allows the robot to calculate the actions from the CPU alone. We propose a multi-agent training platform based on a physics-based simulator to further bridge the gap between simulation and the real world. The policy is trained on a policy-gradients-based RL algorithm in a dense and messy training environment. A novel reward function is introduced to address the issue of agents choosing suboptimal actions in some common scenarios. Although the data used for training is exclusively from the simulation platform, the policy can be successfully transferred and deployed in real-world robots. Finally, our policy effectively responds to intentional obstructions and avoids collisions. The website is available at https://sites.google.com/view/xingrong2024efficient/%E9%A6%96%E9%A1%B5.

arxiv情報

著者 Xingrong Diao,Jiankun Wang
発行日 2025-02-24 11:35:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | Efficient Multi-agent Navigation with Lightweight DRL Policy はコメントを受け付けていません

AgentRefine: Enhancing Agent Generalization through Refinement Tuning

要約

大規模な言語モデル(LLM)ベースのエージェントは、人間のような複雑なタスクを実行する能力を証明しています。
ただし、オープンソースのLLMSとGPTシリーズのような商用モデルとの間には、まだ大きなギャップがあります。
この論文では、命令チューニングを介してLLMSのエージェント一般化能力の改善に焦点を当てています。
まず、既存のエージェントトレーニングコーパスは、保留中の評価セットで満足のいく結果を示していますが、開催セットに一般化できないことを観察します。
これらのエージェントチューニング作業は、深刻なフォーマットエラーに直面しており、長い間同じ間違いで頻繁に詰まっています。
貧弱な一般化能力は、過剰適合からいくつかの手動エージェント環境への適応と新しい状況への適応の欠如から得られることを分析します。
彼らは間違ったアクションステップに苦労しており、経験から学ぶことはできませんが、既存の観察とアクションの関係を記憶するだけです。
Insightに触発されて、エージェントチューニングのための新しいAgentRefineフレームワークを提案します。
核となるアイデアは、モデルが軌道での観察を介して間違いを修正することを学ぶことを可能にすることです。
具体的には、多様な環境とタスクを包含するエージェント合成フレームワークを提案し、環境フィードバックに従ってエラーアクションを改善するように強力なLLMを促します。
AgentRefineは、多様なエージェントタスクの一般化能力の観点から、最先端のエージェント調整作業よりも大幅に優れています。
また、摂動に直面している堅牢性が向上し、推論で多様な思考を生成できます。
私たちの調査結果は、エージェントの一般化と自己修正の間の相関を確立し、将来の研究のための新しいパラダイムを提供します。

要約(オリジナル)

Large Language Model (LLM) based agents have proved their ability to perform complex tasks like humans. However, there is still a large gap between open-sourced LLMs and commercial models like the GPT series. In this paper, we focus on improving the agent generalization capabilities of LLMs via instruction tuning. We first observe that the existing agent training corpus exhibits satisfactory results on held-in evaluation sets but fails to generalize to held-out sets. These agent-tuning works face severe formatting errors and are frequently stuck in the same mistake for a long while. We analyze that the poor generalization ability comes from overfitting to several manual agent environments and a lack of adaptation to new situations. They struggle with the wrong action steps and can not learn from the experience but just memorize existing observation-action relations. Inspired by the insight, we propose a novel AgentRefine framework for agent-tuning. The core idea is to enable the model to learn to correct its mistakes via observation in the trajectory. Specifically, we propose an agent synthesis framework to encompass a diverse array of environments and tasks and prompt a strong LLM to refine its error action according to the environment feedback. AgentRefine significantly outperforms state-of-the-art agent-tuning work in terms of generalization ability on diverse agent tasks. It also has better robustness facing perturbation and can generate diversified thought in inference. Our findings establish the correlation between agent generalization and self-refinement and provide a new paradigm for future research.

arxiv情報

著者 Dayuan Fu,Keqing He,Yejie Wang,Wentao Hong,Zhuoma Gongque,Weihao Zeng,Wei Wang,Jingang Wang,Xunliang Cai,Weiran Xu
発行日 2025-02-24 12:42:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.RO | AgentRefine: Enhancing Agent Generalization through Refinement Tuning はコメントを受け付けていません

A Physics-Informed Machine Learning Framework for Safe and Optimal Control of Autonomous Systems

要約

自律システムが日常生活でより遍在するようになるにつれて、安全性を保証する高性能を確保することが重要です。
ただし、安全性とパフォーマンスは競合する目標である可能性があり、これにより、共同最適化が困難になります。
制約された強化学習(CRL)などの学習ベースの方法は、強力なパフォーマンスを達成しますが、安全性の制約として安全性が強制され、安全性が批判的な設定での使用を制限するため、正式な安全性の保証がありません。
逆に、Hamilton-Jacobi(HJ)Reachability Analysis and Control Barrier Functions(CBFS)などの正式な方法は、厳格な安全保証を提供しますが、しばしばパフォーマンスを無視して、過度に保守的なコントローラーをもたらします。
このギャップを埋めるために、州が制約した最適な制御問題としての安全性とパフォーマンスの共同最適化を定式化します。そこでは、コスト関数と安全要件を介してパフォーマンス目標がエンコードされ、状態の制約として課されます。
結果の値関数がハミルトン・ジャコビ・ベルマン(HJB)方程式を満たしていることを実証し、これを新しい物理学に基づいた機械学習フレームワークを使用して効率的に近似します。
さらに、学習エラーを定量化するためのコンフォーマル予測ベースの検証戦略を導入し、パフォーマンスの劣化に縛られた確率的エラーとともに、高い自信の安全価値関数を回復します。
いくつかのケーススタディを通じて、複雑で高次元の自律システムの安全でパフォーマンスのあるコントローラーのスケーラブルな学習を可能にする上で、提案されたフレームワークの有効性を実証します。

要約(オリジナル)

As autonomous systems become more ubiquitous in daily life, ensuring high performance with guaranteed safety is crucial. However, safety and performance could be competing objectives, which makes their co-optimization difficult. Learning-based methods, such as Constrained Reinforcement Learning (CRL), achieve strong performance but lack formal safety guarantees due to safety being enforced as soft constraints, limiting their use in safety-critical settings. Conversely, formal methods such as Hamilton-Jacobi (HJ) Reachability Analysis and Control Barrier Functions (CBFs) provide rigorous safety assurances but often neglect performance, resulting in overly conservative controllers. To bridge this gap, we formulate the co-optimization of safety and performance as a state-constrained optimal control problem, where performance objectives are encoded via a cost function and safety requirements are imposed as state constraints. We demonstrate that the resultant value function satisfies a Hamilton-Jacobi-Bellman (HJB) equation, which we approximate efficiently using a novel physics-informed machine learning framework. In addition, we introduce a conformal prediction-based verification strategy to quantify the learning errors, recovering a high-confidence safety value function, along with a probabilistic error bound on performance degradation. Through several case studies, we demonstrate the efficacy of the proposed framework in enabling scalable learning of safe and performant controllers for complex, high-dimensional autonomous systems.

arxiv情報

著者 Manan Tayal,Aditya Singh,Shishir Kolathaya,Somil Bansal
発行日 2025-02-24 12:56:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO, cs.SY, eess.SY | A Physics-Informed Machine Learning Framework for Safe and Optimal Control of Autonomous Systems はコメントを受け付けていません

Humanoid Whole-Body Locomotion on Narrow Terrain via Dynamic Balance and Reinforcement Learning

要約

人間は、多様な地形全体および極端な条件下で安定性を維持できるようにする繊細な動的バランスメカニズムを持っています。
ただし、最近の大きな進歩にもかかわらず、ヒューマノイドロボットの既存の移動アルゴリズムは、特に外部の知覚(視覚やLIDARなど)を欠く場合に、極端な環境を横断するのに苦労しています。
これは、現在の方法が歩行ベースまたは知覚条件の報酬に依存していることが多く、観察できない障害と突然のバランスの損失を処理するための効果的なメカニズムがないためです。
この課題に対処するために、ヒューマノイドロボットが極端な地形、特に狭い経路と予期せぬ障害を通過することを可能にする動的バランスと強化学習(RL)に基づいた新しい全身運動アルゴリズムを提案します。
具体的には、上部と下肢の調整されたアクションを達成することを目的とした全身俳優 – 批判的なフレームワークにおけるゼロモーメントポイント(ZMP)駆動型の報酬とタスク駆動型報酬の拡張尺度を活用することにより、動的バランスメカニズムを導入します。
堅牢な移動のため。
フルサイズのUnitree H1-2ロボットで実施された実験は、非常に狭い地形と外障害の下でバランスを維持する方法の能力を検証し、複雑な環境に対するロボットの適応性を高める上でその有効性を示しています。
ビデオはhttps://whole-body-loco.github.ioで提供されています。

要約(オリジナル)

Humans possess delicate dynamic balance mechanisms that enable them to maintain stability across diverse terrains and under extreme conditions. However, despite significant advances recently, existing locomotion algorithms for humanoid robots are still struggle to traverse extreme environments, especially in cases that lack external perception (e.g., vision or LiDAR). This is because current methods often rely on gait-based or perception-condition rewards, lacking effective mechanisms to handle unobservable obstacles and sudden balance loss. To address this challenge, we propose a novel whole-body locomotion algorithm based on dynamic balance and Reinforcement Learning (RL) that enables humanoid robots to traverse extreme terrains, particularly narrow pathways and unexpected obstacles, using only proprioception. Specifically, we introduce a dynamic balance mechanism by leveraging an extended measure of Zero-Moment Point (ZMP)-driven rewards and task-driven rewards in a whole-body actor-critic framework, aiming to achieve coordinated actions of the upper and lower limbs for robust locomotion. Experiments conducted on a full-sized Unitree H1-2 robot verify the ability of our method to maintain balance on extremely narrow terrains and under external disturbances, demonstrating its effectiveness in enhancing the robot’s adaptability to complex environments. The videos are given at https://whole-body-loco.github.io.

arxiv情報

著者 Weiji Xie,Chenjia Bai,Jiyuan Shi,Junkai Yang,Yunfei Ge,Weinan Zhang,Xuelong Li
発行日 2025-02-24 14:53:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO | Humanoid Whole-Body Locomotion on Narrow Terrain via Dynamic Balance and Reinforcement Learning はコメントを受け付けていません

A Reinforcement Learning Approach to Non-prehensile Manipulation through Sliding

要約

ロボットアプリケーションはますます多用途で動的なオブジェクトの処理を要求していますが、ほとんどの既存の手法は主に把握ベースの操作に焦点を当てており、非摂食タスクでの適用性を制限しています。
このニーズに対処するために、この研究では、特に表面上のオブジェクトをスライドするために、効率的な非摂食操作のための深い決定論的ポリシーグラデーション(DDPG)強化学習フレームワークを紹介します。
アルゴリズムは、水平面に硬く結合されたロボットアームの加速度を正確に制御することにより、線形軌道を生成し、表面の上にスライドするときにオブジェクトの相対的な操作を可能にします。
さらに、スライドプロセス中に摩擦力を動的に推定するために、2つの異なるアルゴリズムが開発されました。
これらのアルゴリズムは、各アクションの後にオンライン摩擦推定値を提供し、各アクションの後に重要なフィードバックとしてアクターモデルに戻されます。
このフィードバックメカニズムは、ポリシーの適応性と堅牢性を高め、さまざまな表面条件に応じてプラットフォームの加速をより正確に制御できます。
提案されたアルゴリズムは、シミュレーションと実際の実験を通じて検証されます。
結果は、提案されたフレームワークがさまざまな距離にわたってスライド操作を効果的に一般化し、さらに重要なことには、多様な摩擦特性を持つ異なる表面に適応することを示しています。
特に、訓練されたモデルは、ゼロショットSIMからリアル転送機能を示します。

要約(オリジナル)

Although robotic applications increasingly demand versatile and dynamic object handling, most existing techniques are predominantly focused on grasp-based manipulation, limiting their applicability in non-prehensile tasks. To address this need, this study introduces a Deep Deterministic Policy Gradient (DDPG) reinforcement learning framework for efficient non-prehensile manipulation, specifically for sliding an object on a surface. The algorithm generates a linear trajectory by precisely controlling the acceleration of a robotic arm rigidly coupled to the horizontal surface, enabling the relative manipulation of an object as it slides on top of the surface. Furthermore, two distinct algorithms have been developed to estimate the frictional forces dynamically during the sliding process. These algorithms provide online friction estimates after each action, which are fed back into the actor model as critical feedback after each action. This feedback mechanism enhances the policy’s adaptability and robustness, ensuring more precise control of the platform’s acceleration in response to varying surface condition. The proposed algorithm is validated through simulations and real-world experiments. Results demonstrate that the proposed framework effectively generalizes sliding manipulation across varying distances and, more importantly, adapts to different surfaces with diverse frictional properties. Notably, the trained model exhibits zero-shot sim-to-real transfer capabilities.

arxiv情報

著者 Hamidreza Raei,Elena De Momi,Arash Ajoudani
発行日 2025-02-24 14:56:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | A Reinforcement Learning Approach to Non-prehensile Manipulation through Sliding はコメントを受け付けていません

Co-Designing Augmented Reality Tools for High-Stakes Clinical Teamwork

要約

ヘルスケアワーカー(HCWS)は、拡張現実ヘッドマウントディスプレイ(AR-HMDS)を活用してチームワークを強化するのでしょうか?
AR-HMDは、ヘルスケアの設定でチームワークをサポートすることに大きな約束を示していますが、救急部門(ER)チームの設計はほとんど注目されていません。
ERは、手続き上のリコール、医療上の誤り、コミュニケーションのギャップなど、独自の課題を提示します。
このギャップに対処するために、私たちは医療従事者との参加型設計研究に従事し、AR-HMDがER手順中にチームワークを促進する可能性を深く理解しました。
我々の結果は、AR-HMDSを情報共有および情報網状システムとして使用して、知識のギャップを埋めることができること、およびERワークフローにAR-HMDを統合することに関する懸念があることを明らかにしています。
さまざまな専門知識を持つHCWを含む7つのロールベースのAR-HMDアプリケーションシナリオの設計上の推奨事項を提供し、複数の医療タスクにまたがっています。
私たちの研究により、デザイナーがハイステーク、チーム環境のための新しいAR-HMDアプリケーションの開発に着手するよう促すことを願っています。

要約(オリジナル)

How might healthcare workers (HCWs) leverage augmented reality head-mounted displays (AR-HMDs) to enhance teamwork? Although AR-HMDs have shown immense promise in supporting teamwork in healthcare settings, design for Emergency Department (ER) teams has received little attention. The ER presents unique challenges, including procedural recall, medical errors, and communication gaps. To address this gap, we engaged in a participatory design study with healthcare workers to gain a deep understanding of the potential for AR-HMDs to facilitate teamwork during ER procedures. Our results reveal that AR-HMDs can be used as an information-sharing and information-retrieval system to bridge knowledge gaps, and concerns about integrating AR-HMDs in ER workflows. We contribute design recommendations for seven role-based AR-HMD application scenarios involving HCWs with various expertise, working across multiple medical tasks. We hope our research inspires designers to embark on the development of new AR-HMD applications for high-stakes, team environments.

arxiv情報

著者 Angelique Taylor,Tauhid Tanjim,Huajie Cao,Jalynn Blu Nicoly,Jonathan I. Segal,Jonathan St. George,Soyon Kim,Kevin Ching,Francisco R. Ortega,Hee Rin Lee
発行日 2025-02-24 16:22:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.HC, cs.RO, H.5.1, J.3 | Co-Designing Augmented Reality Tools for High-Stakes Clinical Teamwork はコメントを受け付けていません

Hybrid Human-Machine Perception via Adaptive LiDAR for Advanced Driver Assistance Systems

要約

正確な環境認識は、高度なドライバー支援システム(ADA)にとって重要です。
光検出と範囲(LIDAR)システムがADAで重要な役割を果たします。
障害物を確実に検出し、交通の安全を確保することができます。
Lidar Sensingに関する既存の研究では、環境特性に基づいてLidarの解像度と範囲を適応させると機械の知覚が向上することが実証されています。
しかし、ADAの現在の適応型Lidarアプローチは、車両と人間のドライバーの認識能力を組み合わせる可能性を調査していません。これにより、検出性能がさらに向上する可能性があります。
この論文では、人間の視野外でライダーセンシングを強化するために、人間のドライバーの視覚的認識にライダーの特性を適応させる新しいシステムを提案します。
仮想環境カーラでシステムの概念実証プロトタイプを開発します。
当社のシステムは、ドライバーの視線上のリアルタイムデータを統合して、ドライバーが監視している環境の領域を特定します。
これにより、システムは、ドライバーが参加していないかもしれない周辺地域でのLIDARの範囲と解像度を動的に増やすことにより、LIDARリソースを最適化できます。
私たちのシミュレーションは、特に霧のような環境条件において、この視線を意識したLIDARがベースラインのスタンドアロンのLIDARと比較して検出性能を高めることを示しています。
当社のハイブリッドヒューマシンセンシングアプローチは、ADASアプリケーションのリアルタイムドライビングシナリオの安全性と状況認識の向上を提供する可能性があります。

要約(オリジナル)

Accurate environmental perception is critical for advanced driver assistance systems (ADAS). Light detection and ranging (LiDAR) systems play a crucial role in ADAS; they can reliably detect obstacles and help ensure traffic safety. Existing research on LiDAR sensing has demonstrated that adapting the LiDAR’s resolution and range based on environmental characteristics can improve machine perception. However, current adaptive LiDAR approaches for ADAS have not explored the possibility of combining the perception abilities of the vehicle and the human driver, which can potentially further enhance the detection performance. In this paper, we propose a novel system that adapts LiDAR characteristics to human driver’s visual perception to enhance LiDAR sensing outside human’s field of view. We develop a proof-of-concept prototype of the system in the virtual environment CARLA. Our system integrates real-time data on the driver’s gaze to identify regions in the environment that the driver is monitoring. This allows the system to optimize LiDAR resources by dynamically increasing the LiDAR’s range and resolution in peripheral areas that the driver may not be attending to. Our simulations show that this gaze-aware LiDAR enhances detection performance compared to a baseline standalone LiDAR, particularly in challenging environmental conditions like fog. Our hybrid human-machine sensing approach potentially offers improved safety and situational awareness in real-time driving scenarios for ADAS applications.

arxiv情報

著者 Federico Scarì,Nitin Jonathan Myers,Chen Quan,Arkady Zgonnikov
発行日 2025-02-24 16:44:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.HC, cs.RO | Hybrid Human-Machine Perception via Adaptive LiDAR for Advanced Driver Assistance Systems はコメントを受け付けていません