CODEI: Resource-Efficient Task-Driven Co-Design of Perception and Decision Making for Mobile Robots Applied to Autonomous Vehicles

要約

このペーパーでは、安全性、効率、コスト、エネルギー、計算要件、重量などのリソースの最小限の使用法のバランスをとるためのハードウェアとソフトウェアの最適な選択に焦点を当てることにより、モバイルロボットを設計するための統合の課題と戦略について説明します。
サンプリングベースのモーションプランナーの認識要件を定量化するために、占有クエリの概念を導入することにより、意思決定における認識とモーション計画の相互作用を強調します。
センサーとアルゴリズムのパフォーマンスは、幾何学的関係、オブジェクト特性、センサー解像度、環境条件などのさまざまな要因にわたる偽陰性率(FPR)および偽陽性率(FPR)を使用して評価されます。
知覚要件を知覚パフォーマンスと統合することにより、効率的なセンサーとアルゴリズムの選択と配置のために、整数線形プログラミング(ILP)アプローチが提案されています。
これは、ロボットボディ、モーションプランナー、認識パイプライン、コンピューティングユニットを含む共同設計最適化の基礎を形成します。
このフレームワークは、モバイルロボットの共同設計問題をCodeiとして解決し、具体化されたインテリジェンスの共同設計の略です。
都市シナリオ向けの自律車両(AV)の開発に関するケーススタディは、デザイナーに実用的な情報を提供し、複雑なタスクがリソースの需要をエスカレートすることを示しています。
この研究は、リソースの優先順位付けがセンサーの選択に影響を与えることを示しています。カメラは費用対効果の高い軽量設計に好まれ、LIDARセンサーはより良いエネルギーと計算効率のために選択されます。

要約(オリジナル)

This paper discusses the integration challenges and strategies for designing mobile robots, by focusing on the task-driven, optimal selection of hardware and software to balance safety, efficiency, and minimal usage of resources such as costs, energy, computational requirements, and weight. We emphasize the interplay between perception and motion planning in decision-making by introducing the concept of occupancy queries to quantify the perception requirements for sampling-based motion planners. Sensor and algorithm performance are evaluated using False Negative Rates (FPR) and False Positive Rates (FPR) across various factors such as geometric relationships, object properties, sensor resolution, and environmental conditions. By integrating perception requirements with perception performance, an Integer Linear Programming (ILP) approach is proposed for efficient sensor and algorithm selection and placement. This forms the basis for a co-design optimization that includes the robot body, motion planner, perception pipeline, and computing unit. We refer to this framework for solving the co-design problem of mobile robots as CODEI, short for Co-design of Embodied Intelligence. A case study on developing an Autonomous Vehicle (AV) for urban scenarios provides actionable information for designers, and shows that complex tasks escalate resource demands, with task performance affecting choices of the autonomy stack. The study demonstrates that resource prioritization influences sensor choice: cameras are preferred for cost-effective and lightweight designs, while lidar sensors are chosen for better energy and computational efficiency.

arxiv情報

著者 Dejan Milojevic,Gioele Zardini,Miriam Elser,Andrea Censi,Emilio Frazzoli
発行日 2025-03-13 12:12:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.AR, cs.CV, cs.RO, cs.SY, eess.SY, I.2.10 | CODEI: Resource-Efficient Task-Driven Co-Design of Perception and Decision Making for Mobile Robots Applied to Autonomous Vehicles はコメントを受け付けていません

ReVLA: Reverting Visual Domain Limitation of Robotic Foundation Models

要約

大規模な言語モデルの最近の進歩と大規模なロボットデータセットへのアクセスは、ロボットモデルのパラダイムシフトを引き起こし、それらをさまざまなタスク、シーン、ロボットのモダリティに適応できるジェネラリストに変換されました。
コミュニティにとって大きなステップは、さまざまなタスクで強力なパフォーマンスを示すオープンビジョン言語アクションモデルです。
この作業では、3つの既存のロボット基礎モデルの視覚的一般化機能を研究し、対応する評価フレームワークを提案します。
私たちの研究は、既存のモデルが視覚的な領域外シナリオに堅牢性を示さないことを示しています。
これは、トレーニングデータの限られた変動および/または壊滅的な忘却によって引き起こされる可能性があり、Vision Foundationモデルのドメインの制限につながります。
さらに、2つの事前に訓練されたVision Foundationモデルを使用しているOpenVLAを探索し、したがって、ドメイン外の実験に一般化することが期待されています。
ただし、深度回帰のタスクを満たすことができないことにより、dino-V2による壊滅的な忘却をOpenVLAに忘れてしまいます。
視覚壊滅的な忘却の前述の問題を克服するために、モデルの合併に基づいた漸進的なバックボーン反転アプローチを提案します。
これにより、視覚的な一般化能力を取り戻すために、最初のトレーニング中に視覚的なバックボーンを適応させる必要があるOpenVLAが可能になります。
この機能を取り戻すことにより、REVLAモデルは、視覚的なoodタスクでの把握と持ち上げのために、OpenVLAを77%、66%増加させることができます。

要約(オリジナル)

Recent progress in large language models and access to large-scale robotic datasets has sparked a paradigm shift in robotics models transforming them into generalists able to adapt to various tasks, scenes, and robot modalities. A large step for the community are open Vision Language Action models which showcase strong performance in a wide variety of tasks. In this work, we study the visual generalization capabilities of three existing robotic foundation models, and propose a corresponding evaluation framework. Our study shows that the existing models do not exhibit robustness to visual out-of-domain scenarios. This is potentially caused by limited variations in the training data and/or catastrophic forgetting, leading to domain limitations in the vision foundation models. We further explore OpenVLA, which uses two pre-trained vision foundation models and is, therefore, expected to generalize to out-of-domain experiments. However, we showcase catastrophic forgetting by DINO-v2 in OpenVLA through its failure to fulfill the task of depth regression. To overcome the aforementioned issue of visual catastrophic forgetting, we propose a gradual backbone reversal approach founded on model merging. This enables OpenVLA which requires the adaptation of the visual backbones during initial training — to regain its visual generalization ability. Regaining this capability enables our ReVLA model to improve over OpenVLA by a factor of 77% and 66% for grasping and lifting in visual OOD tasks .

arxiv情報

著者 Sombit Dey,Jan-Nico Zaech,Nikolay Nikolov,Luc Van Gool,Danda Pani Paudel
発行日 2025-03-13 12:18:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | ReVLA: Reverting Visual Domain Limitation of Robotic Foundation Models はコメントを受け付けていません

Unified Feedback Linearization for Nonlinear Systems with Dexterous and Energy-Saving Modes

要約

自由度と比較して多くの入力を備えたシステム(例:Mecanumホイールを備えたモバイルロボット)には、多くの場合、メインタスク(位置追跡など)を達成するために必要な最小限のエネルギー効率の入力と、追加の補助タスク(例えば方向追跡)を実現するために必要な一連のエネルギー入力が必要です。
この文字は、フィードバック線形化によって導出された統一制御スキームを提示します。これは、エネルギー効率の高い入力のみを使用してエネルギー効率の高い入力のみを使用して主要なタスクを追跡しながら、エネルギーを強制しながら、必要に応じて補助タスクを追跡するためにエネルギー促進入力を使用する器用なモードを追跡する2つのモードを切り替えることができます。
提案された制御は、主要なタスクの指数トラッキングを保証し、主なタスクに関連するダイナミクスは、先験的な未知のスイッチング信号とは無関係に進化することを保証します。
制御が器用モードで動作している場合、補助タスクの指数トラッキングも保証されます。
全方向性メカナムホイールロボットの数値シミュレーションは、提案されたアプローチの有効性を検証し、メインおよび補助タスクの指数トラッキング挙動に対するスイッチング信号の効果を示します。

要約(オリジナル)

Systems with a high number of inputs compared to the degrees of freedom (e.g. a mobile robot with Mecanum wheels) often have a minimal set of energy-efficient inputs needed to achieve a main task (e.g. position tracking) and a set of energy-intense inputs needed to achieve an additional auxiliary task (e.g. orientation tracking). This letter presents a unified control scheme, derived through feedback linearization, that can switch between two modes: an energy-saving mode, which tracks the main task using only the energy-efficient inputs while forcing the energy-intense inputs to zero, and a dexterous mode, which also uses the energy-intense inputs to track the auxiliary task as needed. The proposed control guarantees the exponential tracking of the main task and that the dynamics associated with the main task evolve independently of the a priori unknown switching signal. When the control is operating in dexterous mode, the exponential tracking of the auxiliary task is also guaranteed. Numerical simulations on an omnidirectional Mecanum wheel robot validate the effectiveness of the proposed approach and demonstrate the effect of the switching signal on the exponential tracking behavior of the main and auxiliary tasks.

arxiv情報

著者 Mirko Mizzoni,Pieter van Goor,Antonio Franchi
発行日 2025-03-13 12:23:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, math.OC | Unified Feedback Linearization for Nonlinear Systems with Dexterous and Energy-Saving Modes はコメントを受け付けていません

6D Object Pose Tracking in Internet Videos for Robotic Manipulation

要約

インターネットの指導ビデオから操作されたオブジェクトの一時的に一貫した6Dポーズ軌道を抽出しようとしています。
これは、制御されていないキャプチャ条件、微妙だが動的なオブジェクトの動き、および操作されたオブジェクトの正確なメッシュが不明であるという事実による現在の6Dポーズ推定方法の挑戦的なセットアップです。
これらの課題に対処するために、次の貢献を提示します。
まず、オブジェクト自体の事前知識なしに、入力画像内のオブジェクトの6Dポーズを推定する新しい方法を開発します。
このメソッドは、(i)大規模なモデルデータベースから描かれたオブジェクトに類似したCADモデルを取得すること、(ii)入力画像を取得したCADモデルを調整し、(iii)シーンに関してオブジェクトの絶対スケールを接地することによって進行します。
第二に、ビデオフレーム全体で検出されたオブジェクトを慎重に追跡することにより、インターネットビデオから滑らかな6Dオブジェクトの軌跡を抽出します。
抽出されたオブジェクトの軌跡は、軌跡の最適化を介してロボットマニピュレーターの構成空間にリターゲットされます。
第三に、YCB-VおよびHope-Videoデータセットに関する6Dポーズ推定方法、およびおおよその6Dオブジェクトの軌跡を手動で注釈を付けた教育ビデオの新しいデータセットを徹底的に評価して味付けします。
既存の最先端のRGB 6Dポーズ推定方法について大幅な改善を示します。
最後に、インターネットビデオから推定された6Dオブジェクトモーションを、仮想シミュレーターと現実世界のセットアップの両方で7軸ロボットマニピュレーターに転送できることを示します。
また、Epic-Kitchensデータセットから取得したエゴセントリックビデオに方法を適用し、具体化されたAIアプリケーションの可能性を示しています。

要約(オリジナル)

We seek to extract a temporally consistent 6D pose trajectory of a manipulated object from an Internet instructional video. This is a challenging set-up for current 6D pose estimation methods due to uncontrolled capturing conditions, subtle but dynamic object motions, and the fact that the exact mesh of the manipulated object is not known. To address these challenges, we present the following contributions. First, we develop a new method that estimates the 6D pose of any object in the input image without prior knowledge of the object itself. The method proceeds by (i) retrieving a CAD model similar to the depicted object from a large-scale model database, (ii) 6D aligning the retrieved CAD model with the input image, and (iii) grounding the absolute scale of the object with respect to the scene. Second, we extract smooth 6D object trajectories from Internet videos by carefully tracking the detected objects across video frames. The extracted object trajectories are then retargeted via trajectory optimization into the configuration space of a robotic manipulator. Third, we thoroughly evaluate and ablate our 6D pose estimation method on YCB-V and HOPE-Video datasets as well as a new dataset of instructional videos manually annotated with approximate 6D object trajectories. We demonstrate significant improvements over existing state-of-the-art RGB 6D pose estimation methods. Finally, we show that the 6D object motion estimated from Internet videos can be transferred to a 7-axis robotic manipulator both in a virtual simulator as well as in a real world set-up. We also successfully apply our method to egocentric videos taken from the EPIC-KITCHENS dataset, demonstrating potential for Embodied AI applications.

arxiv情報

著者 Georgy Ponimatkin,Martin Cífka,Tomáš Souček,Médéric Fourmy,Yann Labbé,Vladimir Petrik,Josef Sivic
発行日 2025-03-13 12:33:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | 6D Object Pose Tracking in Internet Videos for Robotic Manipulation はコメントを受け付けていません

A new metaheuristic approach for the art gallery problem

要約

問題の「ランドマークの最小数を伴うローカリゼーションと三部療法」では、3ガードとクラシックアートギャラリーの問題に直面しました。
アートギャラリーの問題の目標は、単純なポリゴン内のガードの最小数を見つけて、その全体を観察し、保護することです。
ロボット工学、電気通信などに多くのアプリケーションがあります。理論的には、アートギャラリーの問題を処理するためのアプローチがいくつかあります。
このペーパーでは、問題の最も基本的な状態をほぼ最適な方法で解決する粒子フィルターアルゴリズムに基づいた効率的な方法を提供します。
Bottinoらによって生成されたランダムポリゴンの実験結果。
\ cite {bottino2011nearly}は、新しい方法がより少ないまたは等しいガードでより正確であることを示しています。
さらに、実行時間を最小限に抑えるために、再サンプリングと粒子番号について説明します。

要約(オリジナル)

In the problem ‘Localization and trilateration with the minimum number of landmarks’, we faced the 3-Guard and classic Art Gallery Problems. The goal of the art gallery problem is to find the minimum number of guards within a simple polygon to observe and protect its entirety. It has many applications in robotics, telecommunications, etc. There are some approaches to handle the art gallery problem that is theoretically NP-hard. This paper offers an efficient method based on the Particle Filter algorithm which solves the most fundamental state of the problem in a nearly optimal manner. The experimental results on the random polygons generated by Bottino et al. \cite{bottino2011nearly} show that the new method is more accurate with fewer or equal guards. Furthermore, we discuss resampling and particle numbers to minimize the run time.

arxiv情報

著者 Bahram Sadeghi Bigham,Sahar Badri,Nazanin Padkan
発行日 2025-03-13 13:02:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 68-XX, A.0, cs.CG, cs.RO | A new metaheuristic approach for the art gallery problem はコメントを受け付けていません

A Generalized Adaptive Jacobian Controller for Soft Robots

要約

ソフトロボットの動きの非線形性とヒステリシスは、制御に課題をもたらしました。
Jacobianコントローラーは剛性のあるロボットコントローラーから転送され、簡潔さを示しますが、ソフトロボットの不適切な仮定は、小さなローカルエリアでのみ実現可能性を誘発します。
ニューラルネットワークのような正確なコントローラーは、遅延および非線形の動きに対処でき、高精度を達成しますが、データ量要件が高いとブラックボックスプロパティに苦しんでいます。
これらのアプローチに触発されて、ソフトロボット用の適応型一般化されたヤコビアンコントローラーを提案します。
このコントローラーは、Jacobianコントローラーの簡潔な形式によって構築されていますが、ソフトロボット工学に適したより多くの状態と独立したマトリックスが含まれます。
さらに、初期化は、ニューラルネットワークコントローラーからのモーターのせせらぎ戦略とバッチ最適化を活用します。
実験では、ヤコビアンコントローラー、ガウスプロセス回帰、コントローラーなどのオンラインコントローラーを最初に分析します。
実際の実験により、コントローラーはデータサンプルが少ない場合でもRNNコントローラーよりも優れていることを検証し、さまざまなコントロール周波数、柔らかさ、製造エラーなど、微調整なしでさまざまな状況に適応しています。
将来の作業には、コントローラー形式のオンライン調整と、より多くのシナリオでの適応性の検証が含まれる場合があります。

要約(オリジナル)

The nonlinearity and hysteresis of soft robot motions have posed challenges in control. The Jacobian controller is transferred from rigid robot controllers and exhibits conciseness, but the improper assumption of soft robots induces the feasibility only in a small local area. Accurate controllers like neural networks can deal with delayed and nonlinear motion, achieving high accuracy, but they suffer from the high data amount requirement and black-box property. Inspired by these approaches, we propose an adaptive generalized Jacobian controller for soft robots. This controller is constructed by the concise format of the Jacobian controller but includes more states and independent matrices, which is suitable for soft robotics. In addition, the initialization leverages the motor babbling strategy and batch optimization from neural network controllers. In experiments, we first analyze the online controllers, including the Jacobian controller, the Gaussian process regression, and our controller. Real experiments have validated that our controller outperforms the RNN controller even with fewer data samples, and it is adaptive to various situations without fine-tuning, like different control frequencies, softness, and even manufacturing errors. Future work may include online adjustment of the controller format and adaptability validation in more scenarios.

arxiv情報

著者 Zixi Chen,Xuyang Ren,Yuya Hamamatsu,Gastone Ciuti,Cesare Stefanini
発行日 2025-03-13 13:04:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | A Generalized Adaptive Jacobian Controller for Soft Robots はコメントを受け付けていません

Enhanced View Planning for Robotic Harvesting: Tackling Occlusions with Imitation Learning

要約

農業自動化では、固有の閉塞は、ロボット収穫のための大きな課題となっています。
カメラの視点を積極的に調整し、ターゲット作物の遮るもののない画像を積極的に調整するための新しい模倣学習ベースの視点計画アプローチを提案します。
従来の視点プランナーと既存の学習ベースの方法は、手動で設計された評価メトリックまたは報酬機能に依存しており、複雑で目に見えないシナリオに一般化するのに苦労しています。
私たちの方法では、トランス(ACT)アルゴリズムでチャンクするアクションを使用して、専門家のデモンストレーションから効果的なカメラモーションポリシーを学習します。
これにより、より滑らかでより正確で、閉塞されたターゲットを明らかにする、6度(6-DOF)の視点調整が継続的に可能になります。
農業シナリオとRGB-Dカメラを備えた6-DOFロボットアームを備えたシミュレートされた環境と実世界の両方の環境での広範な実験は、特に複雑な閉塞条件での方法の優れた成功率と効率性、および再プログラミングなしで異なる作物を一般化する能力を示しています。
この研究では、閉塞の課題に対する実用的な「デモンストレーションから学習」(LFD)ソリューションを提供し、最終的に自律的な収穫のパフォーマンスと生産性を高めることにより、ロボットの収穫を進めます。

要約(オリジナル)

In agricultural automation, inherent occlusion presents a major challenge for robotic harvesting. We propose a novel imitation learning-based viewpoint planning approach to actively adjust camera viewpoint and capture unobstructed images of the target crop. Traditional viewpoint planners and existing learning-based methods, depend on manually designed evaluation metrics or reward functions, often struggle to generalize to complex, unseen scenarios. Our method employs the Action Chunking with Transformer (ACT) algorithm to learn effective camera motion policies from expert demonstrations. This enables continuous six-degree-of-freedom (6-DoF) viewpoint adjustments that are smoother, more precise and reveal occluded targets. Extensive experiments in both simulated and real-world environments, featuring agricultural scenarios and a 6-DoF robot arm equipped with an RGB-D camera, demonstrate our method’s superior success rate and efficiency, especially in complex occlusion conditions, as well as its ability to generalize across different crops without reprogramming. This study advances robotic harvesting by providing a practical ‘learn from demonstration’ (LfD) solution to occlusion challenges, ultimately enhancing autonomous harvesting performance and productivity.

arxiv情報

著者 Lun Li,Hamidreza Kasaei
発行日 2025-03-13 13:12:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Enhanced View Planning for Robotic Harvesting: Tackling Occlusions with Imitation Learning はコメントを受け付けていません

HALO: Fault-Tolerant Safety Architecture For High-Speed Autonomous Racing

要約

高速自律レースの分野は近年、RoboraceやIndy Autonomous Challengeなどの競争の台頭が増加し、170 mphを超える速度に到達できる自律型レース車両のソフトウェアスタックを開発するためのプラットフォームを提供するインディの自動運転チャレンジが増加しています。
これらの車両の安全性を確保するには、サブシステムやコンポーネントの誤動作によってもたらされる不合理なリスクを軽減することを目的として、高速操作中にさまざまな障害と誤った動作条件についてソフトウェアが継続的に監視する必要があります。
このペーパーでは、インディの自律的な課題の一環として、フルスケールの自律レース車両に実装されているHalo Safety Architectureの包括的な概要を紹介します。
このペーパーは、ソフトウェアスタックの認識、計画、制御、および通信モジュールの障害モードと臨界分析から始まります。
具体的には、ノードの健康、データの健康、行動安全性の障害という3つの異なるタイプの障害を調べます。
これらの障害を軽減するために、この論文は、Haloの安全アーキタイプとランタイム監視方法の概要を説明します。
最後に、この論文は、マルチエージェントシナリオ中の自律的なレース車両試験から収集された実際のデータを通じて、各障害のハロー安全アーキテクチャの有効性を示しています。

要約(オリジナル)

The field of high-speed autonomous racing has seen significant advances in recent years, with the rise of competitions such as RoboRace and the Indy Autonomous Challenge providing a platform for researchers to develop software stacks for autonomous race vehicles capable of reaching speeds in excess of 170 mph. Ensuring the safety of these vehicles requires the software to continuously monitor for different faults and erroneous operating conditions during high-speed operation, with the goal of mitigating any unreasonable risks posed by malfunctions in sub-systems and components. This paper presents a comprehensive overview of the HALO safety architecture, which has been implemented on a full-scale autonomous racing vehicle as part of the Indy Autonomous Challenge. The paper begins with a failure mode and criticality analysis of the perception, planning, control, and communication modules of the software stack. Specifically, we examine three different types of faults – node health, data health, and behavioral-safety faults. To mitigate these faults, the paper then outlines HALO safety archetypes and runtime monitoring methods. Finally, the paper demonstrates the effectiveness of the HALO safety architecture for each of the faults, through real-world data gathered from autonomous racing vehicle trials during multi-agent scenarios.

arxiv情報

著者 Aron Harder,Amar Kulkarni,Madhur Behl
発行日 2025-03-13 13:19:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | HALO: Fault-Tolerant Safety Architecture For High-Speed Autonomous Racing はコメントを受け付けていません

Autonomous Robotic Radio Source Localization via a Novel Gaussian Mixture Filtering Approach

要約

この研究では、未知の環境での自律的なロボット無線信号ソースの検索とローカリゼーションの問題の推定パフォーマンスを改善するために、新しいガウス混合フィルター(GMF)を提案しています。
提案されたフィルターは、最初にベンチマーク数値問題でテストされ、粒子ガウス混合物(PGM)フィルターと粒子フィルター(PF)などの他の実践的なアプローチでパフォーマンスを検証します。
次に、提案されたアプローチがテストされ、実際のロボットフィールド実験でPFおよびPGMフィルターに対して比較され、実際のロボットアプリケーションへの影響を検証します。
考慮された現実世界のシナリオは、範囲のみの測定値と測定モデルでの不確実性で部分的に観察されます。
結果は、提案されたフィルターがPFと比較して改善されたパフォーマンスを示す一方で、この部分的な観測可能性を効果的に処理できることを示しており、比較技術よりも堅牢性が改善されたことを示しながら、計算要件を減らします。

要約(オリジナル)

This study proposes a new Gaussian Mixture Filter (GMF) to improve the estimation performance for the autonomous robotic radio signal source search and localization problem in unknown environments. The proposed filter is first tested with a benchmark numerical problem to validate the performance with other state-of-practice approaches such as Particle Gaussian Mixture (PGM) filters and Particle Filter (PF). Then the proposed approach is tested and compared against PF and PGM filters in real-world robotic field experiments to validate its impact for real-world robotic applications. The considered real-world scenarios have partial observability with the range-only measurement and uncertainty with the measurement model. The results show that the proposed filter can handle this partial observability effectively whilst showing improved performance compared to PF, reducing the computation requirements while demonstrating improved robustness over compared techniques.

arxiv情報

著者 Sukkeun Kim,Sangwoo Moon,Ivan Petrunin,Hyo-Sang Shin,Shehryar Khattak
発行日 2025-03-13 13:26:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, eess.SP | Autonomous Robotic Radio Source Localization via a Novel Gaussian Mixture Filtering Approach はコメントを受け付けていません

Knowledge-data fusion dominated vehicle platoon dynamics modeling and analysis: A physics-encoded deep learning approach

要約

最近、人工知能(AI)対応の非線形車両小隊のダイナミクスモデリングは、車両間の相互作用を予測および最適化する上で重要な役割を果たします。
既存の取り組みには、小隊スケールでの車両行動の相互作用機能の抽出とキャプチャがありません。
さらに重要なことは、物理的な分析可能性を失うことなく高いモデリング精度を維持することは解決されていないことです。
この目的のために、このペーパーでは、非線形車両小隊のダイナミクスをモデル化するために、Pemtflnという名前の新しい物理学がエンコードされたディープラーニングネットワークを提案しています。
具体的には、分析可能なパラメーターエンコードされた計算グラフ(APECG)は、局所的な安定性を確保しながら、鉛車の運転行動に応答するように小隊を導くように設計されています。
その上、マルチスケールの軌跡機能学習ネットワーク(MTFLN)が構築され、小隊に続いて小隊をキャプチャし、軌道データからAPECGに必要な物理パラメーターを推測します。
ヒト駆動型の車両軌道データセット(HighSIM)を使用して、提案されたPEMTFLNを訓練しました。
軌跡予測実験は、PEMTFLNが速度とギャップの予測精度の観点からベースラインモデルと比較して優れていることを示しています。
安定性分析の結果は、APECGの物理パラメーターが現実世界の状態で小隊の安定性を再現できることを示しています。
シミュレーション実験では、PEMTFLNは小隊の軌道生成で低推論誤差を実行します。
さらに、PEMTFLNはまた、地下の真実の安全統計を正確に再現します。
提案されたPEMTFLNのコードはオープンソースです。

要約(オリジナル)

Recently, artificial intelligence (AI)-enabled nonlinear vehicle platoon dynamics modeling plays a crucial role in predicting and optimizing the interactions between vehicles. Existing efforts lack the extraction and capture of vehicle behavior interaction features at the platoon scale. More importantly, maintaining high modeling accuracy without losing physical analyzability remains to be solved. To this end, this paper proposes a novel physics-encoded deep learning network, named PeMTFLN, to model the nonlinear vehicle platoon dynamics. Specifically, an analyzable parameters encoded computational graph (APeCG) is designed to guide the platoon to respond to the driving behavior of the lead vehicle while ensuring local stability. Besides, a multi-scale trajectory feature learning network (MTFLN) is constructed to capture platoon following patterns and infer the physical parameters required for APeCG from trajectory data. The human-driven vehicle trajectory datasets (HIGHSIM) were used to train the proposed PeMTFLN. The trajectories prediction experiments show that PeMTFLN exhibits superior compared to the baseline models in terms of predictive accuracy in speed and gap. The stability analysis result shows that the physical parameters in APeCG is able to reproduce the platoon stability in real-world condition. In simulation experiments, PeMTFLN performs low inference error in platoon trajectories generation. Moreover, PeMTFLN also accurately reproduces ground-truth safety statistics. The code of proposed PeMTFLN is open source.

arxiv情報

著者 Hao Lyu,Yanyong Guo,Pan Liu,Shuo Feng,Weilin Ren,Quansheng Yue
発行日 2025-03-13 13:42:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | Knowledge-data fusion dominated vehicle platoon dynamics modeling and analysis: A physics-encoded deep learning approach はコメントを受け付けていません