Predictive Spliner: Data-Driven Overtaking in Autonomous Racing Using Opponent Trajectory Prediction

要約

対戦相手との直接対決のレースは、自動レースの分野において挑戦的かつ新たなトピックです。
私たちは、ガウス過程 (GP) 回帰を通じて対戦相手の行動を学習するデータ駆動型の追い越しプランナーである Predictive Spliner を提案します。これは、レーシング トラックの将来のセクションで実行可能な追い越し操作を計算するために活用されます。
光検出測距 (LiDAR) 情報を使用して対戦相手を認識する 1:10 スケールの自律レーシング プラットフォームで実験的に検証された予測スプライナーは、自身の最大 83.1% で対戦相手を追い越し、最先端 (SotA) アルゴリズムを上回ります。
以前の最もパフォーマンスの高い方法よりも平均 8.4% 高速です。
さらに、平均成功率は 84.5% であり、以前の最もパフォーマンスの高い方法よりも 47.6% 高くなります。
この手法は、商用オフザシェルフ (CotS) Intel i7-1165G7 で評価した場合、中央処理装置 (CPU) 負荷 22.79%、計算時間 8.4 ミリ秒という計算効率を維持しており、リアルタイム ロボットに適しています。
アプリケーション。
これらの結果は、自動レース車両のパフォーマンスと安全性を向上させる Predictive Spliner の可能性を浮き彫りにしています。
Predictive Spliner のコードは、https://github.com/ForzaETH/predictive-spliner で入手できます。

要約(オリジナル)

Head-to-head racing against opponents is a challenging and emerging topic in the domain of autonomous racing. We propose Predictive Spliner, a data-driven overtaking planner that learns the behavior of opponents through Gaussian Process (GP) regression, which is then leveraged to compute viable overtaking maneuvers in future sections of the racing track. Experimentally validated on a 1:10 scale autonomous racing platform using Light Detection and Ranging (LiDAR) information to perceive the opponent, Predictive Spliner outperforms State-of-the-Art (SotA) algorithms by overtaking opponents at up to 83.1% of its own speed, being on average 8.4% faster than the previous best-performing method. Additionally, it achieves an average success rate of 84.5%, which is 47.6% higher than the previous best-performing method. The method maintains computational efficiency with a Central Processing Unit (CPU) load of 22.79% and a computation time of 8.4 ms, evaluated on a Commercial off-the-Shelf (CotS) Intel i7-1165G7, making it suitable for real-time robotic applications. These results highlight the potential of Predictive Spliner to enhance the performance and safety of autonomous racing vehicles. The code for Predictive Spliner is available at: https://github.com/ForzaETH/predictive-spliner.

arxiv情報

著者 Nicolas Baumann,Edoardo Ghignone,Cheng Hu,Benedict Hildisch,Tino Hämmerle,Alessandro Bettoni,Andrea Carron,Lei Xie,Michele Magno
発行日 2024-10-07 09:33:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | コメントする

TeX-NeRF: Neural Radiance Fields from Pseudo-TeX Vision

要約

神経放射フィールド (NeRF) は、その卓越した視覚効果により大きな注目を集めています。
ただし、既存の NeRF 手法のほとんどは、可視光カメラでキャプチャされた RGB 画像から 3D シーンを再構成します。
暗闇、低照度、悪天候などの実際のシナリオでは、可視光カメラは効果がありません。
そこで、我々は、対象物質の放射率をアプリオリに導入し、擬似TeXビジョンを用いて赤外線画像を前処理し、温度(T)、放射率(e)、
シーンのテクスチャ (X) を、それぞれ HSV 色空間の彩度 (S)、色相 (H)、および値 (V) チャネルに変換します。
処理された画像を使用した新しいビューの合成により、優れた結果が得られました。
さらに、赤外線画像とそれに対応する疑似 TeX ビジョン画像で構成される最初のデータセットである 3D-TeX データセットを紹介します。
実験では、私たちの方法が高品質の RGB 画像で達成されるシーン再構成の品質と一致するだけでなく、シーン内のオブジェクトの正確な温度推定も提供できることを示しています。

要約(オリジナル)

Neural radiance fields (NeRF) has gained significant attention for its exceptional visual effects. However, most existing NeRF methods reconstruct 3D scenes from RGB images captured by visible light cameras. In practical scenarios like darkness, low light, or bad weather, visible light cameras become ineffective. Therefore, we propose TeX-NeRF, a 3D reconstruction method using only infrared images, which introduces the object material emissivity as a priori, preprocesses the infrared images using Pseudo-TeX vision, and maps the temperatures (T), emissivities (e), and textures (X) of the scene into the saturation (S), hue (H), and value (V) channels of the HSV color space, respectively. Novel view synthesis using the processed images has yielded excellent results. Additionally, we introduce 3D-TeX Datasets, the first dataset comprising infrared images and their corresponding Pseudo-TeX vision images. Experiments demonstrate that our method not only matches the quality of scene reconstruction achieved with high-quality RGB images but also provides accurate temperature estimations for objects in the scene.

arxiv情報

著者 Chonghao Zhong,Chao Xu
発行日 2024-10-07 09:43:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | コメントする

Bayesian Optimization for Sample-Efficient Policy Improvement in Robotic Manipulation

要約

サンプルの操作スキルを効率的に学習することは、ロボット工学において大きな課題となっています。
最近のアプローチでは、対処できるタスクの種類や組み込むことができるセンシング手法において目覚ましい進歩が見られますが、依然として大量のトレーニング データが必要です。
特に、現実世界でのロボットの動作の学習に関しては、デモンストレーションと現実世界のロボットの相互作用の両方に関連するコストが高いため、これは大きな問題を引き起こします。
この課題に対処するために、模倣学習と独自の経験収集を組み合わせたハイブリッド アプローチである BOpt-GMM を導入します。
まず、いくつかのデモンストレーションから、ガウス混合モデルにエンコードされた動的システムとしてのスキル モデルを学習します。
次に、まばらな報酬設定での少数の自律的なスキルの実行に基づいて構築されたベイジアン最適化を使用して、このモデルを改善します。
シミュレーションと現実世界の実験の両方で、複数の複雑な操作スキルに対するアプローチのサンプル効率を実証します。
さらに、コードと事前トレーニングされたモデルは http://bopt-gmm で公開されています。
cs.uni-freiburg.de。

要約(オリジナル)

Sample efficient learning of manipulation skills poses a major challenge in robotics. While recent approaches demonstrate impressive advances in the type of task that can be addressed and the sensing modalities that can be incorporated, they still require large amounts of training data. Especially with regard to learning actions on robots in the real world, this poses a major problem due to the high costs associated with both demonstrations and real-world robot interactions. To address this challenge, we introduce BOpt-GMM, a hybrid approach that combines imitation learning with own experience collection. We first learn a skill model as a dynamical system encoded in a Gaussian Mixture Model from a few demonstrations. We then improve this model with Bayesian optimization building on a small number of autonomous skill executions in a sparse reward setting. We demonstrate the sample efficiency of our approach on multiple complex manipulation skills in both simulations and real-world experiments. Furthermore, we make the code and pre-trained models publicly available at http://bopt-gmm. cs.uni-freiburg.de.

arxiv情報

著者 Adrian Röfer,Iman Nematollahi,Tim Welschehold,Wolfram Burgard,Abhinav Valada
発行日 2024-10-07 09:52:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | コメントする

QMP: Q-switch Mixture of Policies for Multi-Task Behavior Sharing

要約

マルチタスク強化学習 (MTRL) は、複数のタスクを同時に学習して、個別に学習するよりもサンプル効率を高めることを目的としています。
従来の方法では、タスク間でパラメーターまたは再ラベル付けされたデータを共有することでこれを実現します。
この作業では、タスク間で行動ポリシーを共有するための新しいフレームワークを導入します。これは、既存の MTRL メソッドに加えて使用できます。
重要なアイデアは、他のタスク ポリシーの動作を採用することで、各タスクのオフポリシー データ収集を改善することです。
1 つのタスクで取得された役立つ行動を選択的に共有して、別のタスクのトレーニング データを収集すると、より高品質な軌跡が得られ、サンプル効率の高い MTRL につながります。
したがって、タスクの Q 関数を使用して有用な共有可能な動作を評価および選択することにより、異なるタスク ポリシー間で動作を選択的に共有する、Q スイッチ混合ポリシー (QMP) と呼ばれるシンプルで原理的なフレームワークを導入します。
QMP が基礎となる RL アルゴリズムのサンプル効率をどのように向上させるかを理論的に分析します。
私たちの実験によると、QMP の行動ポリシー共有は、多くの一般的な MTRL アルゴリズムを補完する利点を提供し、さまざまな操作、移動、ナビゲーション環境で行動を共有する代替方法よりも優れたパフォーマンスを発揮します。
ビデオは https://qmp-mtrl.github.io でご覧いただけます。

要約(オリジナル)

Multi-task reinforcement learning (MTRL) aims to learn several tasks simultaneously for better sample efficiency than learning them separately. Traditional methods achieve this by sharing parameters or relabeled data between tasks. In this work, we introduce a new framework for sharing behavioral policies across tasks, which can be used in addition to existing MTRL methods. The key idea is to improve each task’s off-policy data collection by employing behaviors from other task policies. Selectively sharing helpful behaviors acquired in one task to collect training data for another task can lead to higher-quality trajectories, leading to more sample-efficient MTRL. Thus, we introduce a simple and principled framework called Q-switch mixture of policies (QMP) that selectively shares behavior between different task policies by using the task’s Q-function to evaluate and select useful shareable behaviors. We theoretically analyze how QMP improves the sample efficiency of the underlying RL algorithm. Our experiments show that QMP’s behavioral policy sharing provides complementary gains over many popular MTRL algorithms and outperforms alternative ways to share behaviors in various manipulation, locomotion, and navigation environments. Videos are available at https://qmp-mtrl.github.io.

arxiv情報

著者 Grace Zhang,Ayush Jain,Injune Hwang,Shao-Hua Sun,Joseph J. Lim
発行日 2024-10-07 10:04:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO | コメントする

A Survey of Optimization-based Task and Motion Planning: From Classical To Learning Approaches

要約

Task and Motion Planning (TAMP) は、高レベルのタスク計画と低レベルの動作計画を統合し、長期にわたる動的なタスクを効果的に推論するための自律性をロボットに提供します。
最適化ベースの TAMP は、目的関数によって目標条件を定義するハイブリッド最適化アプローチに焦点を当てており、オープンエンドの目標、ロボットのダイナミクス、およびロボットと環境間の物理的な相互作用を処理できます。
したがって、最適化ベースの TAMP は、非常に複雑で接触の多い移動および操作の問題を解決するのに特に適しています。
この調査では、最適化ベースの TAMP に関する包括的なレビューを提供します。対象となるのは、(i) アクション記述言語と時相論理を含むプランニング ドメイン表現、(ii) AI プランニングと軌道最適化 (TO) を含む、TAMP コンポーネントの個別のソリューション戦略、および
(iii) ロジックベースのタスク計画とモデルベースの TO の間の動的な相互作用。
この調査の特に焦点は、TAMP を効率的に解決するためのアルゴリズム構造、特に階層型および分散型アプローチに焦点を当てることです。
さらに、この調査では、古典的な手法と大規模言語モデルなどの現代の学習ベースのイノベーションとの間の相乗効果が強調されています。
さらに、この調査では TAMP の将来の研究の方向性について議論されており、アルゴリズムとアプリケーション固有の課題の両方が強調されています。

要約(オリジナル)

Task and Motion Planning (TAMP) integrates high-level task planning and low-level motion planning to equip robots with the autonomy to effectively reason over long-horizon, dynamic tasks. Optimization-based TAMP focuses on hybrid optimization approaches that define goal conditions via objective functions and are capable of handling open-ended goals, robotic dynamics, and physical interaction between the robot and the environment. Therefore, optimization-based TAMP is particularly suited to solve highly complex, contact-rich locomotion and manipulation problems. This survey provides a comprehensive review on optimization-based TAMP, covering (i) planning domain representations, including action description languages and temporal logic, (ii) individual solution strategies for components of TAMP, including AI planning and trajectory optimization (TO), and (iii) the dynamic interplay between logic-based task planning and model-based TO. A particular focus of this survey is to highlight the algorithm structures to efficiently solve TAMP, especially hierarchical and distributed approaches. Additionally, the survey emphasizes the synergy between the classical methods and contemporary learning-based innovations such as large language models. Furthermore, the future research directions for TAMP is discussed in this survey, highlighting both algorithmic and application-specific challenges.

arxiv情報

著者 Zhigen Zhao,Shuo Cheng,Yan Ding,Ziyi Zhou,Shiqi Zhang,Danfei Xu,Ye Zhao
発行日 2024-10-07 10:09:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | コメントする

Cloud-Based Scheduling Mechanism for Scalable and Resource-Efficient Centralized Controllers

要約

この論文では、大規模システム、つまりマルチエージェント システム用の集中型非線形モデル予測コントローラー (CNMPC) に複雑なロボット ソフトウェアを導入する際の課題に対処するための新しいアプローチを提案します。
提案されたアプローチは、集中制御スキームのスケーラビリティ制限に対処しながら、CNMPC の動作を監視および最適化するように設計された Kubernetes ベースのスケジューリング メカニズムに基づいています。
リアルタイム クラウド環境でクラスターを活用することにより、提案されたメカニズムは CNMPC の計算負荷を効果的に軽減します。
実験を通じて、特にロボットの数が変化する可能性があるシナリオにおけるシステムの有効性とパフォーマンスを実証しました。
私たちの取り組みは、クラウドベースの制御戦略の進歩に貢献し、クラウド制御のロボット システムのパフォーマンス向上の基礎を築きます。

要約(オリジナル)

This paper proposes a novel approach to address the challenges of deploying complex robotic software in large-scale systems, i.e., Centralized Nonlinear Model Predictive Controllers (CNMPCs) for multi-agent systems. The proposed approach is based on a Kubernetes-based scheduling mechanism designed to monitor and optimize the operation of CNMPCs, while addressing the scalability limitation of centralized control schemes. By leveraging a cluster in a real-time cloud environment, the proposed mechanism effectively offloads the computational burden of CNMPCs. Through experiments, we have demonstrated the effectiveness and performance of our system, especially in scenarios where the number of robots is subject to change. Our work contributes to the advancement of cloud-based control strategies and lays the foundation for enhanced performance in cloud-controlled robotic systems.

arxiv情報

著者 Achilleas Santi Seisa,Sumeet Gajanan Satpute,George Nikolakopoulos
発行日 2024-10-07 11:09:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.DC, cs.MA, cs.RO, cs.SY, eess.SY | コメントする

Goal-Conditioned Terminal Value Estimation for Real-time and Multi-task Model Predictive Control

要約

MPCはタイムステップごとに最適な制御問題を解くことで非線形フィードバック制御を実現しますが、計算負荷が非常に大きくなる傾向があり、制御周期内で政策を最適化することが困難です。
この問題に対処するために、考えられるアプローチの 1 つは、最終値学習を利用して計算コストを削減することです。
ただし、元の MPC セットアップでタスクが動的に変更される状況では、学習した値を他のタスクに使用することはできません。
この研究では、計算時間を削減しながらマルチタスク ポリシーの最適化を達成するために、目標条件付き最終値学習を備えた MPC フレームワークを開発します。
さらに、上位レベルの軌道プランナーが適切な目標条件付き軌道を出力できるようにする階層制御構造を使用することで、ロボット モデルが多様な動作を生成できることを実証します。
二足倒立振子ロボットモデルで提案手法を評価し、目標条件付き最終値学習と上位レベルの軌道プランナーを組み合わせることでリアルタイム制御が可能になることを確認します。
したがって、ロボットは傾斜地でもターゲットの軌道をうまく追跡します。

要約(オリジナル)

While MPC enables nonlinear feedback control by solving an optimal control problem at each timestep, the computational burden tends to be significantly large, making it difficult to optimize a policy within the control period. To address this issue, one possible approach is to utilize terminal value learning to reduce computational costs. However, the learned value cannot be used for other tasks in situations where the task dynamically changes in the original MPC setup. In this study, we develop an MPC framework with goal-conditioned terminal value learning to achieve multitask policy optimization while reducing computational time. Furthermore, by using a hierarchical control structure that allows the upper-level trajectory planner to output appropriate goal-conditioned trajectories, we demonstrate that a robot model is able to generate diverse motions. We evaluate the proposed method on a bipedal inverted pendulum robot model and confirm that combining goal-conditioned terminal value learning with an upper-level trajectory planner enables real-time control; thus, the robot successfully tracks a target trajectory on sloped terrain.

arxiv情報

著者 Mitsuki Morita,Satoshi Yamamori,Satoshi Yagi,Norikazu Sugimoto,Jun Morimoto
発行日 2024-10-07 11:19:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO, cs.SY, eess.SY | コメントする

VILENS: Visual, Inertial, Lidar, and Leg Odometry for All-Terrain Legged Robots

要約

ファクターグラフに基づいた脚式ロボットのオドメトリシステムである視覚慣性ライダー脚式ナビゲーションシステム(VILENS)を紹介します。
主な新しさは、4 つの異なるセンサー モダリティを緊密に融合して、個別のセンサーが縮退した推定を生成する場合に信頼性の高い動作を実現することです。
脚のオドメトリ ドリフトを最小限に抑えるために、オンラインで推定される線形速度バイアス項を使用してロボットの状態を拡張します。
この偏りは、この事前に統合された速度係数と視覚、ライダー、および慣性測定装置 (IMU) 係数が緊密に融合しているために観察可能です。
合計 2 時間、移動距離 1.8 km にわたる、さまざまな ANYmal 四足歩行ロボットに関する広範な実験検証が示されています。
実験には、緩い岩、斜面、泥の上での動的移動が含まれており、滑りや地形の変形などの課題が発生しました。
知覚上の課題には、暗くてほこりっぽい地下洞窟や、開けた何もない場所などが含まれます。
最先端の疎結合アプローチと比較して、並進誤差が 62%、回転誤差が 51% 平均で改善されることがわかりました。
その堅牢性を実証するために、VILEENS は知覚コントローラーとローカル パス プランナーとも統合されました。

要約(オリジナル)

We present visual inertial lidar legged navigation system (VILENS), an odometry system for legged robots based on factor graphs. The key novelty is the tight fusion of four different sensor modalities to achieve reliable operation when the individual sensors would otherwise produce degenerate estimation. To minimize leg odometry drift, we extend the robot’s state with a linear velocity bias term, which is estimated online. This bias is observable because of the tight fusion of this preintegrated velocity factor with vision, lidar, and inertial measurement unit (IMU) factors. Extensive experimental validation on different ANYmal quadruped robots is presented, for a total duration of 2 h and 1.8 km traveled. The experiments involved dynamic locomotion over loose rocks, slopes, and mud, which caused challenges such as slippage and terrain deformation. Perceptual challenges included dark and dusty underground caverns, and open and feature-deprived areas. We show an average improvement of 62% translational and 51% rotational errors compared to a state-of-the-art loosely coupled approach. To demonstrate its robustness, VILENS was also integrated with a perceptive controller and a local path planner.

arxiv情報

著者 David Wisth,Marco Camurri,Maurice Fallon
発行日 2024-10-07 11:27:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | コメントする

Entropy-Based Uncertainty Modeling for Trajectory Prediction in Autonomous Driving

要約

自動運転では、安全かつ効率的な動作計画を立てるために正確な動作予測が不可欠です。
安全を確保するために、計画立案者は周囲のエージェントの予測される将来の行動に関する信頼できる不確実性情報に依存する必要がありますが、この側面への注目は限定的です。
この論文は、これまで無視されてきた軌道予測における不確実性モデリングの問題に取り組みます。
私たちは、不確実性の定量化、分解、モデル構成の影響に焦点を当てた総合的なアプローチを採用しています。
私たちの方法は、不確実性を測定するための理論に基づいた情報理論的アプローチに基づいており、全体的な不確実性を偶然性と認識性の要素に分解することができます。
私たちは、さまざまなモデル アーキテクチャと構成が不確実性の定量化とモデルの堅牢性にどのような影響を与えるかを評価するために、nuScenes データセットに対して広範な実験を実施しました。

要約(オリジナル)

In autonomous driving, accurate motion prediction is essential for safe and efficient motion planning. To ensure safety, planners must rely on reliable uncertainty information about the predicted future behavior of surrounding agents, yet this aspect has received limited attention. This paper addresses the so-far neglected problem of uncertainty modeling in trajectory prediction. We adopt a holistic approach that focuses on uncertainty quantification, decomposition, and the influence of model composition. Our method is based on a theoretically grounded information-theoretic approach to measure uncertainty, allowing us to decompose total uncertainty into its aleatoric and epistemic components. We conduct extensive experiments on the nuScenes dataset to assess how different model architectures and configurations affect uncertainty quantification and model robustness.

arxiv情報

著者 Aron Distelzweig,Andreas Look,Eitan Kosman,Faris Janjoš,Jörg Wagner,Abhinav Valada
発行日 2024-10-07 11:57:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | コメントする

SKT: Integrating State-Aware Keypoint Trajectories with Vision-Language Models for Robotic Garment Manipulation

要約

衣服は多様で変形しやすい性質があるため、衣服操作の自動化は支援ロボットにとって大きな課題となっています。
従来のアプローチでは通常、衣服の種類ごとに個別のモデルが必要となるため、拡張性と適応性が制限されます。
対照的に、この論文では、ビジョン言語モデル (VLM) を使用して、さまざまな衣類カテゴリにわたるキーポイント予測を改善する統合アプローチを紹介します。
私たちのモデルは、視覚情報と意味情報の両方を解釈することにより、ロボットが単一のモデルでさまざまな衣服の状態を管理できるようにします。
高度なシミュレーション技術を使用して大規模な合成データセットを作成し、大規模な現実世界のデータがなくてもスケーラブルなトレーニングを可能にしました。
実験結果は、VLM ベースの方法がキーポイント検出の精度とタスクの成功率を大幅に向上させ、ロボットによる衣服操作のためのより柔軟で一般的なソリューションを提供することを示しています。
さらに、この研究は、VLM が単一のフレームワーク内でさまざまな衣類操作タスクを統合し、将来のホーム オートメーションや支援ロボティクスにおけるより広範なアプリケーションへの道を開く可能性があることも強調しています。

要約(オリジナル)

Automating garment manipulation poses a significant challenge for assistive robotics due to the diverse and deformable nature of garments. Traditional approaches typically require separate models for each garment type, which limits scalability and adaptability. In contrast, this paper presents a unified approach using vision-language models (VLMs) to improve keypoint prediction across various garment categories. By interpreting both visual and semantic information, our model enables robots to manage different garment states with a single model. We created a large-scale synthetic dataset using advanced simulation techniques, allowing scalable training without extensive real-world data. Experimental results indicate that the VLM-based method significantly enhances keypoint detection accuracy and task success rates, providing a more flexible and general solution for robotic garment manipulation. In addition, this research also underscores the potential of VLMs to unify various garment manipulation tasks within a single framework, paving the way for broader applications in home automation and assistive robotics for future.

arxiv情報

著者 Xin Li,Siyuan Huang,Qiaojun Yu,Zhengkai Jiang,Ce Hao,Yimeng Zhu,Hongsheng Li,Peng Gao,Cewu Lu
発行日 2024-10-07 12:06:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.RO | コメントする