Tracking Control of Euler-Lagrangian Systems with Prescribed State, Input, and Temporal Constraints

要約

状態、入力、および時間的(SIT)制約によって誘導される厳しい動作領域を持つオイラーラグランジアン(EL)システムのスムーズな追跡制御ポリシーの統合は、非常に困難な作業です。
ELモデルのパラメーターと不確実性の境界に関する事前知識を利用する既存の方法とは対照的に、この研究では、状態および入力制約の下での追跡エラーの局所規定の時間収束を確保するために、近似のない適応バリア機能ベースの制御ポリシーを提案します。
提案された制御ポリシーは、フィルタリングされた追跡エラーに埋め込まれたスムーズな時間ベースのジェネレーター関数を利用することによりこれを達成します。これは、制御アクションを制限し、フィルタリングされた追跡エラーの時間変数を施行することにより規定の制限内に状態を制限する飽和関数と組み合わせます。
重要なことに、最小制御機関に関連する対応する実現可能性条件、制御ポリシーの最大妨害除去能力、および初期条件の実行可能なセットが導出され、SIT制約の相互作用から生じるELシステムの狭い動作ドメインを照らします。
提案されたスキームの有効性を実証するために、3つの異なるロボットマニピュレーターを用いた数値検証研究が採用されています。
提案されたスキームの優れたパフォーマンスを説明するために、主要な代替デザインを使用した詳細なパフォーマンス比較研究も行われます。

要約(オリジナル)

The synthesis of a smooth tracking control policy for Euler-Lagrangian (EL) systems with stringent regions of operation induced by state, input and temporal (SIT) constraints is a very challenging task. In contrast with existing methods that utilize prior knowledge of EL model parameters and uncertainty bounds, this study proposes an approximation-free adaptive barrier function-based control policy to ensure local prescribed time convergence of tracking error under state and input constraints. The proposed control policy accomplishes this by utilizing smooth time-based generator functions embedded in the filtered tracking error, which is combined with a saturation function that limits control action and confines states within the prescribed limits by enforcing the time-varying bounds on the filtered tracking error. Importantly, corresponding feasibility conditions pertaining to the minimum control authority, maximum disturbance rejection capability of the control policy, and the viable set of initial conditions are derived, illuminating the narrow operating domain of the EL systems arising from the interplay of SIT constraints. Numerical validation studies with three different robotic manipulators are employed to demonstrate the efficacy of the proposed scheme. A detailed performance comparison study with leading alternative designs is also undertaken to illustrate the superior performance of the proposed scheme.

arxiv情報

著者 Chidre Shravista Kashyap,Pushpak Jagtap,Jishnu Keshavan
発行日 2025-03-06 13:07:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY, math.OC | Tracking Control of Euler-Lagrangian Systems with Prescribed State, Input, and Temporal Constraints はコメントを受け付けていません

On the Analysis of Stability, Sensitivity and Transparency in Variable Admittance Control for pHRI Enhanced by Virtual Fixtures

要約

物理的な人間とロボットの相互作用(PHRI)への関心は、フォース交換中のユーザーの安全を保証する共同ロボットの利用可能性により、過去20年間で大幅に増加しています。
このため、PHRIアプリケーションの新しい制御スキームを提案しながら、文献では安定性の懸念が広範囲に対処されています。
ロボットの非線形性のため、安定性分析は一般に受動性の概念を活用します。
一方、提案されたアルゴリズムは一般に、ロボットマニピュレーターの理想的なモデルを考慮します。
このため、このペーパーの主な目的は、透過弾力性、運動速度飽和、作動遅延などの寄生効果を考慮することにより、PHRI制御スキームのクラス、すなわちプロキシベースの制約付きアドミタンスコントローラーの不安定性の原因の詳細な分析を実施することです。
次に、制御パラメーターがシステム全体の安定性にどのように影響するかを特定するために、実験結果によってサポートされる感度分析が実行されます。
最後に、Phriの透明性を最大化することを目的として、プロキシパラメーターの適応手法が提案されています。
提案された適応方法は、シミュレーションと実験テストの両方を通じて検証されます。

要約(オリジナル)

The interest in Physical Human-Robot Interaction (pHRI) has significantly increased over the last two decades thanks to the availability of collaborative robots that guarantee user safety during force exchanges. For this reason, stability concerns have been addressed extensively in the literature while proposing new control schemes for pHRI applications. Because of the nonlinear nature of robots, stability analyses generally leverage passivity concepts. On the other hand, the proposed algorithms generally consider ideal models of robot manipulators. For this reason, the primary objective of this paper is to conduct a detailed analysis of the sources of instability for a class of pHRI control schemes, namely proxy-based constrained admittance controllers, by considering parasitic effects such as transmission elasticity, motor velocity saturation, and actuation delay. Next, a sensitivity analysis supported by experimental results is carried out, in order to identify how the control parameters affect the stability of the overall system. Finally, an adaptation technique for the proxy parameters is proposed with the goal of maximizing transparency in pHRI. The proposed adaptation method is validated through both simulations and experimental tests.

arxiv情報

著者 Davide Tebaldi,Dario Onfiani,Luigi Biagiotti
発行日 2025-03-06 13:15:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | On the Analysis of Stability, Sensitivity and Transparency in Variable Admittance Control for pHRI Enhanced by Virtual Fixtures はコメントを受け付けていません

EvidMTL: Evidential Multi-Task Learning for Uncertainty-Aware Semantic Surface Mapping from Monocular RGB Images

要約

構造化されていない環境でのシーンの理解のために、自律システムによる情報に基づいたアクション選択を可能にするために、正確で不確実なメトリックセマンチックなマッピングが必要です。存在するマッピングメソッドは、自信過剰のセマンティック予測、およびまばらで騒がしい深さセンシングに苦しみ、一貫性のない地図の表現につながります。
したがって、このホワイトペーパーでは、深さ推定とセマンティックセグメンテーションに証拠ヘッドを使用するマルチタスク学習フレームワークであるEVIDMTLを導入し、単眼RGB画像からの不確実性を認識した推論を可能にします。
不確実性を調整した証拠マルチタスク学習を可能にするために、証拠セグメンテーション損失と併せて深さ予測の信念強度を共同で最適化する新しい証拠深度損失関数を提案します。
これに基づいて、不確実なセマンティックサーフェスマッピングフレームワークであるEvidkimeraを提示します。
Nyudepthv2でEVIDMTLをトレーニングおよび評価し、SCANNETV2でのゼロショットパフォーマンスを評価し、同等の深度推定とセマンティックセグメンテーションを維持しながら、従来のアプローチと比較して優れた不確実性の推定を実証します。
Scannetv2のゼロショットマッピングテストでは、Evidkimeraはセマンティックサーフェスマッピングの精度と一貫性でKimeraを上回り、不確実性を認識したマッピングの利点を強調し、実際のロボットアプリケーションの可能性を強調しています。

要約(オリジナル)

For scene understanding in unstructured environments, an accurate and uncertainty-aware metric-semantic mapping is required to enable informed action selection by autonomous systems.Existing mapping methods often suffer from overconfident semantic predictions, and sparse and noisy depth sensing, leading to inconsistent map representations. In this paper, we therefore introduce EvidMTL, a multi-task learning framework that uses evidential heads for depth estimation and semantic segmentation, enabling uncertainty-aware inference from monocular RGB images. To enable uncertainty-calibrated evidential multi-task learning, we propose a novel evidential depth loss function that jointly optimizes the belief strength of the depth prediction in conjunction with evidential segmentation loss. Building on this, we present EvidKimera, an uncertainty-aware semantic surface mapping framework, which uses evidential depth and semantics prediction for improved 3D metric-semantic consistency. We train and evaluate EvidMTL on the NYUDepthV2 and assess its zero-shot performance on ScanNetV2, demonstrating superior uncertainty estimation compared to conventional approaches while maintaining comparable depth estimation and semantic segmentation. In zero-shot mapping tests on ScanNetV2, EvidKimera outperforms Kimera in semantic surface mapping accuracy and consistency, highlighting the benefits of uncertainty-aware mapping and underscoring its potential for real-world robotic applications.

arxiv情報

著者 Rohit Menon,Nils Dengler,Sicong Pan,Gokul Krishna Chenchani,Maren Bennewitz
発行日 2025-03-06 13:56:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | EvidMTL: Evidential Multi-Task Learning for Uncertainty-Aware Semantic Surface Mapping from Monocular RGB Images はコメントを受け付けていません

A Dataset and Benchmark for Shape Completion of Fruits for Agricultural Robotics

要約

世界人口は2050年までに100億に達すると予想されているため、農業部門の人間の労働力の低下にもかかわらず、当社の農業生産システムは生産性を2倍にする必要があります。
自律的なロボットシステムは、フルーツピッキングなどの労働集約的なマニュアルタスクを引き継ぐことにより、生産性を向上させる有望な経路です。
効果的であるためには、そのようなシステムは植物や果物を正確に監視し、相互作用する必要があります。これは、たとえば強い閉塞を引き起こす農業環境の散らかった性質のために挑戦的です。
したがって、閉塞の存在下でオブジェクトの完全な3D形状を推定できることは、果物の収穫などの操作を自動化するために重要です。
この論文では、農業ビジョンシステム向けに最初に公開されている3D形状完了データセットを提案します。
3D形状の果物を推定するためのRGB-Dデータセットを提供します。
具体的には、当社のデータセットには、研究室の条件だけでなく、商業用温室にもRGB-Dフレームが含まれています。
果物ごとに、私たちはさらに、地上の真理として使用する高精度ポイント雲をさらに収集しました。
グラウンドトゥルースの形を取得するために、ラボと温室の両方で高精度で本物のスイートコショウ植物のデータを記録し、感知された果物の形状を決定できる測定プロセスを開発しました。
100を超える異なる果物に属する約7,000のRGB-Dフレームで構成されるデータセットをリリースします。
セグメント化されたRGB-Dフレームを提供します。カメラからの興味深い点雲を簡単に取得し、高精度の高精度レーザースキャナーで取得した対応する高精度のオクルージョンのない点雲とともに簡単に取得します。
さらに、ベンチマークサーバー上の公開課題を介した非表示のテストで形状完了アプローチの評価を有効にします。

要約(オリジナル)

As the world population is expected to reach 10 billion by 2050, our agricultural production system needs to double its productivity despite a decline of human workforce in the agricultural sector. Autonomous robotic systems are one promising pathway to increase productivity by taking over labor-intensive manual tasks like fruit picking. To be effective, such systems need to monitor and interact with plants and fruits precisely, which is challenging due to the cluttered nature of agricultural environments causing, for example, strong occlusions. Thus, being able to estimate the complete 3D shapes of objects in presence of occlusions is crucial for automating operations such as fruit harvesting. In this paper, we propose the first publicly available 3D shape completion dataset for agricultural vision systems. We provide an RGB-D dataset for estimating the 3D shape of fruits. Specifically, our dataset contains RGB-D frames of single sweet peppers in lab conditions but also in a commercial greenhouse. For each fruit, we additionally collected high-precision point clouds that we use as ground truth. For acquiring the ground truth shape, we developed a measuring process that allows us to record data of real sweet pepper plants, both in the lab and in the greenhouse with high precision, and determine the shape of the sensed fruits. We release our dataset, consisting of almost 7,000 RGB-D frames belonging to more than 100 different fruits. We provide segmented RGB-D frames, with camera intrinsics to easily obtain colored point clouds, together with the corresponding high-precision, occlusion-free point clouds obtained with a high-precision laser scanner. We additionally enable evaluation of shape completion approaches on a hidden test set through a public challenge on a benchmark server.

arxiv情報

著者 Federico Magistri,Thomas Läbe,Elias Marks,Sumanth Nagulavancha,Yue Pan,Claus Smitt,Lasse Klingbeil,Michael Halstead,Heiner Kuhlmann,Chris McCool,Jens Behley,Cyrill Stachniss
発行日 2025-03-06 14:06:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | A Dataset and Benchmark for Shape Completion of Fruits for Agricultural Robotics はコメントを受け付けていません

FRNet: Frustum-Range Networks for Scalable LiDAR Segmentation

要約

LIDARセグメンテーションは、高度な自律運転システムの重要な要素になっています。
最近のレンジビューLIDARセグメンテーションアプローチは、リアルタイム処理の可能性を示しています。
しかし、彼らは必然的に腐敗した文脈情報に苦しみ、予測の洗練のために後処理テクニックに大きく依存しています。
この作業では、対応するフラストムライダーポイントを使用して範囲画像ピクセルのコンテキスト情報を復元することを目的としたシンプルで強力な方法であるFRNETを提案します。
まず、フラストム機能エンコーダーモジュールを使用して、シーンの一貫性を保持し、ポイントレベルの予測に重要なフラストム領域内のポイントごとの特徴を抽出するために使用されます。
次に、フラストムポイント融合モジュールが導入され、ポイントごとの機能が階層的に更新され、各ポイントがフラストム機能を通じてより多くの周囲の情報を抽出できるようにします。
最後に、ヘッドフュージョンモジュールを使用して、最終的なセマンティック予測のためにさまざまなレベルで特徴を融合させます。
さまざまなタスクセットアップの下で4つの人気のあるLidarセグメンテーションベンチマークで実施された広範な実験は、FRNETの優位性を示しています。
特に、FRNETは、SemantickittiおよびNuscenesのテストセットで73.3%および82.5%のMIOUスコアを達成します。
競争力のあるパフォーマンスを達成しながら、FRNETは最先端のアプローチよりも5倍速く運営されています。
このような高効率は、よりスケーラブルなLIDARセグメンテーションのための新しい可能性を開きます。
このコードは、https://github.com/xiangxu-0103/frnetで公開されています。

要約(オリジナル)

LiDAR segmentation has become a crucial component of advanced autonomous driving systems. Recent range-view LiDAR segmentation approaches show promise for real-time processing. However, they inevitably suffer from corrupted contextual information and rely heavily on post-processing techniques for prediction refinement. In this work, we propose FRNet, a simple yet powerful method aimed at restoring the contextual information of range image pixels using corresponding frustum LiDAR points. First, a frustum feature encoder module is used to extract per-point features within the frustum region, which preserves scene consistency and is critical for point-level predictions. Next, a frustum-point fusion module is introduced to update per-point features hierarchically, enabling each point to extract more surrounding information through the frustum features. Finally, a head fusion module is used to fuse features at different levels for final semantic predictions. Extensive experiments conducted on four popular LiDAR segmentation benchmarks under various task setups demonstrate the superiority of FRNet. Notably, FRNet achieves 73.3% and 82.5% mIoU scores on the testing sets of SemanticKITTI and nuScenes. While achieving competitive performance, FRNet operates 5 times faster than state-of-the-art approaches. Such high efficiency opens up new possibilities for more scalable LiDAR segmentation. The code has been made publicly available at https://github.com/Xiangxu-0103/FRNet.

arxiv情報

著者 Xiang Xu,Lingdong Kong,Hui Shuai,Qingshan Liu
発行日 2025-03-06 14:06:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | FRNet: Frustum-Range Networks for Scalable LiDAR Segmentation はコメントを受け付けていません

PALo: Learning Posture-Aware Locomotion for Quadruped Robots

要約

具体化された知性の急速な発展に伴い、複雑な地形での四足ロボットの移動制御が研究ホットスポットになりました。
速度追跡のみに焦点を当てた従来の移動制御アプローチとは異なり、私たちは、多様で複雑な地形の四足ロボットの俊敏性と堅牢性のバランスをとることを追求します。
この目的のために、私たちは、パロという名前の姿勢認識運動のためのエンドツーエンドの深い強化学習フレームワークを提案します。パロは、体の高さ、ピッチ、ロール角の同時線形および角速度追跡とリアルタイム調整を処理することができます。
Paloでは、運動制御の問題は部分的に観察可能なマルコフ決定プロセスとして策定され、SIMからリアルの課題を克服するために、非対称のアクターcriticアーキテクチャが採用されています。
さらに、カスタマイズされたトレーニングカリキュラムを組み込むことにより、Paloはシミュレートされた環境でアジャイルな姿勢を意識した移動制御を達成し、微調整せずに現実世界の設定に成功裏に転送し、四足込まれたロボットの移動と体の姿勢をリアルタイムで制御できるようにします。
詳細な実験分析を通じて、パフォーマンスに寄与するPaloの重要なコンポーネントを特定し、提案された方法の有効性をさらに検証します。
この研究の結果は、高次元のコマンドスペースにある四足ロボットの低レベルの移動制御の新しい可能性を提供し、具体化された知性のための上位レベルモジュールに関する将来の研究の基礎を築きます。

要約(オリジナル)

With the rapid development of embodied intelligence, locomotion control of quadruped robots on complex terrains has become a research hotspot. Unlike traditional locomotion control approaches focusing solely on velocity tracking, we pursue to balance the agility and robustness of quadruped robots on diverse and complex terrains. To this end, we propose an end-to-end deep reinforcement learning framework for posture-aware locomotion named PALo, which manages to handle simultaneous linear and angular velocity tracking and real-time adjustments of body height, pitch, and roll angles. In PALo, the locomotion control problem is formulated as a partially observable Markov decision process, and an asymmetric actor-critic architecture is adopted to overcome the sim-to-real challenge. Further, by incorporating customized training curricula, PALo achieves agile posture-aware locomotion control in simulated environments and successfully transfers to real-world settings without fine-tuning, allowing real-time control of the quadruped robot’s locomotion and body posture across challenging terrains. Through in-depth experimental analysis, we identify the key components of PALo that contribute to its performance, further validating the effectiveness of the proposed method. The results of this study provide new possibilities for the low-level locomotion control of quadruped robots in higher dimensional command spaces and lay the foundation for future research on upper-level modules for embodied intelligence.

arxiv情報

著者 Xiangyu Miao,Jun Sun,Hang Lai,Xinpeng Di,Jiahang Cao,Yong Yu,Weinan Zhang
発行日 2025-03-06 14:13:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO | PALo: Learning Posture-Aware Locomotion for Quadruped Robots はコメントを受け付けていません

Pretrained Embeddings as a Behavior Specification Mechanism

要約

物理世界との相互作用のために知覚モデルに依存するシステムの行動特性を正式に指定するアプローチを提案します。
重要なアイデアは、埋め込み – 実世界の概念の数学的表現 – を導入することです。特別な言語のファーストクラスの構造として、特性は理想的な埋め込みと観測された埋め込みの距離で表現されます。
このアプローチを実現するために、埋め込み時間論理(ETL)と呼ばれる新しいタイプの時間論的論理を提案し、以前よりもAI対応システムに関するより広い範囲の特性を表現するために使用する方法を説明します。
基礎モデルによって駆動されるロボットの計画タスクを含む予備評価を通じて、ETLの適用性を実証します。
結果は有望であり、埋め込みベースの仕様を使用して、システムを望ましい動作に向けることができることを示しています。

要約(オリジナル)

We propose an approach to formally specifying the behavioral properties of systems that rely on a perception model for interactions with the physical world. The key idea is to introduce embeddings — mathematical representations of a real-world concept — as a first-class construct in a specification language, where properties are expressed in terms of distances between a pair of ideal and observed embeddings. To realize this approach, we propose a new type of temporal logic called Embedding Temporal Logic (ETL), and describe how it can be used to express a wider range of properties about AI-enabled systems than previously possible. We demonstrate the applicability of ETL through a preliminary evaluation involving planning tasks in robots that are driven by foundation models; the results are promising, showing that embedding-based specifications can be used to steer a system towards desirable behaviors.

arxiv情報

著者 Parv Kapoor,Abigail Hammer,Ashish Kapoor,Karen Leung,Eunsuk Kang
発行日 2025-03-06 14:32:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO, cs.SE | Pretrained Embeddings as a Behavior Specification Mechanism はコメントを受け付けていません

SRSA: Skill Retrieval and Adaptation for Robotic Assembly Tasks

要約

ロボットがデータ効率の良い方法で新しいタスクを学習できるようにすることは、長年の課題です。
一般的な戦略には、以前の経験、特に関連するタスクで収集された遷移データを慎重に活用することが含まれます。
一般的な選択と場所の操作については多くの進歩が遂げられていますが、正確な制御が不可欠な接触豊富なアセンブリタスクを調査している研究ははるかに少ないです。
SRSA(スキル検索とスキル適応)を紹介します。これは、多様なアセンブリタスクのポリシーを含む既存のスキルライブラリを利用することにより、この問題に対処するために設計された新しいフレームワークです。
この課題は、図書館のどのスキルが新しいタスクの微調整に最も関連しているかを特定することにあります。
私たちの重要な仮説は、新しいタスクでより高いゼロショット成功率を示すスキルが、そのタスクで迅速かつ効果的な微調整に適しているということです。
この目的のために、新しいタスクでスキルライブラリのすべてのスキルの転送成功を予測し、この予測を使用してスキル検索プロセスを導くことを提案します。
オブジェクトジオメトリ、物理的ダイナミクス、およびエキスパートアクションの機能を共同でキャプチャして、タスクを表現するフレームワークを確立し、転送成功予測子を効率的に学習できるようにします。
広範な実験は、SRSAが主要なベースラインを大幅に上回ることを示しています。
目に見えないタスクでの検索スキルと微調整スキルの場合、SRSAは成功率の19%の相対的な改善を達成し、ランダムシード全体で2.6倍低い標準偏差を示し、ベースラインと比較して満足のいく成功率に達するために2.4倍少ない遷移サンプルが必要です。
さらに、シミュレーションでSRSAで訓練されたポリシーは、現実世界に展開されたときに90%の平均成功率を達成します。
プロジェクトWebページhttps://srsa2024.github.io/をご覧ください。

要約(オリジナル)

Enabling robots to learn novel tasks in a data-efficient manner is a long-standing challenge. Common strategies involve carefully leveraging prior experiences, especially transition data collected on related tasks. Although much progress has been made for general pick-and-place manipulation, far fewer studies have investigated contact-rich assembly tasks, where precise control is essential. We introduce SRSA (Skill Retrieval and Skill Adaptation), a novel framework designed to address this problem by utilizing a pre-existing skill library containing policies for diverse assembly tasks. The challenge lies in identifying which skill from the library is most relevant for fine-tuning on a new task. Our key hypothesis is that skills showing higher zero-shot success rates on a new task are better suited for rapid and effective fine-tuning on that task. To this end, we propose to predict the transfer success for all skills in the skill library on a novel task, and then use this prediction to guide the skill retrieval process. We establish a framework that jointly captures features of object geometry, physical dynamics, and expert actions to represent the tasks, allowing us to efficiently learn the transfer success predictor. Extensive experiments demonstrate that SRSA significantly outperforms the leading baseline. When retrieving and fine-tuning skills on unseen tasks, SRSA achieves a 19% relative improvement in success rate, exhibits 2.6x lower standard deviation across random seeds, and requires 2.4x fewer transition samples to reach a satisfactory success rate, compared to the baseline. Furthermore, policies trained with SRSA in simulation achieve a 90% mean success rate when deployed in the real world. Please visit our project webpage https://srsa2024.github.io/.

arxiv情報

著者 Yijie Guo,Bingjie Tang,Iretiayo Akinola,Dieter Fox,Abhishek Gupta,Yashraj Narang
発行日 2025-03-06 15:22:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | SRSA: Skill Retrieval and Adaptation for Robotic Assembly Tasks はコメントを受け付けていません

A Data-Driven Aggressive Autonomous Racing Framework Utilizing Local Trajectory Planning with Velocity Prediction

要約

自律運転の開発は、自律的なレースに関する研究を後押ししました。
ただし、既存のローカル軌道計画方法には、鋭い角を持つ競馬場で最適な速度プロファイルを備えた軌跡を計画するのが困難であり、自律レースの性能が低下します。
この問題に対処するために、モデル予測輪郭制御(VPMPCC)に基づいて速度予測を統合するローカル軌道計画方法を提案します。
VPMPCCの最適なパラメーターは、レース(OFR)に適応される提案された新規客観的関数に基づいて、ベイジアン最適化(BO)を通じて学習されます。
具体的には、VPMPCCは、RaceTrackを参照速度プロファイルとしてエンコードし、最適化問題に組み込むことにより、速度予測を実現します。
この方法は、特に著しい曲率のある角で、ローカル軌道の速度プロファイルを最適化します。
提案されているのは、車両の安全性を備えたバランスレースのパフォーマンスを発揮し、安全で効率的なBOトレーニングを確保します。
シミュレーションでは、OFRベースのBOのトレーニング反復の数は、最先端の方法と比較して42.86%減少します。
次に、最適なシミュレーショントレーニングパラメーターが、再訓練なしで実際のF1tenth車両に適用されます。
重要な鋭い角を特徴とするカスタムビルドの競馬場での長期レース中、VPMPCCの平均投影速度は、車両の取り扱い制限の93.18%に達します。
リリースコードは、https://github.com/zhouhengli/vpmpccで入手できます。

要約(オリジナル)

The development of autonomous driving has boosted the research on autonomous racing. However, existing local trajectory planning methods have difficulty planning trajectories with optimal velocity profiles at racetracks with sharp corners, thus weakening the performance of autonomous racing. To address this problem, we propose a local trajectory planning method that integrates Velocity Prediction based on Model Predictive Contouring Control (VPMPCC). The optimal parameters of VPMPCC are learned through Bayesian Optimization (BO) based on a proposed novel Objective Function adapted to Racing (OFR). Specifically, VPMPCC achieves velocity prediction by encoding the racetrack as a reference velocity profile and incorporating it into the optimization problem. This method optimizes the velocity profile of local trajectories, especially at corners with significant curvature. The proposed OFR balances racing performance with vehicle safety, ensuring safe and efficient BO training. In the simulation, the number of training iterations for OFR-based BO is reduced by 42.86% compared to the state-of-the-art method. The optimal simulation-trained parameters are then applied to a real-world F1TENTH vehicle without retraining. During prolonged racing on a custom-built racetrack featuring significant sharp corners, the mean projected velocity of VPMPCC reaches 93.18% of the vehicle’s handling limits. The released code is available at https://github.com/zhouhengli/VPMPCC.

arxiv情報

著者 Zhouheng Li,Bei Zhou,Cheng Hu,Lei Xie,Hongye Su
発行日 2025-03-06 15:26:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | A Data-Driven Aggressive Autonomous Racing Framework Utilizing Local Trajectory Planning with Velocity Prediction はコメントを受け付けていません

Learning Generalizable Language-Conditioned Cloth Manipulation from Long Demonstrations

要約

マルチステップの布操作は、高次元の状態空間と布のダイナミクスによるロボットにとって困難な問題です。
マルチステップ布操作スキルのエンドツーエンドの模倣学習の最近の重要な進歩にもかかわらず、これらの方法は目に見えないタスクに一般化することができません。
一般化可能なマルチステップ布の操作の課題に取り組む際の私たちの洞察は分解です。
私たちは、長いデモンストレーションから基本的なスキルを自律的に学習し、不可能なタスクに一般化するための基本的なスキルを学んだ基本的なスキルを自律的に学習する新しいパイプラインを提案します。
具体的には、私たちの方法は、最初に、既存の長いデモンストレーションベンチマークから、大規模な言語モデル(LLM)の常識的な知識を持つ基本的なスキルを発見し、学習します。
次に、高レベルのLLMベースのタスクプランナーを活用して、これらの基本的なスキルは、目に見えないタスクを完了するために構成できます。
実験結果は、私たちの方法が、見られたタスクと目に見えないタスクの両方でマルチステップ布操作スキルを学習する際のベースライン方法よりも優れていることを示しています。

要約(オリジナル)

Multi-step cloth manipulation is a challenging problem for robots due to the high-dimensional state spaces and the dynamics of cloth. Despite recent significant advances in end-to-end imitation learning for multi-step cloth manipulation skills, these methods fail to generalize to unseen tasks. Our insight in tackling the challenge of generalizable multi-step cloth manipulation is decomposition. We propose a novel pipeline that autonomously learns basic skills from long demonstrations and composes learned basic skills to generalize to unseen tasks. Specifically, our method first discovers and learns basic skills from the existing long demonstration benchmark with the commonsense knowledge of a large language model (LLM). Then, leveraging a high-level LLM-based task planner, these basic skills can be composed to complete unseen tasks. Experimental results demonstrate that our method outperforms baseline methods in learning multi-step cloth manipulation skills for both seen and unseen tasks.

arxiv情報

著者 Hanyi Zhao,Jinxuan Zhu,Zihao Yan,Yichen Li,Yuhong Deng,Xueqian Wang
発行日 2025-03-06 15:49:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Learning Generalizable Language-Conditioned Cloth Manipulation from Long Demonstrations はコメントを受け付けていません