AI-Enhanced Automatic Design of Efficient Underwater Gliders

要約

主に手動の試行錯誤に大きく依存している従来の設計ツールに依存しているため、新しい自律的な水中グライダーの開発は、形状の多様性が限られていることによって妨げられています。
自動設計フレームワークの構築は、グライダーの形状を表現する複雑さと、複雑な固体フルイド相互作用のモデリングに関連する高い計算コストのために、困難です。
この作業では、非自明の船体形状の水中ロボットの作成を可能にすることにより、これらの制限を克服するために設計されたAI強化された自動計算フレームワークを導入します。
私たちのアプローチには、形状信号と制御信号の両方を共同最適化するアルゴリズムが含まれ、縮小されたジオメトリ表現と微分可能なニューラルネットワークベースの流体サロゲートモデルを利用します。
このエンドツーエンドの設計ワークフローは、流体力学的性能の迅速な反復と評価を促進し、さまざまな制御設定で最適で複雑な船体形状の発見につながります。
風洞実験とスイミングプールの滑空テストを通じて、私たちの方法を検証し、計算で設計されたグライダーがエネルギー効率の観点から手動で設計されたカウンターパートを上回ることを示しています。
効率的な形状表現と神経液の代理モデルの課題に対処することにより、私たちの仕事は、長距離の海洋探査と環境監視に影響を与える非常に効率的な水中グライダーの開発への道を開きます。

要約(オリジナル)

The development of novel autonomous underwater gliders has been hindered by limited shape diversity, primarily due to the reliance on traditional design tools that depend heavily on manual trial and error. Building an automated design framework is challenging due to the complexities of representing glider shapes and the high computational costs associated with modeling complex solid-fluid interactions. In this work, we introduce an AI-enhanced automated computational framework designed to overcome these limitations by enabling the creation of underwater robots with non-trivial hull shapes. Our approach involves an algorithm that co-optimizes both shape and control signals, utilizing a reduced-order geometry representation and a differentiable neural-network-based fluid surrogate model. This end-to-end design workflow facilitates rapid iteration and evaluation of hydrodynamic performance, leading to the discovery of optimal and complex hull shapes across various control settings. We validate our method through wind tunnel experiments and swimming pool gliding tests, demonstrating that our computationally designed gliders surpass manually designed counterparts in terms of energy efficiency. By addressing challenges in efficient shape representation and neural fluid surrogate models, our work paves the way for the development of highly efficient underwater gliders, with implications for long-range ocean exploration and environmental monitoring.

arxiv情報

著者 Peter Yichen Chen,Pingchuan Ma,Niklas Hagemann,John Romanishin,Wei Wang,Daniela Rus,Wojciech Matusik
発行日 2025-04-30 23:55:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.GR, cs.LG, cs.RO, physics.comp-ph | AI-Enhanced Automatic Design of Efficient Underwater Gliders はコメントを受け付けていません

Safe Navigation in Dynamic Environments Using Data-Driven Koopman Operators and Conformal Prediction

要約

Koopmanオペレーターの理論をコンフォーマル予測と統合することにより、動的環境での安全なナビゲーションのための新しいフレームワークを提案します。
私たちのアプローチは、データ駆動型のKoopman近似を活用して非線形ダイナミクスを学習し、不確実性を定量化するためのコンフォーマル予測を採用し、近似誤差の統計的保証を提供します。
この不確実性は、制約の締め付けによりモデル予測コントローラー(MPC)の定式化に効果的に組み込まれ、堅牢な安全保証が確保されます。
安全なナビゲーションのウェイポイントを提供するリファレンスジェネレーターを使用して、階層制御アーキテクチャを実装します。
メソッドの有効性は、シミュレーションで検証されています。

要約(オリジナル)

We propose a novel framework for safe navigation in dynamic environments by integrating Koopman operator theory with conformal prediction. Our approach leverages data-driven Koopman approximation to learn nonlinear dynamics and employs conformal prediction to quantify uncertainty, providing statistical guarantees on approximation errors. This uncertainty is effectively incorporated into a Model Predictive Controller (MPC) formulation through constraint tightening, ensuring robust safety guarantees. We implement a layered control architecture with a reference generator providing waypoints for safe navigation. The effectiveness of our methods is validated in simulation.

arxiv情報

著者 Kaier Liang,Guang Yang,Mingyu Cai,Cristian-Ioan Vasile
発行日 2025-05-01 01:10:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Safe Navigation in Dynamic Environments Using Data-Driven Koopman Operators and Conformal Prediction はコメントを受け付けていません

Future-Oriented Navigation: Dynamic Obstacle Avoidance with One-Shot Energy-Based Multimodal Motion Prediction

要約

このペーパーでは、動的で不確実な環境でのモバイルロボットを安全かつ効率的に制御するための統合アプローチを提案します。
このアプローチは、動的障害の動きを予測するためのワンショットマルチモーダルモーション予測と、これらの予測をモーション計画プロセスに組み込むためのモデル予測制御の2つの重要なステップで構成されています。
モーション予測は、単一の操作で高解像度のマルチステップ予測を生成するエネルギーベースのニューラルネットワークによって駆動されます。
予測の結果は、数学的制約として定式化された幾何学的形状を作成するためにさらに利用されます。
各動的障害を個別に扱う代わりに、予測された障害物は、パフォーマンスと効率を改善するための監視されていない方法で近接によってグループ化されます。
全体的な衝突のないナビゲーションは、プロアクティブな動的障害物回避のための特定の設計を備えたモデル予測制御によって処理されます。
提案されたアプローチにより、モバイルロボットは動的環境で効果的にナビゲートできます。
そのパフォーマンスは、典型的な倉庫設定を表すさまざまなシナリオにアクセスされます。
結果は、提案されたアプローチが他の既存の動的障害回避方法よりも優れていることを示しています。

要約(オリジナル)

This paper proposes an integrated approach for the safe and efficient control of mobile robots in dynamic and uncertain environments. The approach consists of two key steps: one-shot multimodal motion prediction to anticipate motions of dynamic obstacles and model predictive control to incorporate these predictions into the motion planning process. Motion prediction is driven by an energy-based neural network that generates high-resolution, multi-step predictions in a single operation. The prediction outcomes are further utilized to create geometric shapes formulated as mathematical constraints. Instead of treating each dynamic obstacle individually, predicted obstacles are grouped by proximity in an unsupervised way to improve performance and efficiency. The overall collision-free navigation is handled by model predictive control with a specific design for proactive dynamic obstacle avoidance. The proposed approach allows mobile robots to navigate effectively in dynamic environments. Its performance is accessed across various scenarios that represent typical warehouse settings. The results demonstrate that the proposed approach outperforms other existing dynamic obstacle avoidance methods.

arxiv情報

著者 Ze Zhang,Georg Hess,Junjie Hu,Emmanuel Dean,Lennart Svensson,Knut Åkesson
発行日 2025-05-01 01:13:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO, cs.SY, eess.SY | Future-Oriented Navigation: Dynamic Obstacle Avoidance with One-Shot Energy-Based Multimodal Motion Prediction はコメントを受け付けていません

Mitigating Covariate Shift in Imitation Learning for Autonomous Vehicles Using Latent Space Generative World Models

要約

自律運転における共変量シフト問題に対処するために、潜在空間生成世界モデルの使用を提案します。
世界モデルは、過去の状態と行動を与えられたエージェントの次の状態を予測できるニューラルネットワークです。
トレーニング中に世界モデルを活用することにより、運転ポリシーは、過剰な量のトレーニングデータを必要とせずに共変量シフトを効果的に軽減します。
エンドツーエンドのトレーニング中に、私たちのポリシーは、人間のデモで観察された状態と連携することにより、エラーから回復する方法を学び、実行時にトレーニング分布外の摂動から回復できるようにします。
さらに、マルチビューの相互参加と学習シーンクエリを採用する新しいトランスベースのPerception Encoderを紹介します。
定性的および定量的な結果を提示し、カーラシミュレーターでのクローズドループテストにおける以前の最先端の最新技術に関する大幅な改善を示し、カーラとナヴィディアのドライブSIMの両方で摂動を処理する能力を示しています。

要約(オリジナル)

We propose the use of latent space generative world models to address the covariate shift problem in autonomous driving. A world model is a neural network capable of predicting an agent’s next state given past states and actions. By leveraging a world model during training, the driving policy effectively mitigates covariate shift without requiring an excessive amount of training data. During end-to-end training, our policy learns how to recover from errors by aligning with states observed in human demonstrations, so that at runtime it can recover from perturbations outside the training distribution. Additionally, we introduce a novel transformer-based perception encoder that employs multi-view cross-attention and a learned scene query. We present qualitative and quantitative results, demonstrating significant improvements upon prior state of the art in closed-loop testing in the CARLA simulator, as well as showing the ability to handle perturbations in both CARLA and NVIDIA’s DRIVE Sim.

arxiv情報

著者 Alexander Popov,Alperen Degirmenci,David Wehr,Shashank Hegde,Ryan Oldja,Alexey Kamenev,Bertrand Douillard,David Nistér,Urs Muller,Ruchi Bhargava,Stan Birchfield,Nikolai Smolyanskiy
発行日 2025-05-01 01:29:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: (Primary), 68T45, cs.CV, cs.LG, cs.RO, cs.SY, eess.SY, I.2.10 | Mitigating Covariate Shift in Imitation Learning for Autonomous Vehicles Using Latent Space Generative World Models はコメントを受け付けていません

GSFeatLoc: Visual Localization Using Feature Correspondence on 3D Gaussian Splatting

要約

このホワイトペーパーでは、事前計算された3Dガウススプラッティング(3DG)シーンの表現に関してクエリ画像をローカライズする方法を提示します。
まず、このメソッドは3DGSを使用して、最初のポーズ推定で合成RGBD画像をレンダリングします。
第二に、クエリ画像とこの合成画像の間に2D-2Dの対応を確立します。
第三に、深度マップを使用して2D-2Dの対応を2D-3D通信に持ち上げ、Perspective-n-Point(PNP)問題を解決して最終的なポーズ推定値を作成します。
38のシーンと2,700を超えるテスト画像を備えた3つの既存のデータセットにわたる評価の結果は、私たちの方法が、光測定損失の最小化を使用するベースラインメソッドと比較して、推論時間を10秒以上速い速度から0.1秒まで)と推定誤差の両方を大幅に削減することを示しています。
結果はまた、メソッドが回転で最大55 {\ deg}の初期ポーズ推定値と翻訳で1.1ユニット(シーンスケールで正規化)の大きなエラーを許容し、回転で5 {\ deg}の最終的なポーズエラーと0.05ユニットの翻訳で0.05ユニットの最終的なポーズエラーを達成し、シンセティックナーフとMIP-NERF360 DATASの画像からの画像の90%での翻訳で達成することを示しています。
寺院データセット。

要約(オリジナル)

In this paper, we present a method for localizing a query image with respect to a precomputed 3D Gaussian Splatting (3DGS) scene representation. First, the method uses 3DGS to render a synthetic RGBD image at some initial pose estimate. Second, it establishes 2D-2D correspondences between the query image and this synthetic image. Third, it uses the depth map to lift the 2D-2D correspondences to 2D-3D correspondences and solves a perspective-n-point (PnP) problem to produce a final pose estimate. Results from evaluation across three existing datasets with 38 scenes and over 2,700 test images show that our method significantly reduces both inference time (by over two orders of magnitude, from more than 10 seconds to as fast as 0.1 seconds) and estimation error compared to baseline methods that use photometric loss minimization. Results also show that our method tolerates large errors in the initial pose estimate of up to 55{\deg} in rotation and 1.1 units in translation (normalized by scene scale), achieving final pose errors of less than 5{\deg} in rotation and 0.05 units in translation on 90% of images from the Synthetic NeRF and Mip-NeRF360 datasets and on 42% of images from the more challenging Tanks and Temples dataset.

arxiv情報

著者 Jongwon Lee,Timothy Bretl
発行日 2025-05-01 02:33:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | GSFeatLoc: Visual Localization Using Feature Correspondence on 3D Gaussian Splatting はコメントを受け付けていません

Bridging Deep Reinforcement Learning and Motion Planning for Model-Free Navigation in Cluttered Environments

要約

ディープ補強学習(DRL)は、最適なポリシーを学習するための強力なモデルのないパラダイムとして浮上しています。
ただし、散らかった環境を備えたナビゲーションタスクでは、DRLメソッドは、特にまばらな報酬やシステム障害を伴う複雑なダイナミクスの下で、探索が不十分な場合が多いことがよくあります。
この課題に対処するために、一般的なグラフベースのモーションプランニングをDRLに橋渡しし、エージェントが雑然とした空間をより効果的に探索し、望ましいナビゲーションパフォーマンスを実現できるようにします。
具体的には、状態空間全体に及ぶグラフ構造に基づいた密な報酬関数を設計します。
このグラフは、豊富なガイダンスを提供し、エージェントを最適な戦略に向けて導きます。
挑戦的な環境でのアプローチを検証し、探査効率とタスクの成功率の大幅な改善を実証します。

要約(オリジナル)

Deep Reinforcement Learning (DRL) has emerged as a powerful model-free paradigm for learning optimal policies. However, in navigation tasks with cluttered environments, DRL methods often suffer from insufficient exploration, especially under sparse rewards or complex dynamics with system disturbances. To address this challenge, we bridge general graph-based motion planning with DRL, enabling agents to explore cluttered spaces more effectively and achieve desired navigation performance. Specifically, we design a dense reward function grounded in a graph structure that spans the entire state space. This graph provides rich guidance, steering the agent toward optimal strategies. We validate our approach in challenging environments, demonstrating substantial improvements in exploration efficiency and task success rates.

arxiv情報

著者 Licheng Luo,Mingyu Cai
発行日 2025-05-01 03:32:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Bridging Deep Reinforcement Learning and Motion Planning for Model-Free Navigation in Cluttered Environments はコメントを受け付けていません

LightEMMA: Lightweight End-to-End Multimodal Model for Autonomous Driving

要約

ビジョン言語モデル(VLM)は、エンドツーエンドの自律運転の重要な可能性を実証しています。
ただし、安全で信頼性の高い車両制御の能力を完全に活用することは、未解決の研究課題です。
運転タスクにおけるVLMの進歩と制限を体系的に調べるために、自律運転のための軽量のエンドツーエンドのマルチモードモデルであるLightemmaを紹介します。
Lightemmaは、アドホックなカスタマイズなしで統一されたVLMベースの自律運転フレームワークを提供し、進化する最先端の商業およびオープンソースモデルの簡単な統合と評価を可能にします。
さまざまなVLMを使用して12の自律駆動剤を構築し、ヌスセン予測タスクのパフォーマンスを評価し、推論時間、計算コスト、予測精度などのメトリックを包括的に評価します。
例示的な例は、強力なシナリオ解釈能力にもかかわらず、自律運転タスクにおけるVLMSの実用的なパフォーマンスが依然として、さらなる改善の必要性を強調していることを強調しています。
このコードは、https://github.com/michigan-traffic-lab/lightemmaで入手できます。

要約(オリジナル)

Vision-Language Models (VLMs) have demonstrated significant potential for end-to-end autonomous driving. However, fully exploiting their capabilities for safe and reliable vehicle control remains an open research challenge. To systematically examine advances and limitations of VLMs in driving tasks, we introduce LightEMMA, a Lightweight End-to-End Multimodal Model for Autonomous driving. LightEMMA provides a unified, VLM-based autonomous driving framework without ad hoc customizations, enabling easy integration and evaluation of evolving state-of-the-art commercial and open-source models. We construct twelve autonomous driving agents using various VLMs and evaluate their performance on the nuScenes prediction task, comprehensively assessing metrics such as inference time, computational cost, and predictive accuracy. Illustrative examples highlight that, despite their strong scenario interpretation capabilities, VLMs’ practical performance in autonomous driving tasks remains concerning, emphasizing the need for further improvements. The code is available at https://github.com/michigan-traffic-lab/LightEMMA.

arxiv情報

著者 Zhijie Qiao,Haowei Li,Zhong Cao,Henry X. Liu
発行日 2025-05-01 04:12:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | LightEMMA: Lightweight End-to-End Multimodal Model for Autonomous Driving はコメントを受け付けていません

J-PARSE: Jacobian-based Projection Algorithm for Resolving Singularities Effectively in Inverse Kinematic Control of Serial Manipulators

要約

J-Parseは、運動学的特異性の近くの連続マニピュレーターの滑らかな一次逆運動制御の方法です。
コマンドされたエンド効果速度は、タスク空間の各次元で利用可能なモビリティに応じて、コンポーネントごとに解釈されます。
まず、代替の「安全」ヤコビアンマトリックスが作成され、操作性楕円体のアスペクト比をしきい値を超えて保ちます。
その後、目的の動きは非弦楽様の方向と特異な方向に投影され、後者の投影はしきい値によって通知される因子によってスケーリングされます。
sing弦のない安全性の右逆ジャコビアンが修正コマンドに適用されます。
共同限界と衝突がない場合、これにより、低ランクのポーズへの滑らかな移行が保証され、ワー​​クスペース内のターゲットポーズの漸近安定性が保証され、外部の人々の安定性が保証されます。
J-Parseによる速度制御は、ヤコビアンの最小二乗および減衰の最小二乗反転に対してベンチマークされ、特異なターゲットポーズに到達して残る際に高い精度を示します。
マニピュレーターの利用可能なワークスペースを拡張することにより、この方法はサーボ、テレオ操作、学習のアプリケーションを見つけます。

要約(オリジナル)

J-PARSE is a method for smooth first-order inverse kinematic control of a serial manipulator near kinematic singularities. The commanded end-effector velocity is interpreted component-wise, according to the available mobility in each dimension of the task space. First, a substitute ‘Safety’ Jacobian matrix is created, keeping the aspect ratio of the manipulability ellipsoid above a threshold value. The desired motion is then projected onto non-singular and singular directions, and the latter projection scaled down by a factor informed by the threshold value. A right-inverse of the non-singular Safety Jacobian is applied to the modified command. In the absence of joint limits and collisions, this ensures smooth transition into and out of low-rank poses, guaranteeing asymptotic stability for target poses within the workspace, and stability for those outside. Velocity control with J-PARSE is benchmarked against the Least-Squares and Damped Least-Squares inversions of the Jacobian, and shows high accuracy in reaching and leaving singular target poses. By expanding the available workspace of manipulators, the method finds applications in servoing, teleoperation, and learning.

arxiv情報

著者 Shivani Guptasarma,Matthew Strong,Honghao Zhen,Monroe Kennedy III
発行日 2025-05-01 04:58:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | J-PARSE: Jacobian-based Projection Algorithm for Resolving Singularities Effectively in Inverse Kinematic Control of Serial Manipulators はコメントを受け付けていません

Achieving Human Level Competitive Robot Table Tennis

要約

現実世界のタスクで人間レベルの速度とパフォーマンスを達成することは、ロボット研究コミュニティのノーススターです。
この作業は、その目標に向かって一歩を踏み出し、競争力のある卓球でアマチュアの人間レベルのパフォーマンスに到達する最初の学んだロボットエージェントを提示します。
Table Tennisは、高度なレベルの習熟度を達成するために長年のトレーニングを受ける必要がある身体的に厳しいスポーツです。
この論文では、(1)エージェントの機能をモデル化し、SIMからリアルのギャップをモデル化し、(ii)SIMからリアルギャップを埋めるのに役立つ詳細なスキル記述子を備えた低レベルコントローラーで構成される階層的およびモジュール式ポリシーアーキテクチャを(1)貢献します。
自動カリキュラム、および(3)目に見えない敵へのリアルタイムの適応。
ポリシーのパフォーマンスは、29のロボット対ヒューマンマッチで評価され、ロボットは45%(13/29)を獲得しました。
すべての人間は目に見えない選手であり、彼らのスキルレベルは初心者からトーナメントレベルまでさまざまでした。
ロボットはすべての試合と最先端のプレイヤーを失いましたが、初心者と55%の試合対中級選手を獲得し、アマチュアの人間レベルのパフォーマンスを実証しました。
試合のビデオは、https://sites.google.com/view/competitive-robot-table-tennisで見ることができます

要約(オリジナル)

Achieving human-level speed and performance on real world tasks is a north star for the robotics research community. This work takes a step towards that goal and presents the first learned robot agent that reaches amateur human-level performance in competitive table tennis. Table tennis is a physically demanding sport which requires human players to undergo years of training to achieve an advanced level of proficiency. In this paper, we contribute (1) a hierarchical and modular policy architecture consisting of (i) low level controllers with their detailed skill descriptors which model the agent’s capabilities and help to bridge the sim-to-real gap and (ii) a high level controller that chooses the low level skills, (2) techniques for enabling zero-shot sim-to-real including an iterative approach to defining the task distribution that is grounded in the real-world and defines an automatic curriculum, and (3) real time adaptation to unseen opponents. Policy performance was assessed through 29 robot vs. human matches of which the robot won 45% (13/29). All humans were unseen players and their skill level varied from beginner to tournament level. Whilst the robot lost all matches vs. the most advanced players it won 100% matches vs. beginners and 55% matches vs. intermediate players, demonstrating solidly amateur human-level performance. Videos of the matches can be viewed at https://sites.google.com/view/competitive-robot-table-tennis

arxiv情報

著者 David B. D’Ambrosio,Saminda Abeyruwan,Laura Graesser,Atil Iscen,Heni Ben Amor,Alex Bewley,Barney J. Reed,Krista Reymann,Leila Takayama,Yuval Tassa,Krzysztof Choromanski,Erwin Coumans,Deepali Jain,Navdeep Jaitly,Natasha Jaques,Satoshi Kataoka,Yuheng Kuang,Nevena Lazic,Reza Mahjourian,Sherry Moore,Kenneth Oslund,Anish Shankar,Vikas Sindhwani,Vincent Vanhoucke,Grace Vesom,Peng Xu,Pannag R. Sanketi
発行日 2025-05-01 05:05:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Achieving Human Level Competitive Robot Table Tennis はコメントを受け付けていません

Spatiotemporal Tubes for Temporal Reach-Avoid-Stay Tasks in Unknown Systems

要約

このペーパーでは、不明な範囲の範囲滞在タスクを満たすことを目的とした、未知のダイナミクスを持つ一般的なMIMOシステムのコントローラー合成問題を考慮します。
この論文の主な目的は、サンプリングベースのアプローチを使用して空間的チューブ(STT)を構築し、それにより、クローズドフォーム近似のない制御戦略を考案して、システムの軌跡が時間依存の安全でないセットを回避しながらターゲットセットに到達するようにすることです。
提案されたスキームは、STTSを含む新しい方法を利用して、システムの安全性と到達可能性の両方を保証するコントローラーを提供します。
サンプリングベースのフレームワークでは、STTSの要件を堅牢な最適化プログラム(ROP)に変換します。
無限の制約によって引き起こされるROPの無効性に対処するために、サンプリングベースのシナリオ最適化プログラム(SOP)を利用します。
その後、SOPを解決して、未知のシステム用のチューブと閉形型コントローラーを生成し、時間的リーチと回避の仕様を確保します。
最後に、提案されたアプローチの有効性は、3つのケーススタディ、つまり全方向性ロボット、スカラマニピュレーター、磁気浮揚システムを通じて実証されています。

要約(オリジナル)

The paper considers the controller synthesis problem for general MIMO systems with unknown dynamics, aiming to fulfill the temporal reach-avoid-stay task, where the unsafe regions are time-dependent, and the target must be reached within a specified time frame. The primary aim of the paper is to construct the spatiotemporal tube (STT) using a sampling-based approach and thereby devise a closed-form approximation-free control strategy to ensure that system trajectory reaches the target set while avoiding time-dependent unsafe sets. The proposed scheme utilizes a novel method involving STTs to provide controllers that guarantee both system safety and reachability. In our sampling-based framework, we translate the requirements of STTs into a Robust optimization program (ROP). To address the infeasibility of ROP caused by infinite constraints, we utilize the sampling-based Scenario optimization program (SOP). Subsequently, we solve the SOP to generate the tube and closed-form controller for an unknown system, ensuring the temporal reach-avoid-stay specification. Finally, the effectiveness of the proposed approach is demonstrated through three case studies: an omnidirectional robot, a SCARA manipulator, and a magnetic levitation system.

arxiv情報

著者 Ratnangshu Das,Ahan Basu,Pushpak Jagtap
発行日 2025-05-01 05:07:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | Spatiotemporal Tubes for Temporal Reach-Avoid-Stay Tasks in Unknown Systems はコメントを受け付けていません