Autonomy Architectures for Safe Planning in Unknown Environments Under Budget Constraints

要約

ミッション計画は、多くの場合、複数のパス制約(すなわち、安全制約)および予算制約(つまり、リソース支出の制約)の下で制約された制御問題として策定できます。
アプリオリの未知の環境では、オフラインソリューションがすべての時間の制約を満たすことを確認することは、不可能ではないにしても困難な場合があります。
私たちの貢献は次のとおりです。1)以前の作業「ゲートキーパー」に基づいて構築するオンライン方法を提案し、ミッション全体で常にシステムの軌跡の予算の制約を満たします。
2)次に、アルゴリズムが再帰的に実行可能で正しいことを証明します。
3)最後に、ヒューリスティックに設計されたバックアップコントローラーを使用する代わりに、リソースの支出を最小限に抑え、予算の更新セットに到達するバックアップ軌道を構築するサンプリングベースの方法を提案します。
視覚的ランドマークで更新できるローカリゼーションエラーに対する予算の制約を伴うGNSS除去された環境で、固定翼UAVを使用したシミュレーションでのアプローチを実証します。

要約(オリジナル)

Mission planning can often be formulated as a constrained control problem under multiple path constraints (i.e., safety constraints) and budget constraints (i.e., resource expenditure constraints). In a priori unknown environments, verifying that an offline solution will satisfy the constraints for all time can be difficult, if not impossible. Our contributions are as follows: 1) We propose an online method, building on our previous work ‘gatekeeper’, to guarantee safety and satisfy budget constraints of the system trajectory at all times throughout a mission. 2) Next, we prove that our algorithm is recursively feasible and correct. 3) Finally, instead of using a heuristically designed backup controller, we propose a sampling-based method to construct backup trajectories that both minimize resource expenditure and reach budget renewal sets, in which path constraints are satisfied and the constrained resources are renewed. We demonstrate our approach in simulation with a fixed-wing UAV in a GNSS-denied environment with a budget constraint on localization error that can be renewed at visual landmarks.

arxiv情報

著者 Daniel M. Cherenson,Devansh R. Agrawal,Dimitra Panagou
発行日 2025-04-03 19:46:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | Autonomy Architectures for Safe Planning in Unknown Environments Under Budget Constraints はコメントを受け付けていません

AIR: A Systematic Analysis of Annotations, Instructions, and Response Pairs in Preference Dataset

要約

プリファレンス学習は、大規模言語モデル(LLM)を人間の価値観に合わせるために重要であるが、その成功は3つのコアコンポーネントからなる高品質なデータセットにかかっている:Preference(嗜好) 〙注釈、〙指示、〙応答ペア。現在のアプローチはこれらの構成要素を混同しているため、個々の影響が不明瞭になり、体系的な最適化を妨げている。そこで本研究では、各構成要素を系統的に分離・最適化し、その相乗効果を評価する構成要素別分析フレームワーク「AIR」を提案する。厳密な実験を通して、AIRは実用的な原則を明らかにした:アノテーションの単純さ(ポイント単位の生成スコアリング)、命令推論の安定性(LLM間の分散ベースのフィルタリング)、応答ペアの品質(適度なマージン+高い絶対スコア)。これらの原則を組み合わせることで、14k組の高品質なペアを使用した場合でも、ベースライン手法と比較して平均5.3%の改善が得られた。我々の研究は、プリファレンスデータセットの設計をアドホックなスケーリングからコンポーネントを考慮した最適化へとシフトさせ、効率的で再現可能なアライメントの青写真を提供する。

要約(オリジナル)

Preference learning is critical for aligning large language models (LLMs) with human values, yet its success hinges on high-quality datasets comprising three core components: Preference \textbf{A}nnotations, \textbf{I}nstructions, and \textbf{R}esponse Pairs. Current approaches conflate these components, obscuring their individual impacts and hindering systematic optimization. In this work, we propose \textbf{AIR}, a component-wise analysis framework that systematically isolates and optimizes each component while evaluating their synergistic effects. Through rigorous experimentation, AIR reveals actionable principles: annotation simplicity (point-wise generative scoring), instruction inference stability (variance-based filtering across LLMs), and response pair quality (moderate margins + high absolute scores). When combined, these principles yield +5.3 average gains over baseline method, even with only 14k high-quality pairs. Our work shifts preference dataset design from ad hoc scaling to component-aware optimization, offering a blueprint for efficient, reproducible alignment.

arxiv情報

著者 Bingxiang He,Wenbin Zhang,Jiaxi Song,Cheng Qian,Zixuan Fu,Bowen Sun,Ning Ding,Haiwen Hong,Longtao Huang,Hui Xue,Ganqu Cui,Wanxiang Che,Zhiyuan Liu,Maosong Sun
発行日 2025-04-04 17:33:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL | AIR: A Systematic Analysis of Annotations, Instructions, and Response Pairs in Preference Dataset はコメントを受け付けていません

Floxels: Fast Unsupervised Voxel Based Scene Flow Estimation

要約

シーンフロー推定は、ロバストな動的物体検出、自動ラベリング、センサー同期など、多くのロボットアプリケーションの基礎となるタスクである。この問題に対する2種類のアプローチが発展してきた:1)教師あり手法と2)最適化ベースの手法である。教師あり手法は推論が高速で、高品質な結果を得ることができるが、大量のラベル付き学習データが必要であり、ドメインギャップの影響を受けやすいという制約がある。対照的に、教師なしテスト時間最適化手法は、ドメインギャップの問題に直面しないが、通常、かなりの実行時間に悩まされ、アーチファクトを示し、正しい解に収束しない。本研究では、既存の最適化ベースの手法のいくつかの限界を緩和する。この目的のため、1)多次元において標準的なMLPベースの定式化を改善する単純なボクセルグリッドベースのモデルを導入し、2)新しいマルチフレーム損失定式化を導入する。3) Floxelsと呼ばれる新しい手法に両者の寄与を組み合わせる。Argoverse 2ベンチマークにおいて、Floxelsは教師なし手法の中でEulerFlowにのみ抜かれ、同等の性能をわずかな計算コストで達成している。FloxelsはEulerFlowに対して60倍から140倍以上の大幅なスピードアップを達成し、1シーケンスあたりの実行時間を1日から10分に短縮した。より高速だが低品質なベースラインであるNSFPに対して、Floxelsは~14倍のスピードアップを達成している。

要約(オリジナル)

Scene flow estimation is a foundational task for many robotic applications, including robust dynamic object detection, automatic labeling, and sensor synchronization. Two types of approaches to the problem have evolved: 1) Supervised and 2) optimization-based methods. Supervised methods are fast during inference and achieve high-quality results, however, they are limited by the need for large amounts of labeled training data and are susceptible to domain gaps. In contrast, unsupervised test-time optimization methods do not face the problem of domain gaps but usually suffer from substantial runtime, exhibit artifacts, or fail to converge to the right solution. In this work, we mitigate several limitations of existing optimization-based methods. To this end, we 1) introduce a simple voxel grid-based model that improves over the standard MLP-based formulation in multiple dimensions and 2) introduce a new multiframe loss formulation. 3) We combine both contributions in our new method, termed Floxels. On the Argoverse 2 benchmark, Floxels is surpassed only by EulerFlow among unsupervised methods while achieving comparable performance at a fraction of the computational cost. Floxels achieves a massive speedup of more than ~60 – 140x over EulerFlow, reducing the runtime from a day to 10 minutes per sequence. Over the faster but low-quality baseline, NSFP, Floxels achieves a speedup of ~14x.

arxiv情報

著者 David T. Hoffmann,Syed Haseeb Raza,Hanqiu Jiang,Denis Tananaev,Steffen Klingenhoefer,Martin Meinke
発行日 2025-04-03 18:17:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.LG, cs.RO | Floxels: Fast Unsupervised Voxel Based Scene Flow Estimation はコメントを受け付けていません

Distributionally Robust Predictive Runtime Verification under Spatio-Temporal Logic Specifications

要約

シミュレータで設計されたサイバーフィジカルシステムは、多くの場合、複数の相互作用するエージェントで構成されるが、実世界では異なる挙動を示す。我々は、このようなシステムを実運用時に検証したいと考えている。そこで我々は、以下のようなロバストな実行時予測検証(RPRV)アルゴリズムを提案する:(1)信号時間論理(STL)タスクの下での一般的確率的CPS、および(2)時空間論理タスクの下での確率的マルチエージェントシステム(MAS)。RPRV問題には以下の課題がある:(1)配備されたCPSの挙動に関する十分なデータが存在しない可能性がある、(2)設計段階のシステム軌道に基づく予測モデルは、実世界の配備中に分布シフトに遭遇する可能性がある、(3)アルゴリズムはMASの複雑性に対応し、時空間論理タスクに適用可能である必要がある。これらの課題に対処するために、我々は、配備時と設計時のシステムの軌道分布の間の統計的距離(f-ダイバージェンス)の上界についての知識を前提とする。我々は、一般的なCPSのための正確で解釈可能なRPRVアルゴリズムを提案した先行研究[1, 2]に動機付けられ、ここではそれをMAS設定と時空間論理タスクに拡張する。具体的には、学習された予測モデルを用いて実行時のシステム動作を推定し、ロバストな適合予測を用いて分布のシフトを考慮することで確率的保証を得る。1]を基に、時空間リーチ&エスケープ論理(STREL)のロバストなセマンティクス上でロバストな適合予測を行い、MASのための集中型RPRVアルゴリズムを得る。我々は、ドローン群シミュレータにおいて、我々の結果を実証的に検証し、MASに対する我々のRPRVアルゴリズムのスケーラビリティを示し、検証結果に対する異なる軌道予測器の影響を分析する。我々の知る限り、これらは分布シフト下におけるMASのための最初の統計的に有効なアルゴリズムである。

要約(オリジナル)

Cyber-physical systems designed in simulators, often consisting of multiple interacting agents, behave differently in the real-world. We would like to verify these systems during runtime when they are deployed. Thus, we propose robust predictive runtime verification (RPRV) algorithms for: (1) general stochastic CPS under signal temporal logic (STL) tasks, and (2) stochastic multi-agent systems (MAS) under spatio-temporal logic tasks. The RPRV problem presents the following challenges: (1) there may not be sufficient data on the behavior of the deployed CPS, (2) predictive models based on design phase system trajectories may encounter distribution shift during real-world deployment, and (3) the algorithms need to scale to the complexity of MAS and be applicable to spatio-temporal logic tasks. To address these challenges, we assume knowledge of an upper bound on the statistical distance (in terms of an f-divergence) between the trajectory distributions of the system at deployment and design time. We are motivated by our prior work [1, 2] where we proposed an accurate and an interpretable RPRV algorithm for general CPS, which we here extend to the MAS setting and spatio-temporal logic tasks. Specifically, we use a learned predictive model to estimate the system behavior at runtime and robust conformal prediction to obtain probabilistic guarantees by accounting for distribution shifts. Building on [1], we perform robust conformal prediction over the robust semantics of spatio-temporal reach and escape logic (STREL) to obtain centralized RPRV algorithms for MAS. We empirically validate our results in a drone swarm simulator, where we show the scalability of our RPRV algorithms to MAS and analyze the impact of different trajectory predictors on the verification result. To the best of our knowledge, these are the first statistically valid algorithms for MAS under distribution shift.

arxiv情報

著者 Yiqi Zhao,Emily Zhu,Bardh Hoxha,Georgios Fainekos,Jyotirmoy V. Deshmukh,Lars Lindemann
発行日 2025-04-03 18:33:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LO, cs.RO, cs.SY, eess.SY | Distributionally Robust Predictive Runtime Verification under Spatio-Temporal Logic Specifications はコメントを受け付けていません

Bootstrapped Model Predictive Control

要約

モデル予測制御(MPC)は、連続的な制御タスクにおいて有効であることが実証されている。世界モデルと価値関数が利用可能な場合、前もって一連の行動を計画することで、より良い政策が導かれる。既存の手法は、通常、モデルフリーな方法で価値関数とそれに対応するポリシーを求める。しかし、このようなアプローチは複雑なタスクに苦戦し、その結果、政策学習がうまくいかず、価値推定が不正確になる。この問題に対処するために、我々はMPC自体の長所を活用する。本研究では、ブートストラップ型モデル予測制御(Bootstrapped Model Predictive Control: BMPC)を導入する。BMPCはMPCエキスパートを模倣することでネットワークポリシーを学習し、そのポリシーをMPCプロセスのガイドに用いる。モデルベースのTD学習と組み合わせることで、我々のポリシー学習はより良い値推定をもたらし、MPCの効率をさらに高める。また、計算効率の良い模倣学習を可能にする遅延再分析メカニズムも導入する。我々の手法は、様々な連続制御タスクにおいて、先行研究よりも優れた性能を達成する。特に、難易度の高い高次元運動課題において、BMPCはデータ効率を大幅に向上させるとともに、漸近的な性能と学習の安定性を向上させ、同等の学習時間とより小さなネットワークサイズを実現する。コードはhttps://github.com/wertyuilife2/bmpc。

要約(オリジナル)

Model Predictive Control (MPC) has been demonstrated to be effective in continuous control tasks. When a world model and a value function are available, planning a sequence of actions ahead of time leads to a better policy. Existing methods typically obtain the value function and the corresponding policy in a model-free manner. However, we find that such an approach struggles with complex tasks, resulting in poor policy learning and inaccurate value estimation. To address this problem, we leverage the strengths of MPC itself. In this work, we introduce Bootstrapped Model Predictive Control (BMPC), a novel algorithm that performs policy learning in a bootstrapped manner. BMPC learns a network policy by imitating an MPC expert, and in turn, uses this policy to guide the MPC process. Combined with model-based TD-learning, our policy learning yields better value estimation and further boosts the efficiency of MPC. We also introduce a lazy reanalyze mechanism, which enables computationally efficient imitation learning. Our method achieves superior performance over prior works on diverse continuous control tasks. In particular, on challenging high-dimensional locomotion tasks, BMPC significantly improves data efficiency while also enhancing asymptotic performance and training stability, with comparable training time and smaller network sizes. Code is available at https://github.com/wertyuilife2/bmpc.

arxiv情報

著者 Yuhang Wang,Hanwei Guo,Sizhe Wang,Long Qian,Xuguang Lan
発行日 2025-04-03 19:21:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG, cs.RO | Bootstrapped Model Predictive Control はコメントを受け付けていません

What People Share With a Robot When Feeling Lonely and Stressed and How It Helps Over Time

要約

孤独やストレスは若年成人の間で蔓延しており、心理的・健康的に重大な影響を及ぼす。ソーシャルロボットは、特に会話型AIの進歩が進んでいることを考慮すると、感情的支援の有望な手段を提供する可能性がある。本研究では、ソーシャルロボットとの繰り返されるインタラクションが、孤独感やストレスの認知にどのような影響を与えるのか、また、そのような感情がロボットに対するユーザーの情報開示のテーマにどのように反映されるのかを調査した。参加者は5セッションのロボット主導の介入に参加し、大規模言語モデルを搭載したQTrobotが、認知的再評価を支援するように設計された構造化された会話を促進した。線形混合効果モデルの結果は、孤独感と知覚ストレスの両方が経時的に有意に減少したことを示している。さらに、ロボットに対する560人のユーザーの開示の意味的クラスタリングにより、6つの異なる会話テーマが明らかになった。Kruskal-WallisのH検定の結果は、より高い孤独感とストレスを報告した参加者が、友情やつながりなど、社会的に焦点を当てた開示をより頻繁に行ったのに対し、より低い苦痛は、内省的で目標指向のテーマ(例えば、学問的野心)と関連していたことを示している。介入が幸福感にどのような影響を与えるか、また幸福感がロボットが指示する会話の内容をどのように形成するかを探ることで、我々は人間とロボットの相互作用における感情的支援の動的な性質を捉えることを目指している。

要約(オリジナル)

Loneliness and stress are prevalent among young adults and are linked to significant psychological and health-related consequences. Social robots may offer a promising avenue for emotional support, especially when considering the ongoing advancements in conversational AI. This study investigates how repeated interactions with a social robot influence feelings of loneliness and perceived stress, and how such feelings are reflected in the themes of user disclosures towards the robot. Participants engaged in a five-session robot-led intervention, where a large language model powered QTrobot facilitated structured conversations designed to support cognitive reappraisal. Results from linear mixed-effects models show significant reductions in both loneliness and perceived stress over time. Additionally, semantic clustering of 560 user disclosures towards the robot revealed six distinct conversational themes. Results from a Kruskal-Wallis H-test demonstrate that participants reporting higher loneliness and stress more frequently engaged in socially focused disclosures, such as friendship and connection, whereas lower distress was associated with introspective and goal-oriented themes (e.g., academic ambitions). By exploring both how the intervention affects well-being, as well as how well-being shapes the content of robot-directed conversations, we aim to capture the dynamic nature of emotional support in huma-robot interaction.

arxiv情報

著者 Guy Laban,Sophie Chiang,Hatice Gunes
発行日 2025-04-03 19:30:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.HC, cs.RO | What People Share With a Robot When Feeling Lonely and Stressed and How It Helps Over Time はコメントを受け付けていません

High-Performance Vision-Based Tactile Sensing Enhanced by Microstructures and Lightweight CNN

要約

触覚センシングは、刺激を検出するために人間の触覚をエミュレートすることにより、高度なインタラクティブシステムにおいて重要である。視覚ベースの触覚センサーは、マルチモーダル機能と高いロバスト性を提供するために有望であるが、既存の技術では、感度、空間分解能、およびディープラーニングベースの画像処理の高い計算要求において、まだ限界がある。本論文では、新しい微細構造ベースのセンサー設計と効率的な画像処理を組み合わせた包括的なアプローチを紹介し、慎重に設計された微細構造が、計算負荷を軽減しながら性能を大幅に向上できることを実証する。従来のトラッキングマーカーを用いず、我々のセンサーは微細構造の一例として、微細加工されたトレンチを持つ表面を組み込んでおり、このトレンチは光透過を変調し、加えられた力に対する応答を増幅する。増幅された画像の特徴は、超軽量の畳み込みニューラルネットワークによって抽出され、接触位置、変位、加えられた力を高精度で正確に推測することができる。理論解析により、マイクロトレンチが形状の歪みの視覚効果を大幅に増幅することを実証した。市販のウェブカメラのみを使用したセンサーシステムは、5mN以下の力を効果的に検出し、ミリメートルレベルの1点空間分解能を達成した。畳み込み層が1層しかないモデルを使用して、0.05mm以下の平均絶対誤差を達成した。センサ本体が柔らかいため、ソフトロボットとのシームレスな統合が可能であり、電気的クロストークや干渉に対する耐性があるため、複雑な人間と機械の環境における信頼性が保証されている。

要約(オリジナル)

Tactile sensing is critical in advanced interactive systems by emulating the human sense of touch to detect stimuli. Vision-based tactile sensors are promising for providing multimodal capabilities and high robustness, yet existing technologies still have limitations in sensitivity, spatial resolution, and high computational demands of deep learning-based image processing. This paper presents a comprehensive approach combining a novel microstructure-based sensor design and efficient image processing, demonstrating that carefully engineered microstructures can significantly enhance performance while reducing computational load. Without traditional tracking markers, our sensor incorporates an surface with micromachined trenches, as an example of microstructures, which modulate light transmission and amplify the response to applied force. The amplified image features can be extracted by a ultra lightweight convolutional neural network to accurately inferring contact location, displacement, and applied force with high precision. Through theoretical analysis, we demonstrated that the micro trenches significantly amplified the visual effects of shape distortion. Using only a commercial webcam, the sensor system effectively detected forces below 5 mN, and achieved a millimetre-level single-point spatial resolution. Using a model with only one convolutional layer, a mean absolute error below 0.05 mm was achieved. Its soft sensor body allows seamless integration with soft robots, while its immunity to electrical crosstalk and interference guarantees reliability in complex human-machine environments.

arxiv情報

著者 Mayue Shi,Yongqi Zhang,Xiaotong Guo,Eric M. Yeatman
発行日 2025-04-03 19:36:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.HC, cs.RO | High-Performance Vision-Based Tactile Sensing Enhanced by Microstructures and Lightweight CNN はコメントを受け付けていません

AuDeRe: Automated Strategy Decision and Realization in Robot Planning and Control via LLMs

要約

近年の大規模言語モデル(LLM)の進歩は、様々な領域、特にロボット工学において大きな可能性を示している。しかし、ロボットアプリケーションにおけるLLMベースの先行研究のほとんどは、ウェイポイントを直接予測するか、固定されたツール統合フレームワークの中でLLMを適用するかのいずれかであり、異なるタスクに最適なソリューションを探索・設定する柔軟性が限られている。この研究では、タスク記述、環境制約、およびシステムダイナミクスに基づいて、適切なプランニングと制御戦略を選択するためにLLMを活用するフレームワークを提案する。これらの戦略は、利用可能な包括的な計画・制御APIを呼び出すことで実行される。我々のアプローチは、アルゴリズムの選択を改良するために、性能フィードバックを伴う反復的なLLMベースの推論を採用している。我々は、単純な追跡から時空間制約を含む複雑な計画シナリオまで、様々な複雑さのタスクにわたる広範な実験を通して、我々のアプローチを検証する。その結果、自然言語記述から計画・制御戦略を決定するためにLLMを使用することで、ロボットの自律性を大幅に向上させるとともに、大規模な手動チューニングや専門家の知識の必要性を低減することが実証された。さらに、我々のフレームワークは、様々なタスクに対する汎用性を維持し、軌道、制御シーケンス、コード生成を直接LLMに依存するベースライン手法を顕著に凌駕する。

要約(オリジナル)

Recent advancements in large language models (LLMs) have shown significant promise in various domains, especially robotics. However, most prior LLM-based work in robotic applications either directly predicts waypoints or applies LLMs within fixed tool integration frameworks, offering limited flexibility in exploring and configuring solutions best suited to different tasks. In this work, we propose a framework that leverages LLMs to select appropriate planning and control strategies based on task descriptions, environmental constraints, and system dynamics. These strategies are then executed by calling the available comprehensive planning and control APIs. Our approach employs iterative LLM-based reasoning with performance feedback to refine the algorithm selection. We validate our approach through extensive experiments across tasks of varying complexity, from simple tracking to complex planning scenarios involving spatiotemporal constraints. The results demonstrate that using LLMs to determine planning and control strategies from natural language descriptions significantly enhances robotic autonomy while reducing the need for extensive manual tuning and expert knowledge. Furthermore, our framework maintains generalizability across different tasks and notably outperforms baseline methods that rely on LLMs for direct trajectory, control sequence, or code generation.

arxiv情報

著者 Yue Meng,Fei Chen,Yongchao Chen,Chuchu Fan
発行日 2025-04-03 20:20:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO | AuDeRe: Automated Strategy Decision and Realization in Robot Planning and Control via LLMs はコメントを受け付けていません

How to Adapt Control Barrier Functions? A Learning-Based Approach with Applications to a VTOL Quadplane

要約

本論文では、制御障壁関数(CBF)パラメータ、すなわちCBF条件に含まれるクラスK関数の、入力制約下でのオンライン適応のための新しい理論的枠組みを提示する。南雲の定理と接円錐解析から導かれた条件に基づいて、有限水平安全性を保証するためにオンラインで適応される、局所的に有効なCBFパラメータの概念を導入する。これらのパラメータをオンラインで同定するために、ニューラルネットワーク予測に内在するエピステミックな不確実性とアレータリックな不確実性の両方を考慮する不確実性を考慮した検証プロセスと学習ベースのアプローチを統合する。本手法は、VTOLクワッドプレーンモデルを用いて、困難な遷移および着陸マヌーバにおいて実証され、安全性を維持しながら性能が向上していることを示す。

要約(オリジナル)

In this paper, we present a novel theoretical framework for online adaptation of Control Barrier Function (CBF) parameters, i.e., of the class K functions included in the CBF condition, under input constraints. We introduce the concept of locally validated CBF parameters, which are adapted online to guarantee finite-horizon safety, based on conditions derived from Nagumo’s theorem and tangent cone analysis. To identify these parameters online, we integrate a learning-based approach with an uncertainty-aware verification process that account for both epistemic and aleatoric uncertainties inherent in neural network predictions. Our method is demonstrated on a VTOL quadplane model during challenging transition and landing maneuvers, showcasing enhanced performance while maintaining safety.

arxiv情報

著者 Taekyung Kim,Randal W. Beard,Dimitra Panagou
発行日 2025-04-03 21:32:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO, cs.SY, eess.SY | How to Adapt Control Barrier Functions? A Learning-Based Approach with Applications to a VTOL Quadplane はコメントを受け付けていません

Towards Mobile Sensing with Event Cameras on High-agility Resource-constrained Devices: A Survey

要約

モバイル機器アプリケーションの複雑化に伴い、これらの機器は高い俊敏性を目指して進化している。このシフトは、特に高精度と低遅延を達成するという点で、モバイルセンシングに新たな要求を課す。イベントベースビジョンは破壊的なパラダイムとして登場し、高い時間分解能、低レイテンシ、エネルギー効率を提供し、高機動性プラットフォームにおける高精度かつ低レイテンシのセンシングタスクに適している。しかし、ノイズの多いイベントの存在、固有のセマンティック情報の欠如、大量のデータ量は、リソースに制約のあるモバイル機器でのイベントベースのデータ処理に大きな課題をもたらす。本稿では、2014年から2024年にかけての文献を調査し、イベントベースのモバイルセンシングシステムの包括的な概観を提供し、基本原理、イベントの抽象化手法、アルゴリズムの進歩、ハードウェアおよびソフトウェアの高速化戦略を網羅する。また、視覚的オドメトリ、物体追跡、オプティカルフロー推定、3D再構成を含む、モバイルセンシングにおけるイベントカメラの主要なアプリケーションについて議論し、イベントデータ処理、センサーフュージョン、リアルタイム展開に関連する課題を強調する。さらに、高度な光学系を備えたイベントカメラハードウェアの改良、効率的な処理のためのニューロモルフィックコンピューティングの活用、知覚を強化するためのバイオインスパイアードアルゴリズムの統合など、今後の研究の方向性を概説する。現在進行中の研究をサポートするために、私たちはオープンソースの୧⃛(๑⃙⃘⁼̴̀꒳⁼̴́๑⃙⃘)୨⃛を提供します。このサーベイが貴重な参考資料となり、多様なアプリケーションにイベントベースビジョンを採用することが促進されることを願っています。

要約(オリジナル)

With the increasing complexity of mobile device applications, these devices are evolving toward high agility. This shift imposes new demands on mobile sensing, particularly in terms of achieving high accuracy and low latency. Event-based vision has emerged as a disruptive paradigm, offering high temporal resolution, low latency, and energy efficiency, making it well-suited for high-accuracy and low-latency sensing tasks on high-agility platforms. However, the presence of substantial noisy events, the lack of inherent semantic information, and the large data volume pose significant challenges for event-based data processing on resource-constrained mobile devices. This paper surveys the literature over the period 2014-2024, provides a comprehensive overview of event-based mobile sensing systems, covering fundamental principles, event abstraction methods, algorithmic advancements, hardware and software acceleration strategies. We also discuss key applications of event cameras in mobile sensing, including visual odometry, object tracking, optical flow estimation, and 3D reconstruction, while highlighting the challenges associated with event data processing, sensor fusion, and real-time deployment. Furthermore, we outline future research directions, such as improving event camera hardware with advanced optics, leveraging neuromorphic computing for efficient processing, and integrating bio-inspired algorithms to enhance perception. To support ongoing research, we provide an open-source \textit{Online Sheet} with curated resources and recent developments. We hope this survey serves as a valuable reference, facilitating the adoption of event-based vision across diverse applications.

arxiv情報

著者 Haoyang Wang,Ruishan Guo,Pengtao Ma,Ciyu Ruan,Xinyu Luo,Wenhua Ding,Tianyang Zhong,Jingao Xu,Yunhao Liu,Xinlei Chen
発行日 2025-04-03 21:53:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.RO | Towards Mobile Sensing with Event Cameras on High-agility Resource-constrained Devices: A Survey はコメントを受け付けていません