DRPA-MPPI: Dynamic Repulsive Potential Augmented MPPI for Reactive Navigation in Unstructured Environments

要約

非構造化された環境でのリアクティブなモバイルロボットナビゲーションは、ロボットが以前に計画されていた軌跡を無効にする予期しない障害に遭遇すると困難です。
モデル予測パス積分制御(MPPI)は、リアクティブな計画を可能にしますが、障害物近くの局所的な最小トラップにつながる限られた予測視野に依然として苦しんでいます。
現在のソリューションは、ヒューリスティックなコスト設計またはシナリオ固有の事前トレーニングに依存しており、多くの場合、新しい環境への適応性を制限しています。
動的な反発潜在的拡張MPPI(DRPA-MPPI)を導入し、予測された軌跡の潜在的な閉じ込めを動的に検出します。
ローカルミニマを検出すると、DRPA-MPPIは、標準の目標指向の最適化と、ローカルミニマから反発力を生成する修正コスト関数を自動的に切り替えます。
シミュレートされた障害物が豊富な環境での包括的なテストにより、DRPA-MPPIの優れたナビゲーションパフォーマンスと安全性が、計算負担が少ない従来の方法と比較して確認されます。

要約(オリジナル)

Reactive mobile robot navigation in unstructured environments is challenging when robots encounter unexpected obstacles that invalidate previously planned trajectories. Model predictive path integral control (MPPI) enables reactive planning, but still suffers from limited prediction horizons that lead to local minima traps near obstacles. Current solutions rely on heuristic cost design or scenario-specific pre-training, which often limits their adaptability to new environments. We introduce dynamic repulsive potential augmented MPPI (DRPA-MPPI), which dynamically detects potential entrapments on the predicted trajectories. Upon detecting local minima, DRPA-MPPI automatically switches between standard goal-oriented optimization and a modified cost function that generates repulsive forces away from local minima. Comprehensive testing in simulated obstacle-rich environments confirms DRPA-MPPI’s superior navigation performance and safety compared to conventional methods with less computational burden.

arxiv情報

著者 Takahiro Fuke,Masafumi Endo,Kohei Honda,Genya Ishigami
発行日 2025-03-26 00:57:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | DRPA-MPPI: Dynamic Repulsive Potential Augmented MPPI for Reactive Navigation in Unstructured Environments はコメントを受け付けていません

Hybrid Physics-ML Modeling for Marine Vehicle Maneuvering Motions in the Presence of Environmental Disturbances

要約

環境障害の存在下でのモデリング能力と安定性に対処するために、Surface Vehiclesの操縦動作には、ハイブリッド物理マシン学習モデリングフレームワークが提案されています。
深い学習の観点から、フレームワークは、追加の機能抽出を備えた残差ネットワークのバリアントバージョンに基づいています。
当初、不完全な物理モデルが導出され、識別され、海洋車両の基本的な流体力学的特性をキャプチャします。
このモデルは、残差ブロックを介してフィードフォワードネットワークと統合されます。
さらに、三角測定の変換からの特徴抽出が機械学習コンポーネントで採用され、電流と波の周期的な影響を説明します。
提案された方法は、「JH7500」無人の表面車両の実際のナビゲーションデータを使用して評価されます。
結果は、特定の環境条件における非線形動的モデルの堅牢な一般化可能性と正確な長期予測機能を示しています。
このアプローチには、包括的な高忠実度シミュレーターを開発するために拡張および適用される可能性があります。

要約(オリジナル)

A hybrid physics-machine learning modeling framework is proposed for the surface vehicles’ maneuvering motions to address the modeling capability and stability in the presence of environmental disturbances. From a deep learning perspective, the framework is based on a variant version of residual networks with additional feature extraction. Initially, an imperfect physical model is derived and identified to capture the fundamental hydrodynamic characteristics of marine vehicles. This model is then integrated with a feedforward network through a residual block. Additionally, feature extraction from trigonometric transformations is employed in the machine learning component to account for the periodic influence of currents and waves. The proposed method is evaluated using real navigational data from the ‘JH7500’ unmanned surface vehicle. The results demonstrate the robust generalizability and accurate long-term prediction capabilities of the nonlinear dynamic model in specific environmental conditions. This approach has the potential to be extended and applied to develop a comprehensive high-fidelity simulator.

arxiv情報

著者 Zihao Wang,Jian Cheng,Liang Xu,Lizhu Hao,Yan Peng
発行日 2025-03-26 02:02:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Hybrid Physics-ML Modeling for Marine Vehicle Maneuvering Motions in the Presence of Environmental Disturbances はコメントを受け付けていません

Inference-Time Policy Steering through Human Interactions

要約

人間のデモンストレーションで訓練された生成ポリシーは、マルチモーダルで長老のタスクを自律的に達成できます。
ただし、推論中、人間はしばしばポリシー実行ループから削除され、複数の予測の中で特定のサブゴールまたは軌跡の形状に向けて事前に訓練されたポリシーを導く能力を制限します。
素朴な人間の介入は、分布のシフトを不注意に悪化させ、制約違反または実行の失敗につながる可能性があります。
分散式エラーを誘導せずにポリシーの出力を人間の意図とより適合させるために、人間の相互作用を活用して、相互作用データのポリシーを微調整するのではなく、生成サンプリングプロセスにバイアスする推論時間ポリシーステアリング(ITPS)フレームワークを提案します。
3つのシミュレーションと実世界のベンチマークにわたってITPを評価し、3つの形式の人間の相互作用と関連するアライメント距離メトリックをテストします。
6つのサンプリング戦略の中で、提案された拡散ポリシーを使用した確率的サンプリングは、アライメントシフトと分布シフトの間の最良のトレードオフを達成します。
ビデオはhttps://yanweiw.github.io/itps/で入手できます。

要約(オリジナル)

Generative policies trained with human demonstrations can autonomously accomplish multimodal, long-horizon tasks. However, during inference, humans are often removed from the policy execution loop, limiting the ability to guide a pre-trained policy towards a specific sub-goal or trajectory shape among multiple predictions. Naive human intervention may inadvertently exacerbate distribution shift, leading to constraint violations or execution failures. To better align policy output with human intent without inducing out-of-distribution errors, we propose an Inference-Time Policy Steering (ITPS) framework that leverages human interactions to bias the generative sampling process, rather than fine-tuning the policy on interaction data. We evaluate ITPS across three simulated and real-world benchmarks, testing three forms of human interaction and associated alignment distance metrics. Among six sampling strategies, our proposed stochastic sampling with diffusion policy achieves the best trade-off between alignment and distribution shift. Videos are available at https://yanweiw.github.io/itps/.

arxiv情報

著者 Yanwei Wang,Lirui Wang,Yilun Du,Balakumar Sundaralingam,Xuning Yang,Yu-Wei Chao,Claudia Perez-D’Arpino,Dieter Fox,Julie Shah
発行日 2025-03-26 02:40:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.HC, cs.LG, cs.RO | Inference-Time Policy Steering through Human Interactions はコメントを受け付けていません

Offline Reinforcement Learning with Discrete Diffusion Skills

要約

複雑で長期のタスクに取り組み、一貫した行動を促進し、意味のある探索を可能にするための時間的抽象化として、オフライン強化学習(RL)にスキルが紹介されています。
オフラインRLのスキルは主に連続潜在空間内でモデル化されていますが、離散スキルスペースの可能性はほとんど露出度の低いままです。
この論文では、最先端の変圧器ベースのエンコーダーと拡散ベースのデコーダーによってサポートされるオフラインRLタスクのコンパクトな離散スキルスペースを提案します。
オフラインRLテクニックを介して訓練された高レベルのポリシーと相まって、この方法は、訓練された拡散デコーダーが極めて重要な役割を果たす階層RLフレームワークを確立します。
経験的評価は、提案されたアルゴリズムである離散拡散スキル(DDS)が強力なオフラインRLメソッドであることを示しています。
DDSは、移動やキッチンタスクで競争力のあるパフォーマンスを発揮し、長老のタスクに優れており、既存のオフラインRLアプローチと比較して、Antmaze-V2ベンチマークの少なくとも12%の改善を達成します。
さらに、DDSは、以前のスキルベースの方法と比較して、解釈可能性、トレーニングの安定性、およびオンライン探査の改善を提供します。

要約(オリジナル)

Skills have been introduced to offline reinforcement learning (RL) as temporal abstractions to tackle complex, long-horizon tasks, promoting consistent behavior and enabling meaningful exploration. While skills in offline RL are predominantly modeled within a continuous latent space, the potential of discrete skill spaces remains largely underexplored. In this paper, we propose a compact discrete skill space for offline RL tasks supported by state-of-the-art transformer-based encoder and diffusion-based decoder. Coupled with a high-level policy trained via offline RL techniques, our method establishes a hierarchical RL framework where the trained diffusion decoder plays a pivotal role. Empirical evaluations show that the proposed algorithm, Discrete Diffusion Skill (DDS), is a powerful offline RL method. DDS performs competitively on Locomotion and Kitchen tasks and excels on long-horizon tasks, achieving at least a 12 percent improvement on AntMaze-v2 benchmarks compared to existing offline RL approaches. Furthermore, DDS offers improved interpretability, training stability, and online exploration compared to previous skill-based methods.

arxiv情報

著者 RuiXi Qiao,Jie Cheng,Xingyuan Dai,Yonglin Tian,Yisheng Lv
発行日 2025-03-26 03:04:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO | Offline Reinforcement Learning with Discrete Diffusion Skills はコメントを受け付けていません

SARGes: Semantically Aligned Reliable Gesture Generation via Intent Chain

要約

共音声ジェスチャーの生成は、音声同期されたジェスチャー合成を通じて、人間のコンピューターの相互作用リアリズムを強化します。
ただし、意味的に意味のあるジェスチャーを生成することは依然として困難な問題です。
大規模な言語モデル(LLM)を活用して音声コンテンツを解析し、信頼できるセマンティックジェスチャーラベルを生成する新しいフレームワークであるSargesを提案します。これは、意味のある共発発物のジェスチャーの統合を導きます。
基準、事実上、LLMSをガイドして、コンテキスト対応ジェスチャーラベルを生成します。
その後、意図的なチェーンが発射されたテキストからグゼステルのラベルデータセットを構築し、軽量のジェスチャーラベル生成モデルを訓練し、信頼できる、意味的に一貫した共同スピーチジェスチャーの生成を導きました。
実験結果は、Sargesが効率的なシングルパス推論(0.4秒)で非常に半分整列したジェスチャーラベル(50.2%の精度)を達成することを示しています。
提案された方法は、セマンティックジェスチャー合成のための解釈可能な意図推論経路を提供します。

要約(オリジナル)

Co-speech gesture generation enhances human-computer interaction realism through speech-synchronized gesture synthesis. However, generating semantically meaningful gestures remains a challenging problem. We propose SARGes, a novel framework that leverages large language models (LLMs) to parse speech content and generate reliable semantic gesture labels, which subsequently guide the synthesis of meaningful co-speech gestures.First, we constructed a comprehensive co-speech gesture ethogram and developed an LLM-based intent chain reasoning mechanism that systematically parses and decomposes gesture semantics into structured inference steps following ethogram criteria, effectively guiding LLMs to generate context-aware gesture labels. Subsequently, we constructed an intent chain-annotated text-to-gesture label dataset and trained a lightweight gesture label generation model, which then guides the generation of credible and semantically coherent co-speech gestures. Experimental results demonstrate that SARGes achieves highly semantically-aligned gesture labeling (50.2% accuracy) with efficient single-pass inference (0.4 seconds). The proposed method provides an interpretable intent reasoning pathway for semantic gesture synthesis.

arxiv情報

著者 Nan Gao,Yihua Bao,Dongdong Weng,Jiayi Zhao,Jia Li,Yan Zhou,Pengfei Wan,Di Zhang
発行日 2025-03-26 03:55:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.HC, cs.RO | SARGes: Semantically Aligned Reliable Gesture Generation via Intent Chain はコメントを受け付けていません

Reasoning and Learning a Perceptual Metric for Self-Training of Reflective Objects in Bin-Picking with a Low-cost Camera

要約

低コストのRGB-Dカメラを使用した金属オブジェクトのビンピッキングは、多くの場合、スパースの深さ情報と反射表面テクスチャに苦しみ、エラーと手動ラベルの必要性につながります。
人間の介入を減らすために、メトリック学習段階とセルフトレーニング段階で構成される2段階のフレームワークを提案します。
具体的には、低コストカメラ(LC)によってキャプチャされたデータを自動的に処理するために、深さ、衝突、および境界制約の下でポーズ仮説を最適化するマルチオブジェクトポーズ推論(MOPR)アルゴリズムを導入します。
ポーズ候補者をさらに洗練するために、対称化されたフィルタリングのために、期待最大化(EM)アルゴリズムと統合された対称性嘘グループベースのベイジアンガウス混合モデル(SAL-BGMM)を採用します。
さらに、LCが再構築されたデータから知覚メトリックを学習できるようにするために、加重ランキング情報ノイズコントラスト推定(WR-infonce)損失を提案し、訓練されていないオブジェクトまたは未見えになっていないオブジェクトでの自己トレーニングをサポートします。
実験結果は、私たちのアプローチが、Robiデータセットと新しく導入されたセルフロビングデータセットの両方で、いくつかの最先端の方法を上回ることを示しています。

要約(オリジナル)

Bin-picking of metal objects using low-cost RGB-D cameras often suffers from sparse depth information and reflective surface textures, leading to errors and the need for manual labeling. To reduce human intervention, we propose a two-stage framework consisting of a metric learning stage and a self-training stage. Specifically, to automatically process data captured by a low-cost camera (LC), we introduce a Multi-object Pose Reasoning (MoPR) algorithm that optimizes pose hypotheses under depth, collision, and boundary constraints. To further refine pose candidates, we adopt a Symmetry-aware Lie-group based Bayesian Gaussian Mixture Model (SaL-BGMM), integrated with the Expectation-Maximization (EM) algorithm, for symmetry-aware filtering. Additionally, we propose a Weighted Ranking Information Noise Contrastive Estimation (WR-InfoNCE) loss to enable the LC to learn a perceptual metric from reconstructed data, supporting self-training on untrained or even unseen objects. Experimental results show that our approach outperforms several state-of-the-art methods on both the ROBI dataset and our newly introduced Self-ROBI dataset.

arxiv情報

著者 Peiyuan Ni,Chee Meng Chew,Marcelo H. Ang Jr.,Gregory S. Chirikjian
発行日 2025-03-26 04:03:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | Reasoning and Learning a Perceptual Metric for Self-Training of Reflective Objects in Bin-Picking with a Low-cost Camera はコメントを受け付けていません

Learning Adaptive Dexterous Grasping from Single Demonstrations

要約

ロボットは、器用な把握スキルを効率的に把握し、ユーザーの指示に基づいて適応的に適用するにはどうすればよいですか?
この作業は、2つの重要な課題に取り組んでいます。限られた人間のデモンストレーションとコンテキスト主導のスキル選択からの効率的なスキル獲得です。
AdadexGraspを紹介します。これは、スキルごとに単一の人間のデモからスキルを把握するライブラリを学習し、ビジョン言語モデル(VLM)を使用して最も適切なスキルを選択するフレームワークを紹介します。
サンプルの効率を改善するために、探査の柔軟性を可能にしながら、人間のデモに近い状態に強化学習(RL)を導く報酬に続いて軌跡を提案します。
単一のデモンストレーションを超えて学習するために、カリキュラム学習を採用し、オブジェクトを増やしてバリエーションを増やして堅牢性を高めます。
展開時に、VLMはユーザーの命令に基づいて適切なスキルを取得し、高レベルの学習スキルを高レベルの意図でブリッジングします。
シミュレーションと現実世界の両方の設定でAdadexGraspを評価し、私たちのアプローチがRL効率を大幅に改善し、さまざまなオブジェクト構成全体で人間のような把握戦略を学習できることを示しています。
最後に、学習したポリシーを現実世界のPsyonic能力の手にゼロショット転送を示し、オブジェクト全体で90%の成功率があり、ベースラインを大幅に上回っています。

要約(オリジナル)

How can robots learn dexterous grasping skills efficiently and apply them adaptively based on user instructions? This work tackles two key challenges: efficient skill acquisition from limited human demonstrations and context-driven skill selection. We introduce AdaDexGrasp, a framework that learns a library of grasping skills from a single human demonstration per skill and selects the most suitable one using a vision-language model (VLM). To improve sample efficiency, we propose a trajectory following reward that guides reinforcement learning (RL) toward states close to a human demonstration while allowing flexibility in exploration. To learn beyond the single demonstration, we employ curriculum learning, progressively increasing object pose variations to enhance robustness. At deployment, a VLM retrieves the appropriate skill based on user instructions, bridging low-level learned skills with high-level intent. We evaluate AdaDexGrasp in both simulation and real-world settings, showing that our approach significantly improves RL efficiency and enables learning human-like grasp strategies across varied object configurations. Finally, we demonstrate zero-shot transfer of our learned policies to a real-world PSYONIC Ability Hand, with a 90% success rate across objects, significantly outperforming the baseline.

arxiv情報

著者 Liangzhi Shi,Yulin Liu,Lingqi Zeng,Bo Ai,Zhengdong Hong,Hao Su
発行日 2025-03-26 04:05:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO | Learning Adaptive Dexterous Grasping from Single Demonstrations はコメントを受け付けていません

Synthetic-to-Real Self-supervised Robust Depth Estimation via Learning with Motion and Structure Priors

要約

昼間、雨、夜間などの多様な屋外条件における単眼カメラからの自己監視深度推定は、普遍的な表現を学ぶことの難しさと、ラベル付きの実世界の不利なデータの深刻な欠如のために困難です。
以前の方法は、合成入力と擬似深いラベルに依存するか、日中の戦略を悪化に直接適用して、最適ではない結果をもたらします。
このホワイトペーパーでは、現実世界の知識を効果的にキャプチャするために動きと構造のプライアーを組み込んだ最初の合成から実現への堅牢な深さ推定フレームワークを紹介します。
合成適応では、凍結した日中のモデルを使用して合成副条件の深さ推定器を訓練するために、より良い堅牢な表現のためにコストボリューム内の運動構造の知識を伝達します。
合成リアルギャップを修正することを目的とした革新的な実質適応では、以前に訓練されたモデルは、有効な擬似ラベルを強調するための設計された一貫性のある和解戦略を備えた気象感受性地域を特定します。
現実世界のデータに直面したときにモデルを制約するために明示的な深さ分布を収集することにより、新しい正則化を導入します。
実験では、私たちの方法が、マルチフレームと単一フレームの評価において、多様な条件全体で最先端の最先端を上回ることを示しています。
アブセンとロボットカーデータセット(昼間、夜間、雨)で平均して、アブレルとRMSEの7.5%と4.3%の改善を達成しています。
drivingstereo(雨、霧)のゼロショット評価では、私たちの方法は以前のものよりもよく一般化されています。

要約(オリジナル)

Self-supervised depth estimation from monocular cameras in diverse outdoor conditions, such as daytime, rain, and nighttime, is challenging due to the difficulty of learning universal representations and the severe lack of labeled real-world adverse data. Previous methods either rely on synthetic inputs and pseudo-depth labels or directly apply daytime strategies to adverse conditions, resulting in suboptimal results. In this paper, we present the first synthetic-to-real robust depth estimation framework, incorporating motion and structure priors to capture real-world knowledge effectively. In the synthetic adaptation, we transfer motion-structure knowledge inside cost volumes for better robust representation, using a frozen daytime model to train a depth estimator in synthetic adverse conditions. In the innovative real adaptation, which targets to fix synthetic-real gaps, models trained earlier identify the weather-insensitive regions with a designed consistency-reweighting strategy to emphasize valid pseudo-labels. We introduce a new regularization by gathering explicit depth distributions to constrain the model when facing real-world data. Experiments show that our method outperforms the state-of-the-art across diverse conditions in multi-frame and single-frame evaluations. We achieve improvements of 7.5% and 4.3% in AbsRel and RMSE on average for nuScenes and Robotcar datasets (daytime, nighttime, rain). In zero-shot evaluation of DrivingStereo (rain, fog), our method generalizes better than the previous ones.

arxiv情報

著者 Weilong Yan,Ming Li,Haipeng Li,Shuwei Shao,Robby T. Tan
発行日 2025-03-26 04:12:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | Synthetic-to-Real Self-supervised Robust Depth Estimation via Learning with Motion and Structure Priors はコメントを受け付けていません

NuRF: Nudging the Particle Filter in Radiance Fields for Robot Visual Localization

要約

単眼ビジョンのみを使用して、マップ上にロボットをローカライズできますか?
この研究では、6-DOFロボットの視覚的ローカリゼーションのためのラディアンスフィールドの適応型および微妙な粒子フィルターフレームワークであるNurfを提示します。
Nurfは、ラディアンスフィールドの最近の進歩と視覚的な場所認識を活用しています。
従来の視覚的な場所認識は、データスパース性とアーティファクト誘発性の不正確さの課題を満たしています。
Radianceのフィールド生成された新規ビューを利用することにより、Nurfは視覚的なローカリゼーションのパフォーマンスを向上させ、粗いグローバルローカリゼーションと粒子フィルターの微調整されたポーズ追跡を組み合わせて、連続的かつ正確なローカリゼーションを確保します。
実験的に、我々の方法は既存のモンテカルロベースの方法よりも7倍速く収束し、1メートル以内のローカリゼーション精度を実現し、屋内の視覚的ローカリゼーションのための効率的で回復力のあるソリューションを提供します。

要約(オリジナル)

Can we localize a robot on a map only using monocular vision? This study presents NuRF, an adaptive and nudged particle filter framework in radiance fields for 6-DoF robot visual localization. NuRF leverages recent advancements in radiance fields and visual place recognition. Conventional visual place recognition meets the challenges of data sparsity and artifact-induced inaccuracies. By utilizing radiance field-generated novel views, NuRF enhances visual localization performance and combines coarse global localization with the fine-grained pose tracking of a particle filter, ensuring continuous and precise localization. Experimentally, our method converges 7 times faster than existing Monte Carlo-based methods and achieves localization accuracy within 1 meter, offering an efficient and resilient solution for indoor visual localization.

arxiv情報

著者 Wugang Meng,Tianfu Wu,Huan Yin,Fumin Zhang
発行日 2025-03-26 04:52:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | NuRF: Nudging the Particle Filter in Radiance Fields for Robot Visual Localization はコメントを受け付けていません

A Virtual Fencing Framework for Safe and Efficient Collaborative Robotics

要約

共同ロボット(コボット)は、人間と一緒にますます動作し、堅牢なリアルタイムの保護を要求しています。
現在の安全基準(例:ISO 10218、ANSI/RIA 15.06、ISO/TS 15066)はリスク評価が必要ですが、リアルタイムの応答のための限られたガイダンスを提供します。
人間の動きを検出および予測する仮想フェンシングアプローチを提案し、安全なコボット操作を確保します。
安全性とパフォーマンスのトレードオフは、最適化問題としてモデル化され、連続した二次プログラミングを介して解決されます。
実験的検証は、私たちの方法が安全性を維持しながら運用上の一時停止を最小限に抑え、人間のロボットコラボレーションのためのモジュール式ソリューションを提供することを示しています。

要約(オリジナル)

Collaborative robots (cobots) increasingly operate alongside humans, demanding robust real-time safeguarding. Current safety standards (e.g., ISO 10218, ANSI/RIA 15.06, ISO/TS 15066) require risk assessments but offer limited guidance for real-time responses. We propose a virtual fencing approach that detects and predicts human motion, ensuring safe cobot operation. Safety and performance tradeoffs are modeled as an optimization problem and solved via sequential quadratic programming. Experimental validation shows that our method minimizes operational pauses while maintaining safety, providing a modular solution for human-robot collaboration.

arxiv情報

著者 Vineela Reddy Pippera Badguna,Aliasghar Arab,Durga Avinash Kodavalla
発行日 2025-03-26 05:05:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | A Virtual Fencing Framework for Safe and Efficient Collaborative Robotics はコメントを受け付けていません