Neuro-Symbolic Generation of Explanations for Robot Policies with Weighted Signal Temporal Logic

要約

ニューラルネットワークベースのポリシーは、多くのロボットアプリケーションで成功を実証していますが、多くの場合、人間の実現可能性が欠けており、安全性の高い展開に課題をもたらします。
これに対処するために、ロボットポリシーを解釈可能な形式で説明するために、加重信号時間論的論理(WSTL)仕様を生成するニューロシンボリック説明フレームワークを提案します。
既存の方法は通常、冗長で一貫性のない説明を生成します。これは、説明可能性とゆるいことを妨げます。これは、基礎となるポリシーについて意味のある洞察を与えません。
述語フィルタリング、正則化、および反復剪定からなる単純化プロセスを導入することにより、これらの問題に対処します。
また、従来の分類メトリックを超えた説明の品質を評価するために、3つの新しい説明可能性評価メトリック(簡潔さ、一貫性、厳格さ)も紹介します。
私たちの方法は、3つのシミュレートされたロボット環境で検証されており、分類の精度を犠牲にすることなく、簡潔で一貫した、厳格なWSTL説明を生成するベースラインを上回ります。
この作業は、ロボット工学におけるより安全で透明性のある意思決定に貢献して、正式な方法で政策学習を橋渡しします。

要約(オリジナル)

Neural network-based policies have demonstrated success in many robotic applications, but often lack human-explanability, which poses challenges in safety-critical deployments. To address this, we propose a neuro-symbolic explanation framework that generates a weighted signal temporal logic (wSTL) specification to describe a robot policy in a interpretable form. Existing methods typically produce explanations that are verbose and inconsistent, which hinders explainability, and loose, which do not give meaningful insights into the underlying policy. We address these issues by introducing a simplification process consisting of predicate filtering, regularization, and iterative pruning. We also introduce three novel explainability evaluation metrics — conciseness, consistency, and strictness — to assess explanation quality beyond conventional classification metrics. Our method is validated in three simulated robotic environments, where it outperforms baselines in generating concise, consistent, and strict wSTL explanations without sacrificing classification accuracy. This work bridges policy learning with formal methods, contributing to safer and more transparent decision-making in robotics.

arxiv情報

著者 Mikihisa Yuasa,Ramavarapu S. Sreenivas,Huy T. Tran
発行日 2025-05-29 21:41:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.FL, cs.RO | Neuro-Symbolic Generation of Explanations for Robot Policies with Weighted Signal Temporal Logic はコメントを受け付けていません

Exploiting Euclidean Distance Field Properties for Fast and Safe 3D planning with a modified Lazy Theta*

要約

グラフ検索プランナーは、文献の3Dパス計画に広く使用されており、ユークリッド距離フィールド(EDF)が環境の表現としてますます使用されています。
しかし、私たちの知る限り、EDFのヒューリスティック計画への統合は、ゆるく結合されたファッションで行われ、計画プロセスを加速/改善し、結果の軌跡の安全マージンを強化するために使用できるEDFプロパティを却下します。
このホワイトペーパーでは、EDFプロパティを悪用する挑戦的な3D環境における空中ロボットの修正された怠zyなシータ*計画アルゴリズムに基づいた高速グラフ検索プランナーを紹介します。
提案されたプランナーは、パスの滑らかさと安全性の観点から、古典的なグラフ検索プランナーよりも優れています。
EDFを環境表現として統合し、ポスト処理方法の使用を回避する高速で滑らかなパスを直接生成します。
また、EDFの分析特性を考慮して、視線のセグメントに沿ったEDFコストの近似を取得し、計算時間に直接影響を与える視認性近隣の数を減らすことを検討します。
さらに、提案されているEDFベースのコスト関数が三角形の不等式を満たしていることを実証し、これにより、調査中の計算、したがって計算時間を削減することを実証します。
多くの実験と比較は、提案されたプランナーを評価および検証するために、屋内および屋外のシミュレーション環境に挑戦する3Dで実行されます。
結果は、これらの環境で効率的で安全なプランナーを示しています。

要約(オリジナル)

Graph search planners have been widely used for 3D path planning in the literature, and Euclidean Distance Fields (EDFs) are increasingly being used as a representation of the environment. However, to the best of our knowledge, the integration of EDFs into heuristic planning has been carried out in a loosely coupled fashion, dismissing EDF properties that can be used to accelerate/improve the planning process and enhance the safety margins of the resultant trajectories. This paper presents a fast graph search planner based on a modified Lazy Theta* planning algorithm for aerial robots in challenging 3D environments that exploits the EDF properties. The proposed planner outperforms classic graph search planners in terms of path smoothness and safety. It integrates EDFs as environment representation and directly generates fast and smooth paths avoiding the use of post-processing methods; it also considers the analytical properties of EDFs to obtain an approximation of the EDF cost along the line-of-sight segments and to reduce the number of visibility neighbours, which directly impacts the computation time. Moreover, we demonstrate that the proposed EDF-based cost function satisfies the triangle inequality, which reduces calculations during exploration and, hence, computation time. Many experiments and comparatives are carried out in 3D challenging indoor and outdoor simulation environments to evaluate and validate the proposed planner. The results show an efficient and safe planner in these environments.

arxiv情報

著者 Jose A. Cobano,L. Merino,F. Caballero
発行日 2025-05-29 21:51:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | Exploiting Euclidean Distance Field Properties for Fast and Safe 3D planning with a modified Lazy Theta* はコメントを受け付けていません

Nonlinear Oscillatory Response of Automated Vehicle Car-following: Theoretical Analysis with Traffic State and Control Input Limits

要約

この論文は、関数(DF)と増分入力DFを記述する理論に基づいたフレームワークを提示し、交通状態と制御入力の制限を考慮して、交通振動の中で自動車両(AVS)の自動化された自動浸漬(CF)の非線形振動応答を理論的に分析します。
一般的なアプローチは、これらの制限(すなわち、加速/減速と速度の飽和)をほとんど無視し、線形文字列安定性分析に焦点を当てていますが、このフレームワークは、これらの制限によって課される非線形性を持つAVシステムの周波数応答を理論的に分析するための基礎を確立します。
この目的のために、CFペアの軌跡は公称および振動軌道に分解され、その後、制御されたAVシステムが振動軌道座標内で再配置されます。
このベースに構築されたDFSは、最初の高調波出力を使用して、非線形飽和成分の周波数応答を近似し、関連する増幅比と位相シフトをキャプチャするために採用されています。
システムが相互に影響するAV制御システムの閉ループの性質を考慮すると、一貫性を確保するために、増幅比と位相シフトはループ内でバランスが取れます。
このバランスプロセスは複数のソリューションをレンダリングする可能性があるため、増分入力DFをさらに適用して、合理的な溶液を識別します。
提案された方法は、Simulinkからの推定によって検証され、一般的な方法とのさらなる比較が実施されます。
結果は、Simulinkの結果とフレームワークのアライメントを確認し、一般的な方法と比較して分析において優れた精度を示します。
さらに、このフレームワークは、特に従来の線形方法が誤解を招く洞察を提供する場合、弦の安定性分析において価値があることを証明します。

要約(オリジナル)

This paper presents a framework grounded in the theory of describing function (DF) and incremental-input DF to theoretically analyze the nonlinear oscillatory response of automated vehicles (AVs) car-following (CF) amidst traffic oscillations, considering the limits of traffic state and control input. While prevailing approaches largely ignore these limits (i.e., saturation of acceleration/deceleration and speed) and focus on linear string stability analysis, this framework establishes a basis for theoretically analyzing the frequency response of AV systems with nonlinearities imposed by these limits. To this end, trajectories of CF pairs are decomposed into nominal and oscillatory trajectories, subsequently, the controlled AV system is repositioned within the oscillatory trajectory coordinates. Built on this base, DFs are employed to approximate the frequency responses of nonlinear saturation components by using their first harmonic output, thereby capturing the associated amplification ratio and phase shift. Considering the closed-loop nature of AV control systems, where system states and control input mutually influence each other, amplification ratios and phase shifts are balanced within the loop to ensure consistency. This balancing process may render multiple solutions, hence the incremental-input DF is further applied to identify the reasonable ones. The proposed method is validated by estimations from Simulink, and further comparisons with prevailing methods are conducted. Results confirm the alignment of our framework with Simulink results and exhibit its superior accuracy in analysis compared to the prevailing methods. Furthermore, the framework proves valuable in string stability analysis, especially when conventional linear methods offer misleading insights.

arxiv情報

著者 Sixu Li,Yang Zhou
発行日 2025-05-29 22:03:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | Nonlinear Oscillatory Response of Automated Vehicle Car-following: Theoretical Analysis with Traffic State and Control Input Limits はコメントを受け付けていません

DiffCoTune: Differentiable Co-Tuning for Cross-domain Robot Control

要約

ロボットコントローラーの展開は、データを生成するシミュレーターにおける計算の牽引性や不正確さのための必要な単純化による不一致をモデル化することにより妨げられます。
このような矛盾は通常、目的のパフォーマンスを満たすためにアドホックチューニングを必要とし、それによりターゲットドメインへの転送が成功します。
微分可能なシミュレーターを活用することにより、展開ドメインのパフォーマンスを強化するために、自動化されたグラデーションベースのチューニングのフレームワークを提案します。
私たちの方法は、シミュレーターとコントローラーのパラメーターを共同調整するための反復的な方法でロールアウトを収集し、展開ドメインのいくつかの試行内で系統的転送を可能にします。
具体的には、コントローラーを展開ドメインに効果的に適応させるために、交互の最適化を調整および採用するためのマルチステップ目標を策定します。
私たちのフレームワークのスケーラビリティは、低次元のカートポール安定化から高次元の象限および二倍の追跡に至るまでのタスクの任意の複雑さのモデルベースと学習ベースのコントローラーによって実証され、異なる展開ドメインのパフォーマンスの改善を示します。

要約(オリジナル)

The deployment of robot controllers is hindered by modeling discrepancies due to necessary simplifications for computational tractability or inaccuracies in data-generating simulators. Such discrepancies typically require ad-hoc tuning to meet the desired performance, thereby ensuring successful transfer to a target domain. We propose a framework for automated, gradient-based tuning to enhance performance in the deployment domain by leveraging differentiable simulators. Our method collects rollouts in an iterative manner to co-tune the simulator and controller parameters, enabling systematic transfer within a few trials in the deployment domain. Specifically, we formulate multi-step objectives for tuning and employ alternating optimization to effectively adapt the controller to the deployment domain. The scalability of our framework is demonstrated by co-tuning model-based and learning-based controllers of arbitrary complexity for tasks ranging from low-dimensional cart-pole stabilization to high-dimensional quadruped and biped tracking, showing performance improvements across different deployment domains.

arxiv情報

著者 Lokesh Krishna,Sheng Cheng,Junheng Li,Naira Hovakimyan,Quan Nguyen
発行日 2025-05-29 23:20:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | DiffCoTune: Differentiable Co-Tuning for Cross-domain Robot Control はコメントを受け付けていません

ChatVLA-2: Vision-Language-Action Model with Open-World Embodied Reasoning from Pretrained Knowledge

要約

Vision-Language-action(VLA)モデルは、ロボット工学の次世代モデルとして登場しています。
ただし、強力な訓練を受けた視覚言語モデル(VLMS)を活用しているにもかかわらず、既存のエンドツーエンドのVLAシステムは、モデルが特定のロボットタスクに適応するため、微調整中に重要な機能を失います。
一般化可能なVLAモデルは、VLMのコアコンピテンシーを維持し、拡張する必要があると主張します。1)オープンワールドの具体化された推論 – VLAはVLMからの知識を継承する必要があります。
この作業では、実用的な推論を可能にしながらVLMの元の強みを維持するように設計された特殊な2段階トレーニングパイプラインと組み合わせた、新しいエクスペルのVLAモデルと組み合わせた、新しい混合物のVLAモデルであるChatVLA-2を紹介します。
アプローチを検証するために、ロボットがホワイトボードに書かれた数学の問題を解釈し、テーブルから対応する番号カードを選択して方程式を解決する数学の一致タスクを設計します。
驚くべきことに、私たちの方法は、これらの能力がVLA内で明示的に訓練されていないにもかかわらず、例外的な数学的推論とOCR機能を示しています。
さらに、VLAは強力な空間推論スキルを持っていることを実証し、以前に見えなかったオブジェクトを含む新しい方向性の指示を解釈できるようにします。
全体として、私たちの方法は、OpenVLA、DexVLA、Pi-Zeroなどの最先端の模倣学習方法を大幅に上回る推論と理解能力を示しています。
この作業は、堅牢な推論能力に恵まれた、真に一般化可能なロボット基礎モデルの開発に向けた実質的な進歩を表しています。

要約(オリジナル)

Vision-language-action (VLA) models have emerged as the next generation of models in robotics. However, despite leveraging powerful pre-trained Vision-Language Models (VLMs), existing end-to-end VLA systems often lose key capabilities during fine-tuning as the model adapts to specific robotic tasks. We argue that a generalizable VLA model should retain and expand upon the VLM’s core competencies: 1) Open-world embodied reasoning – the VLA should inherit the knowledge from VLM, i.e., recognize anything that the VLM can recognize, be capable of solving math problems, and possess visual-spatial intelligence, 2) Reasoning following – effectively translating the open-world reasoning into actionable steps for the robot. In this work, we introduce ChatVLA-2, a novel mixture-of-expert VLA model coupled with a specialized two-stage training pipeline designed to preserve the VLM’s original strengths while enabling actionable reasoning. To validate our approach, we design a math-matching task wherein a robot interprets math problems written on a whiteboard and picks corresponding number cards from a table to solve equations. Remarkably, our method exhibits exceptional mathematical reasoning and OCR capabilities, despite these abilities not being explicitly trained within the VLA. Furthermore, we demonstrate that the VLA possesses strong spatial reasoning skills, enabling it to interpret novel directional instructions involving previously unseen objects. Overall, our method showcases reasoning and comprehension abilities that significantly surpass state-of-the-art imitation learning methods such as OpenVLA, DexVLA, and pi-zero. This work represents a substantial advancement toward developing truly generalizable robotic foundation models endowed with robust reasoning capacities.

arxiv情報

著者 Zhongyi Zhou,Yichen Zhu,Junjie Wen,Chaomin Shen,Yi Xu
発行日 2025-05-29 23:34:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.RO | ChatVLA-2: Vision-Language-Action Model with Open-World Embodied Reasoning from Pretrained Knowledge はコメントを受け付けていません

Foundation Models for Rapid Autonomy Validation

要約

私たちは、自律的な車両パフォーマンスの検証の問題に動機付けられています。
重要な課題は、自動運転車では、安全性の強力なケースを提供し、エッジケースの病理学的行動がないことを示すために、まれなイベントを含むあらゆる種類の運転シナリオでテストする必要があることです。
自動運転車会社は、現実的なシミュレーションで駆動される潜在的に数百万マイルに依存して、衝突率と衝突の重大度を推定するのに十分なマイルに駆動スタックを公開します。
スケーラビリティとカバレッジに対処するために、運転シナリオを再構築するように訓練された行動基盤モデル、特にマスクされた自動エンコーダー(MAE)の使用を提案します。
基礎モデルを2つの補完的な方法で活用します。(i)学習した埋め込みスペースを使用して定性的に類似したシナリオをグループ化し、(ii)シミュレーション時の衝突の可能性に基づいてモデルを微調整してシナリオの難易度をラベル付けします。
シナリオのグループの重要性の重みとして難易度を使用します。
結果は、あらゆる種類の運転シナリオへの露出を確保しながら、ハードシナリオに優先順位を付けることにより、衝突のレートと重大度をより迅速に推定できるアプローチです。

要約(オリジナル)

We are motivated by the problem of autonomous vehicle performance validation. A key challenge is that an autonomous vehicle requires testing in every kind of driving scenario it could encounter, including rare events, to provide a strong case for safety and show there is no edge-case pathological behavior. Autonomous vehicle companies rely on potentially millions of miles driven in realistic simulation to expose the driving stack to enough miles to estimate rates and severity of collisions. To address scalability and coverage, we propose the use of a behavior foundation model, specifically a masked autoencoder (MAE), trained to reconstruct driving scenarios. We leverage the foundation model in two complementary ways: we (i) use the learned embedding space to group qualitatively similar scenarios together and (ii) fine-tune the model to label scenario difficulty based on the likelihood of a collision upon simulation. We use the difficulty scoring as importance weighting for the groups of scenarios. The result is an approach which can more rapidly estimate the rates and severity of collisions by prioritizing hard scenarios while ensuring exposure to every kind of driving scenario.

arxiv情報

著者 Alec Farid,Peter Schleede,Aaron Huang,Christoffer Heckman
発行日 2025-05-29 23:47:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO | Foundation Models for Rapid Autonomy Validation はコメントを受け付けていません

CAML: Collaborative Auxiliary Modality Learning for Multi-Agent Systems

要約

マルチモーダル学習は、自律運転、ロボット工学、知覚システムなどのドメイン全体で機械学習アプリケーションのパフォーマンスを改善するための重要な技術となっています。
ただし、特定のシナリオ、特にリソース制約の環境では、トレーニング中に利用可能ないくつかのモダリティが推論中に存在しない場合があります。
既存のフレームワークは、トレーニング中に複数のデータソースを効果的に利用し、モダリティを減らして推論を有効にしますが、主に単一エージェント設定用に設計されています。
これは、接続された自動運転車(CAV)などの動的環境で重要な制限をもたらします。ここでは、不完全なデータカバレッジが意思決定の盲点につながる可能性があります。
逆に、一部の作品は、マルチエージェントのコラボレーションを探求しますが、テスト時にはモダリティの欠落に対処することはありません。
これらの制限を克服するために、エージェントがトレーニング中にマルチモーダルデータを協力して共有できるようにしながら、テスト中のモダリティを減らすことができる新しいマルチモーダルマルチエージェントフレームワークである共同補助モダリティ学習(CAML)を提案します。
事故が発生しやすいシナリオでのCAVの共同意思決定における実験結果は、CAMLが事故検出の$ {\ bf 58.1} \%$の改善を達成することを示しています。
さらに、共同セマンティックセグメンテーションのために現実世界の空中ロボットデータのCAMLを検証し、MIOUで最大{\ bf 10.6} \%$の改善を達成します。

要約(オリジナル)

Multi-modal learning has become a crucial technique for improving the performance of machine learning applications across domains such as autonomous driving, robotics, and perception systems. However, in certain scenarios, particularly in resource-constrained environments, some modalities available during training may be absent during inference. While existing frameworks effectively utilize multiple data sources during training and enable inference with reduced modalities, they are primarily designed for single-agent settings. This poses a critical limitation in dynamic environments such as connected autonomous vehicles (CAV), where incomplete data coverage can lead to decision-making blind spots. Conversely, some works explore multi-agent collaboration but without addressing missing modality at test time. To overcome these limitations, we propose Collaborative Auxiliary Modality Learning (CAML), a novel multi-modal multi-agent framework that enables agents to collaborate and share multi-modal data during training, while allowing inference with reduced modalities during testing. Experimental results in collaborative decision-making for CAV in accident-prone scenarios demonstrate that CAML achieves up to a ${\bf 58.1}\%$ improvement in accident detection. Additionally, we validate CAML on real-world aerial-ground robot data for collaborative semantic segmentation, achieving up to a ${\bf 10.6}\%$ improvement in mIoU.

arxiv情報

著者 Rui Liu,Yu Shen,Peng Gao,Pratap Tokekar,Ming Lin
発行日 2025-05-29 23:50:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO | CAML: Collaborative Auxiliary Modality Learning for Multi-Agent Systems はコメントを受け付けていません

A Benchmark Reference for ESP32-CAM Module

要約

ESP32-CAMは、組み込みビジョンアプリケーションをプロトタイピングするために最も広く採用されているオープンソースモジュールの1つです。
2019年のリリース以来、手頃な価格、汎用性、統合ワイヤレス機能により、愛好家とプロの開発者の両方で人気を博しています。
その広範な使用にもかかわらず、パフォーマンスメトリックの包括的なドキュメントは依然として限られています。
この調査では、HTTPベースのWiFi接続を介して5つの異なる電圧条件下でテストされたOV2640イメージセンサーのすべてのサポートされている解像度にわたって、6時間以上のリアルタイムビデオストリーミングログを収集および分析することにより、このギャップに対処します。
不正確なフレームレートロギングを担当する公式のArduino ESP32ドライバーの長年のバグが修正されました。
結果の分析には、瞬時および平均フレームレート、総ストリーミングデータ、伝送カウント、内部チップ温度などの主要なパフォーマンスメトリックが含まれます。
さまざまな電力レベルの影響を評価して、モジュールの信頼性を評価しました。

要約(オリジナル)

The ESP32-CAM is one of the most widely adopted open-source modules for prototyping embedded vision applications. Since its release in 2019, it has gained popularity among both hobbyists and professional developers due to its affordability, versatility, and integrated wireless capabilities. Despite its widespread use, comprehensive documentation of the performance metrics remains limited. This study addresses this gap by collecting and analyzing over six hours of real-time video streaming logs across all supported resolutions of the OV2640 image sensor, tested under five distinct voltage conditions via an HTTP-based WiFi connection. A long standing bug in the official Arduino ESP32 driver, responsible for inaccurate frame rate logging, was fixed. The resulting analysis includes key performance metrics such as instantaneous and average frame rate, total streamed data, transmission count, and internal chip temperature. The influence of varying power levels was evaluated to assess the reliability of the module.

arxiv情報

著者 Sayed T. Nowroz,Nermeen M. Saleh,Siam Shakur,Sean Banerjee,Fathi Amsaad
発行日 2025-05-29 23:58:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.IV, eess.SY | A Benchmark Reference for ESP32-CAM Module はコメントを受け付けていません

Towards Tangible Immersion for Cobot Programming-by-Demonstration: Visual, Tactile and Haptic Interfaces for Mixed-Reality Cobot Automation in Semiconductor Manufacturing

要約

センサーベースの反応性およびハイブリッドアプローチは、把握と操作における不完全な知識に対処するための有望な研究ラインを証明しています。
しかし、反応性のアプローチは通常、特定の実施形態に密接に結合され、知識の移転が困難になります。
このペーパーでは、反応性操作アクションのモデリングと実行のパラダイムを提案します。これにより、実施形態の反応性能力を保持しながら、知識移転が異なる実施形態に可能になります。
提案されたアプローチは、抽象化の独立した層を導入することにより、状態マシンによって調整された制御プリミティブの概念を拡張します。
抽象的な操作プリミティブは、原子の具体化独立したアクションの語彙を構成します。これは、状態マシンを使用して複雑なアクションを記述するために調整できます。
実施形態特定のモデルを取得するために、各プラットフォームの完全な機能を利用できるように、特定のモデルを具体化するように抽象的な状態マシンが自動的に翻訳されます。
操作プリミティブのパラダイムの強度は、複雑な反応性グレーシングプリミティブを含む、オブジェクト輸送に対応する一連の実施形態固有のプリミティブを開発することにより実証されます。
アプローチの堅牢性は、いくつかの未知のオブジェクトで満たされた箱を空にする際に実験的に研究されています。
実施形態の独立性は、同じ抽象的な説明を使用して2つの異なるプラットフォームで操作タスクを実行することにより研究されます。

要約(オリジナル)

Sensor-based reactive and hybrid approaches have proven a promising line of study to address imperfect knowledge in grasping and manipulation. However the reactive approaches are usually tightly coupled to a particular embodiment making transfer of knowledge difficult. This paper proposes a paradigm for modeling and execution of reactive manipulation actions, which makes knowledge transfer to different embodiments possible while retaining the reactive capabilities of the embodiments. The proposed approach extends the idea of control primitives coordinated by a state machine by introducing an embodiment independent layer of abstraction. Abstract manipulation primitives constitute a vocabulary of atomic, embodiment independent actions, which can be coordinated using state machines to describe complex actions. To obtain embodiment specific models, the abstract state machines are automatically translated to embodiment specific models, such that full capabilities of each platform can be utilized. The strength of the manipulation primitives paradigm is demonstrated by developing a set of corresponding embodiment specific primitives for object transport, including a complex reactive grasping primitive. The robustness of the approach is experimentally studied in emptying of a box filled with several unknown objects. The embodiment independence is studied by performing a manipulation task on two different platforms using the same abstract description.

arxiv情報

著者 David I. Gonzalez-Aguirre,Javier Felip Leon,Javier Felix-Rendon,Roderico Garcia-Leal,Julio C. Zamora Esquivel
発行日 2025-05-30 00:46:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.HC, cs.RO | Towards Tangible Immersion for Cobot Programming-by-Demonstration: Visual, Tactile and Haptic Interfaces for Mixed-Reality Cobot Automation in Semiconductor Manufacturing はコメントを受け付けていません

Humanoid Loco-Manipulations Pattern Generation and Stabilization Control

要約

ヒューマノイドロボットが、歩行中にオブジェクトを移動するなどの遺伝子座操作を実行するためには、ヒューマノイドとオブジェクトの接触相互作用に起因する、グラウンドフィートの反応以外の持続的または交互の外力を説明する必要があります。
この手紙では、そのような外力に対処できるヒューマノイド局所操作のための二足歩行制御戦略を提案します。
第一に、外部操作力の影響を考慮して、二足歩行のダイナミクス、すなわち線形逆振子モードと発散成分の運動の分岐成分の基本的な式が導出されます。
次に、操作力の参照軌跡と一致する大量軌道の中心を計画するパターンジェネレーターと、望ましい操作力と実際の操作力の間のエラーを補うためのスタビライザーを提案します。
コントローラーの有効性は、実際のヒューマノイドロボットを使用したシミュレーション実験と局所操作実験の両方で評価されます。

要約(オリジナル)

In order for a humanoid robot to perform loco-manipulation such as moving an object while walking, it is necessary to account for sustained or alternating external forces other than ground-feet reaction, resulting from humanoid-object contact interactions. In this letter, we propose a bipedal control strategy for humanoid loco-manipulation that can cope with such external forces. First, the basic formulas of the bipedal dynamics, i.e., linear inverted pendulum mode and divergent component of motion, are derived, taking into account the effects of external manipulation forces. Then, we propose a pattern generator to plan center of mass trajectories consistent with the reference trajectory of the manipulation forces, and a stabilizer to compensate for the error between desired and actual manipulation forces. The effectiveness of our controller is assessed both in simulation and loco-manipulation experiments with real humanoid robots.

arxiv情報

著者 Masaki Murooka,Kevin Chappellet,Arnaud Tanguy,Mehdi Benallegue,Iori Kumagai,Mitsuharu Morisawa,Fumio Kanehiro,Abderrahmane Kheddar
発行日 2025-05-30 01:27:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | Humanoid Loco-Manipulations Pattern Generation and Stabilization Control はコメントを受け付けていません