ZeloS — A Research Platform for Early-Stage Validation of Research Findings Related to Automated Driving

要約

このペーパーでは、研究の初期段階で自動化された運転方法の実用的な検証のために設計および構築された研究プラットフォームであるZelosを紹介します。
Zelosのハードウェアのセットアップと自動化アーキテクチャを概要し、モーション計画と制御に焦点を当てます。
Zelosの重量は69 kgで、長さ117 cmで、全輪ステアリング、全輪駆動、およびローカリゼーション用のさまざまなオンボードセンサーが装備されています。
ハードウェアのセットアップとZelosの自動化アーキテクチャは、モジュール性とシンプルでありながら効果的であるという目標に焦点を当てて設計および構築されています。
モジュラー設計により、自動化アーキテクチャへの広範なオンボーディングを必要とせずに、個々の自動化モジュールを変更できます。
そのため、この設計は、さまざまな自動化された運転方法を検証するための多目的な研究プラットフォームであるゼロをサポートしています。
Zelosのモーション計画コンポーネントと制御は、制約を明示的に検討できる最適化ベースの方法を特徴としています。
実験データを提示することにより、ハードウェアと自動化のセットアップを実証します。

要約(オリジナル)

This paper presents ZeloS, a research platform designed and built for practical validation of automated driving methods in an early stage of research. We overview ZeloS’ hardware setup and automation architecture and focus on motion planning and control. ZeloS weighs 69 kg, measures a length of 117 cm, and is equipped with all-wheel steering, all-wheel drive, and various onboard sensors for localization. The hardware setup and the automation architecture of ZeloS are designed and built with a focus on modularity and the goal of being simple yet effective. The modular design allows the modification of individual automation modules without the need for extensive onboarding into the automation architecture. As such, this design supports ZeloS in being a versatile research platform for validating various automated driving methods. The motion planning component and control of ZeloS feature optimization-based methods that allow for explicitly considering constraints. We demonstrate the hardware and automation setup by presenting experimental data.

arxiv情報

著者 Christopher Bohn,Florian Siebenrock,Janne Bosch,Tobias Hetzner,Samuel Mauch,Philipp Reis,Timo Staudt,Manuel Hess,Ben-Micha Piscol,Sören Hohmann
発行日 2025-05-05 08:44:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | ZeloS — A Research Platform for Early-Stage Validation of Research Findings Related to Automated Driving はコメントを受け付けていません

Point Cloud Recombination: Systematic Real Data Augmentation Using Robotic Targets for LiDAR Perception Validation

要約

オープンワールドアプリケーションで動作するインテリジェントモバイルシステムのLIDARベースの認識の検証は、実際の環境条件のばらつきのため、依然として課題です。
仮想シミュレーションにより、制御された条件下で任意のシーンの生成が可能になりますが、強度応答や材料依存の効果などの物理センサーの特性がありません。
対照的に、実際のデータは真のセンサーのリアリズムを提供しますが、影響力のある要因に対する制御が少なくなり、十分な検証が妨げられます。
既存のアプローチは、シーン間でオブジェクトを転送することにより、実際のポイントクラウドデータの増強により、この問題に対処します。
ただし、これらの方法は検証を考慮せず、経験的データに依存しているため、制御可能性は限られたままです。
ポイントクラウドの組換えを提案することにより、これらの制限を解決します。これは、制御された実験室環境で測定された物理的ターゲットオブジェクトから取得したポイントクラウドを統合することにより、キャプチャされたポイントクラウドシーンを体系的に拡張します。
したがって、登録された3Dメッシュを使用した現象に認識された閉塞に関して、膨大な量の反復可能な物理的に正確なテストシーンの作成を可能にします。
OSTER OS1-128 REV7センサーを使用して、繰り返し可能なポジショニングのために、さまざまな衣服とポーズを特徴とするヒューマノイドターゲットを使用して、現実世界の都市および農村部のシーンの増強を実証します。
再結合されたシーンが実際のセンサーの出力に密接に一致し、ターゲットテスト、スケーラブルな障害分析、およびシステムの安全性の向上を可能にすることを示します。
制御されているがセンサーリアリックなデータを提供することにより、この方法により、アルゴリズムなど、化合物内の特定のセンサーの制限に関する信頼できる結論が可能になります。たとえば、オブジェクト検出。

要約(オリジナル)

The validation of LiDAR-based perception of intelligent mobile systems operating in open-world applications remains a challenge due to the variability of real environmental conditions. Virtual simulations allow the generation of arbitrary scenes under controlled conditions but lack physical sensor characteristics, such as intensity responses or material-dependent effects. In contrast, real-world data offers true sensor realism but provides less control over influencing factors, hindering sufficient validation. Existing approaches address this problem with augmentation of real-world point cloud data by transferring objects between scenes. However, these methods do not consider validation and remain limited in controllability because they rely on empirical data. We solve these limitations by proposing Point Cloud Recombination, which systematically augments captured point cloud scenes by integrating point clouds acquired from physical target objects measured in controlled laboratory environments. Thus enabling the creation of vast amounts and varieties of repeatable, physically accurate test scenes with respect to phenomena-aware occlusions with registered 3D meshes. Using the Ouster OS1-128 Rev7 sensor, we demonstrate the augmentation of real-world urban and rural scenes with humanoid targets featuring varied clothing and poses, for repeatable positioning. We show that the recombined scenes closely match real sensor outputs, enabling targeted testing, scalable failure analysis, and improved system safety. By providing controlled yet sensor-realistic data, our method enables trustworthy conclusions about the limitations of specific sensors in compound with their algorithms, e.g., object detection.

arxiv情報

著者 Hubert Padusinski,Christian Steinhauser,Christian Scherl,Julian Gaal,Jacob Langner
発行日 2025-05-05 09:00:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO, eess.IV | Point Cloud Recombination: Systematic Real Data Augmentation Using Robotic Targets for LiDAR Perception Validation はコメントを受け付けていません

Automated Hybrid Reward Scheduling via Large Language Models for Robotic Skill Learning

要約

高度なフリードームロボットを可能にすることが、ロボットダイナミクスの複雑さのために、特定のスキルを学ぶことが困難な作業です。
強化学習(RL)は、有望な解決策として浮上しています。
ただし、このような問題に対処するには、ロボットモーションのさまざまな制約を説明するために、複数の報酬関数の設計が必要です。
既存のアプローチは、通常、すべての報酬コンポーネントを無差別に要約して、RL値機能とポリシーを最適化します。
ポリシーの最適化にすべての報酬コンポーネントを均一に含めることは非効率的であり、ロボットの学習パフォーマンスを制限すると主張します。
これに対処するために、大規模な言語モデル(LLM)に基づいた自動ハイブリッド報酬スケジューリング(AHRS)フレームワークを提案します。
このパラダイムは、ポリシーの最適化プロセス全体で各報酬コンポーネントの学習強度を動的に調整し、ロボットが段階的かつ構造化された方法でスキルを獲得できるようにします。
具体的には、各ブランチが異なる報酬コンポーネントに対応するマルチブランチバリューネットワークを設計します。
ポリシーの最適化中、各ブランチにはその重要性を反映する重みが割り当てられ、これらの重みはLLMSによって設計されたルールに基づいて自動的に計算されます。
LLMは、タスクの説明から派生したルールを事前に生成し、トレーニング中に、各ブランチのパフォーマンスを評価する言語プロンプトに基づいてライブラリから重量計算ルールを選択します。
実験結果は、AHRSメソッドが複数の高度の高度ロボットタスクで平均6.48%のパフォーマンス改善を達成することを示しています。

要約(オリジナル)

Enabling a high-degree-of-freedom robot to learn specific skills is a challenging task due to the complexity of robotic dynamics. Reinforcement learning (RL) has emerged as a promising solution; however, addressing such problems requires the design of multiple reward functions to account for various constraints in robotic motion. Existing approaches typically sum all reward components indiscriminately to optimize the RL value function and policy. We argue that this uniform inclusion of all reward components in policy optimization is inefficient and limits the robot’s learning performance. To address this, we propose an Automated Hybrid Reward Scheduling (AHRS) framework based on Large Language Models (LLMs). This paradigm dynamically adjusts the learning intensity of each reward component throughout the policy optimization process, enabling robots to acquire skills in a gradual and structured manner. Specifically, we design a multi-branch value network, where each branch corresponds to a distinct reward component. During policy optimization, each branch is assigned a weight that reflects its importance, and these weights are automatically computed based on rules designed by LLMs. The LLM generates a rule set in advance, derived from the task description, and during training, it selects a weight calculation rule from the library based on language prompts that evaluate the performance of each branch. Experimental results demonstrate that the AHRS method achieves an average 6.48% performance improvement across multiple high-degree-of-freedom robotic tasks.

arxiv情報

著者 Changxin Huang,Junyang Liang,Yanbin Chang,Jingzhao Xu,Jianqiang Li
発行日 2025-05-05 09:06:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | Automated Hybrid Reward Scheduling via Large Language Models for Robotic Skill Learning はコメントを受け付けていません

Corr2Distrib: Making Ambiguous Correspondences an Ally to Predict Reliable 6D Pose Distributions

要約

RGB画像からの6Dカメラのポーズ分布を推定する最初の対応ベースの方法であるCorr2Distribを紹介し、観測を説明します。
実際、対称性と閉塞は視覚的なあいまいさをもたらし、複数の有効なポーズにつながります。
いくつかの最近の方法はこの問題に取り組んでいますが、BOPチャレンジによれば、現在、単一の6DOFポーズソリューションを推定する最も効果的な方法であるローカル対応に依存していません。
対応を使用してポーズ分布を推定することは簡単ではありません。なぜなら、視覚的なあいまいさによって誘導される曖昧な対応はPNPのパフォーマンスを大幅に減少させるからです。
Corr2Distribを使用すると、これらのあいまいさを有利に変えて、すべての有効なポーズを回復します。
Corr2Distribは、最初に、記述子とローカルフレームを特徴とするオブジェクトの表面の各3Dポイントの対称的な表現を学習します。
この表現により、単一の2D-3D対応からの3DOF回転仮説の生成が可能になります。
次に、PNPとポーズスコアリングを使用して、これらの仮説を6DOFポーズ分布に改良します。
複雑な非合成シーンに関する実験的評価は、Corr2DistribがRGB画像からのポーズ分布推定と単一のポーズ推定の両方に対して最先端のソリューションを上回ることを示しており、対応ベースのアプローチの可能性を示しています。

要約(オリジナル)

We introduce Corr2Distrib, the first correspondence-based method which estimates a 6D camera pose distribution from an RGB image, explaining the observations. Indeed, symmetries and occlusions introduce visual ambiguities, leading to multiple valid poses. While a few recent methods tackle this problem, they do not rely on local correspondences which, according to the BOP Challenge, are currently the most effective way to estimate a single 6DoF pose solution. Using correspondences to estimate a pose distribution is not straightforward, since ambiguous correspondences induced by visual ambiguities drastically decrease the performance of PnP. With Corr2Distrib, we turn these ambiguities into an advantage to recover all valid poses. Corr2Distrib first learns a symmetry-aware representation for each 3D point on the object’s surface, characterized by a descriptor and a local frame. This representation enables the generation of 3DoF rotation hypotheses from single 2D-3D correspondences. Next, we refine these hypotheses into a 6DoF pose distribution using PnP and pose scoring. Our experimental evaluations on complex non-synthetic scenes show that Corr2Distrib outperforms state-of-the-art solutions for both pose distribution estimation and single pose estimation from an RGB image, demonstrating the potential of correspondences-based approaches.

arxiv情報

著者 Asma Brazi,Boris Meden,Fabrice Mayran de Chamisso,Steve Bourgeois,Vincent Lepetit
発行日 2025-05-05 09:29:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, cs.RO | Corr2Distrib: Making Ambiguous Correspondences an Ally to Predict Reliable 6D Pose Distributions はコメントを受け付けていません

When Pre-trained Visual Representations Fall Short: Limitations in Visuo-Motor Robot Learning

要約

事前に訓練された視覚表現(PVR)が視覚エンコーダーをゼロからトレーニングするための有望な代替手段として登場しました。
ただし、PVRは、一時的な絡み合いや、小さなシーンの摂動の存在下でも一般化できないことを含む、政策学習の文脈で重要な課題に直面しています。
これらの制限は、シーンの変化に対する一時的な認識と堅牢性を必要とするタスクのパフォーマンスを妨げます。
この作業はこれらの欠点を特定し、それらに対処するための解決策を提案します。
まず、一時的な知覚とタスク完了の感覚でPVR機能を強化し、効果的にそれらを時間内に解き放ちます。
第二に、タスク関連のローカル機能に選択的に注意を払うことを学ぶモジュールを紹介し、分散型シーンで評価されると堅牢性を高めます。
私たちの実験は、特にマスキング目標で訓練されたPVRでの大幅なパフォーマンスの改善を示し、PVR固有の制限に対処する際の強化の有効性を検証します。

要約(オリジナル)

The integration of pre-trained visual representations (PVRs) into visuo-motor robot learning has emerged as a promising alternative to training visual encoders from scratch. However, PVRs face critical challenges in the context of policy learning, including temporal entanglement and an inability to generalise even in the presence of minor scene perturbations. These limitations hinder performance in tasks requiring temporal awareness and robustness to scene changes. This work identifies these shortcomings and proposes solutions to address them. First, we augment PVR features with temporal perception and a sense of task completion, effectively disentangling them in time. Second, we introduce a module that learns to selectively attend to task-relevant local features, enhancing robustness when evaluated on out-of-distribution scenes. Our experiments demonstrate significant performance improvements, particularly in PVRs trained with masking objectives, and validate the effectiveness of our enhancements in addressing PVR-specific limitations.

arxiv情報

著者 Nikolaos Tsagkas,Andreas Sochopoulos,Duolikun Danier,Sethu Vijayakumar,Chris Xiaoxuan Lu,Oisin Mac Aodha
発行日 2025-05-05 09:42:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, cs.RO | When Pre-trained Visual Representations Fall Short: Limitations in Visuo-Motor Robot Learning はコメントを受け付けていません

Data-Driven Energy Modeling of Industrial IoT Systems: A Benchmarking Approach

要約

IoTの広範な採用は、産業環境でのサイバー物理システム(CPS)の開発を推進し、産業IOT(IIOT)を活用して製造プロセスを自動化し、生産性を向上させています。
自律システムへの移行は、特にエネルギー消費の観点から、かなりの運用コストを導入します。
IIOTエネルギー要件の正確なモデリングと予測は重要ですが、従来の物理学およびエンジニアリングベースのアプローチは、これらの課題に包括的に対処するのに不足していることがよくあります。
この論文では、IIOTデバイスとアプリケーションのベンチマークと分析のための新しい方法論を提案して、電力需要、エネルギー消費、パフォーマンスに関する洞察を明らかにします。
この方法を実証するために、包括的なフレームワークを開発し、それを適用して、教育的ロボットアーム、コンベアベルト、スマートカメラ、およびコンピューティングノードを含む産業用CPSを研究します。
このフレームワーク内でマイクロベンチマークとエンドツーエンドアプリケーションを作成することにより、アプリケーションとCPSシステムの機能からエネルギー使用量を予測するためのMLモデルをトレーニングおよび分析するために使用する広範なパフォーマンスと消費電力データセットを作成します。
提案された方法論とフレームワークは、産業CPSのエネルギーダイナミクスに関する貴重な洞察を提供し、IIOT主導の自動化の効率と持続可能性を高めることを目的とした研究者と実践者に実際的な意味を提供します。

要約(オリジナル)

The widespread adoption of IoT has driven the development of cyber-physical systems (CPS) in industrial environments, leveraging Industrial IoTs (IIoTs) to automate manufacturing processes and enhance productivity. The transition to autonomous systems introduces significant operational costs, particularly in terms of energy consumption. Accurate modeling and prediction of IIoT energy requirements are critical, but traditional physics- and engineering-based approaches often fall short in addressing these challenges comprehensively. In this paper, we propose a novel methodology for benchmarking and analyzing IIoT devices and applications to uncover insights into their power demands, energy consumption, and performance. To demonstrate this methodology, we develop a comprehensive framework and apply it to study an industrial CPS comprising an educational robotic arm, a conveyor belt, a smart camera, and a compute node. By creating micro-benchmarks and an end-to-end application within this framework, we create an extensive performance and power consumption dataset, which we use to train and analyze ML models for predicting energy usage from features of the application and the CPS system. The proposed methodology and framework provide valuable insights into the energy dynamics of industrial CPS, offering practical implications for researchers and practitioners aiming to enhance the efficiency and sustainability of IIoT-driven automation.

arxiv情報

著者 Dimitris Kallis,Moysis Symeonides,Marios D. Dikaiakos
発行日 2025-05-05 10:30:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | Data-Driven Energy Modeling of Industrial IoT Systems: A Benchmarking Approach はコメントを受け付けていません

HapticVLM: VLM-Driven Texture Recognition Aimed at Intelligent Haptic Interaction

要約

このペーパーでは、リアルタイムの触覚フィードバックを可能にするためにビジョン言語の推論を深い畳み込みネットワークと統合する新しいマルチモーダルシステムであるHapticVLMを紹介します。
HAPTICVLMは、コンベントベースの材料認識モジュールを活用して、オブジェクト材料の正確な識別のための堅牢な視覚埋め込みを生成し、一方、最先端の視覚言語モデル(QWEN2-VL-2B-instruct)を環境キューから周囲温度に導きます。
このシステムは、スピーカーを介して振動触覚フィードバックを提供し、ペルティエモジュールを介して熱キューを提供することにより、触覚感覚を合成し、それにより視覚的知覚と触覚経験のギャップを埋めます。
実験的評価は、5つの異なる聴覚触覚パターンで84.67%の平均認識精度と、15のシナリオで8 {\ deg} c誤差のマージンを持つ許容範囲ベースの評価方法に基づいて86.7%の温度推定精度を示しています。
有望ですが、現在の研究は、顕著なパターンの小さなセットと控えめな参加者プールを使用することにより制限されています。
将来の作業は、触覚パターンの範囲を拡大し、ユーザー調査を増やして、システムのパフォーマンスをさらに改善および検証することに焦点を当てます。
全体として、HapticVLMは、仮想現実および支援技術における潜在的なアプリケーションとのコンテキストに対応するマルチモーダルな触覚相互作用に向けた重要なステップを提示します。

要約(オリジナル)

This paper introduces HapticVLM, a novel multimodal system that integrates vision-language reasoning with deep convolutional networks to enable real-time haptic feedback. HapticVLM leverages a ConvNeXt-based material recognition module to generate robust visual embeddings for accurate identification of object materials, while a state-of-the-art Vision-Language Model (Qwen2-VL-2B-Instruct) infers ambient temperature from environmental cues. The system synthesizes tactile sensations by delivering vibrotactile feedback through speakers and thermal cues via a Peltier module, thereby bridging the gap between visual perception and tactile experience. Experimental evaluations demonstrate an average recognition accuracy of 84.67% across five distinct auditory-tactile patterns and a temperature estimation accuracy of 86.7% based on a tolerance-based evaluation method with an 8{\deg}C margin of error across 15 scenarios. Although promising, the current study is limited by the use of a small set of prominent patterns and a modest participant pool. Future work will focus on expanding the range of tactile patterns and increasing user studies to further refine and validate the system’s performance. Overall, HapticVLM presents a significant step toward context-aware, multimodal haptic interaction with potential applications in virtual reality, and assistive technologies.

arxiv情報

著者 Muhammad Haris Khan,Miguel Altamirano Cabrera,Dmitrii Iarchuk,Yara Mahmoud,Daria Trinitatova,Issatay Tokmurziyev,Dzmitry Tsetserukou
発行日 2025-05-05 11:21:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.HC, cs.RO | HapticVLM: VLM-Driven Texture Recognition Aimed at Intelligent Haptic Interaction はコメントを受け付けていません

Learning and Online Replication of Grasp Forces from Electromyography Signals for Prosthetic Finger Control

要約

部分的な手の切断は、個人の身体的および心理社会的幸福に大きな影響を与えますが、外部に動力を与えられた補綴物の直感的な制御は依然としてオープンな課題です。
このギャップに対処するために、筋電図(EMG)シグナルによって活性化された力制御の補綴指を開発しました。
手首のブレースを中心に構築されたプロトタイプは、インデックスの近くに配置された超数の指として機能し、障害のない被験者の初期段階の評価を可能にします。
次に、ニューラルネットワークベースのモデルが実装され、EMG入力からの指先力を推定し、補綴フィンガーグリップ強度のオンライン調整が可能になりました。
フォース推定モデルは、10人の参加者との実験を通じて検証され、力の予測におけるその有効性が示されました。
さらに、プロテーゼを着用した4人のユーザーによるオンライントライアルは、デバイスを正確に制御することを示しました。
私たちの調査結果は、EMGベースの力推定を使用して補綴指の機能を高める可能性を強調しています。

要約(オリジナル)

Partial hand amputations significantly affect the physical and psychosocial well-being of individuals, yet intuitive control of externally powered prostheses remains an open challenge. To address this gap, we developed a force-controlled prosthetic finger activated by electromyography (EMG) signals. The prototype, constructed around a wrist brace, functions as a supernumerary finger placed near the index, allowing for early-stage evaluation on unimpaired subjects. A neural network-based model was then implemented to estimate fingertip forces from EMG inputs, allowing for online adjustment of the prosthetic finger grip strength. The force estimation model was validated through experiments with ten participants, demonstrating its effectiveness in predicting forces. Additionally, online trials with four users wearing the prosthesis exhibited precise control over the device. Our findings highlight the potential of using EMG-based force estimation to enhance the functionality of prosthetic fingers.

arxiv情報

著者 Robin Arbaud,Elisa Motta,Marco Domenico Avaro,Stefano Picinich,Marta Lorenzini,Arash Ajoudani
発行日 2025-05-05 11:23:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO, cs.SY, eess.SY | Learning and Online Replication of Grasp Forces from Electromyography Signals for Prosthetic Finger Control はコメントを受け付けていません

Robust Contact-rich Manipulation through Implicit Motor Adaptation

要約

連絡先が豊富な操作は、毎日の人間の活動において重要な役割を果たします。
ただし、不確実な物理的パラメーターは、多くの場合、計画と制御の両方に大きな課題をもたらします。
有望な戦略は、幅広いパラメーターにわたって堅牢なポリシーを開発することです。
ドメインの適応とドメインのランダム化は広く使用されていますが、インスタンス固有の情報を無視しているため、一般化を新しいインスタンスに制限するか、保守的に実行する傾向があります。
\ textIT {明示的なモーター適応}は、システムパラメーターをオンラインで推定し、パラメーターが整った基本ポリシーからパラメーター条件付きポリシーを取得することにより、これらの問題に対処します。
ただし、通常、学生ポリシーの正確なシステム識別または追加のトレーニングが必要です。どちらも、さまざまな物理的パラメーターを備えた接触豊富な操作タスクで困難です。
この作業では、\ textIT {暗黙的なモーター適応}を提案します。これにより、単一の推定ではなく、ほぼ推定されたパラメーター分布を考慮して、パラメーター条件付きポリシー検索が可能になります。
テンソルトレインは、基本ポリシーの暗黙的な表現として活用し、テンソルコアの分離可能な構造を活用することにより、パラメーター条件付きポリシーの効率的な検索を促進します。
このフレームワークは、最適な動作と強力な一般化を維持しながら、正確なシステムの推定とポリシー再訓練の必要性を排除します。
3つの接触豊富な操作プリミティブの数値評価によってサポートされているアプローチを検証するための理論分析を提供します。
シミュレーションと現実世界の両方の実験は、多様なインスタンスで堅牢なポリシーを生成する能力を示しています。
プロジェクトWebサイト:\ href {https://sites.google.com/view/implicit-ma} {https://sites.google.com/view/implicit-ma}。

要約(オリジナル)

Contact-rich manipulation plays an important role in daily human activities. However, uncertain physical parameters often pose significant challenges for both planning and control. A promising strategy is to develop policies that are robust across a wide range of parameters. Domain adaptation and domain randomization are widely used, but they tend to either limit generalization to new instances or perform conservatively due to neglecting instance-specific information. \textit{Explicit motor adaptation} addresses these issues by estimating system parameters online and then retrieving the parameter-conditioned policy from a parameter-augmented base policy. However, it typically requires precise system identification or additional training of a student policy, both of which are challenging in contact-rich manipulation tasks with diverse physical parameters. In this work, we propose \textit{implicit motor adaptation}, which enables parameter-conditioned policy retrieval given a roughly estimated parameter distribution instead of a single estimate. We leverage tensor train as an implicit representation of the base policy, facilitating efficient retrieval of the parameter-conditioned policy by exploiting the separable structure of tensor cores. This framework eliminates the need for precise system estimation and policy retraining while preserving optimal behavior and strong generalization. We provide a theoretical analysis to validate the approach, supported by numerical evaluations on three contact-rich manipulation primitives. Both simulation and real-world experiments demonstrate its ability to generate robust policies across diverse instances. Project website: \href{https://sites.google.com/view/implicit-ma}{https://sites.google.com/view/implicit-ma}.

arxiv情報

著者 Teng Xue,Amirreza Razmjoo,Suhan Shetty,Sylvain Calinon
発行日 2025-05-05 11:55:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Robust Contact-rich Manipulation through Implicit Motor Adaptation はコメントを受け付けていません

LiDAR-Inertial SLAM-Based Navigation and Safety-Oriented AI-Driven Control System for Skid-Steer Robots

要約

厳格な安全基準を順守しながら、人工知能(AI)と確率的技術をモバイルロボットナビゲーションと制御(MRNC)フレームワークに統合することは、重要な課題を示しています。
これらの課題に対処するために、このペーパーでは、すべてのコンポーネントがリアルタイムの実行に積極的に関与しているスキッドステアホイールモバイルロボット(SSWMRS)の包括的に統合されたMRNCフレームワークを提案します。
フレームワークは、次のことを含みます。1)構築されたマップ内のロボットの現在のポーズを推定するためのLidar-inertial同時ローカリゼーションとマッピング(SLAM)アルゴリズム。
2)現在のポーズと希望のポーズに基づいて、目的の線形および角速度コマンドを生成するための効果的な経路中の制御システム。
3)線形および角度速度コマンドを左および右側の速度コマンドに転送するための逆運動学。
4)放射状基底関数ネットワーク(RBFN)を組み込んだ新しい適応アルゴリズムを組み込んだ堅牢なAI駆動型の(RAID)制御システム。各サイドモーションコマンドを追跡するための輪インコール作動システムを強制します。
安全要件をさらに満たすために、SSWMRのMRNCフレームワーク内で提案されたRAID制御は、事前定義されたオーバーシュートおよび定常状態のエラー制限内のAI生成追跡パフォーマンスを制限し、モデリングエラー、未知のRBF重み、および外部力を補償することにより堅牢性とシステムの安定性を確保します。
実験結果は、ソフト地形で動作する4,836 kg SSWMRの提案されたMRNCフレームワークのパフォーマンスを検証します。

要約(オリジナル)

Integrating artificial intelligence (AI) and stochastic technologies into the mobile robot navigation and control (MRNC) framework while adhering to rigorous safety standards presents significant challenges. To address these challenges, this paper proposes a comprehensively integrated MRNC framework for skid-steer wheeled mobile robots (SSWMRs), in which all components are actively engaged in real-time execution. The framework comprises: 1) a LiDAR-inertial simultaneous localization and mapping (SLAM) algorithm for estimating the current pose of the robot within the built map; 2) an effective path-following control system for generating desired linear and angular velocity commands based on the current pose and the desired pose; 3) inverse kinematics for transferring linear and angular velocity commands into left and right side velocity commands; and 4) a robust AI-driven (RAID) control system incorporating a radial basis function network (RBFN) with a new adaptive algorithm to enforce in-wheel actuation systems to track each side motion commands. To further meet safety requirements, the proposed RAID control within the MRNC framework of the SSWMR constrains AI-generated tracking performance within predefined overshoot and steady-state error limits, while ensuring robustness and system stability by compensating for modeling errors, unknown RBF weights, and external forces. Experimental results verify the proposed MRNC framework performance for a 4,836 kg SSWMR operating on soft terrain.

arxiv情報

著者 Mehdi Heydari Shahna,Eemil Haaparanta,Pauli Mustalahti,Jouni Mattila
発行日 2025-05-05 12:07:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | LiDAR-Inertial SLAM-Based Navigation and Safety-Oriented AI-Driven Control System for Skid-Steer Robots はコメントを受け付けていません