Bioinspired Sensing of Undulatory Flow Fields Generated by Leg Kicks in Swimming

要約

人工ラテラルライン(ALL)は、分散フローセンサーで構成される水中ロボット向けのバイオインスピレーションフローセンシングシステムです。
すべてが成功裏に適用され、体の覆い脈とバイオインスピレーションを受けたロボット魚の尾吸いによって生成された波状の流れ場が検出されました。
ただし、水泳中に人間のレッグキックによって生成された波打つフローフィールドを感知する可能性とパフォーマンスは、体系的にテストおよび研究されていません。
このペーパーでは、スイマーのレッグキックによって生成された波状の流れ場を調査するための新しいセンシングフレームワークを紹介し、バイオインスパイアのすべてのセンシングを活用しています。
Swimmer Leg Kicksによって生成された波打つフローフィールドを感知するためにAllシステムを使用する可能性を評価するために、このペーパーは、すべてのシステムと実験室で構築された人間の脚モデルを統合する実験プラットフォームを設計します。
フローセンシングの精度を高めるために、このホワイトペーパーでは、時間領域と時間周波数の特性を動的に融合する特徴抽出方法を提案します。
具体的には、時間領域の特徴は、1次元の畳み込みニューラルネットワークと双方向の長期メモリネットワーク(1DCNN-BILSTM)を使用して抽出されますが、時間周波数の特徴は、短期フーリエ変換と2次元の畳み込みニューラルネットワーク(STFT-2DCNN)を使用して抽出されます。
これらの機能は、注意メカニズムに基づいて動的に融合し、波打つ流れ場の正確なセンシングを実現します。
さらに、レッグキックパターン認識や脚の局在を蹴るなど、人間の水泳に触発されたさまざまなシナリオをテストするために、広範な実験が行われ、満足のいく結果が得られます。

要約(オリジナル)

The artificial lateral line (ALL) is a bioinspired flow sensing system for underwater robots, comprising of distributed flow sensors. The ALL has been successfully applied to detect the undulatory flow fields generated by body undulation and tail-flapping of bioinspired robotic fish. However, its feasibility and performance in sensing the undulatory flow fields produced by human leg kicks during swimming has not been systematically tested and studied. This paper presents a novel sensing framework to investigate the undulatory flow field generated by swimmer’s leg kicks, leveraging bioinspired ALL sensing. To evaluate the feasibility of using the ALL system for sensing the undulatory flow fields generated by swimmer leg kicks, this paper designs an experimental platform integrating an ALL system and a lab-fabricated human leg model. To enhance the accuracy of flow sensing, this paper proposes a feature extraction method that dynamically fuses time-domain and time-frequency characteristics. Specifically, time-domain features are extracted using one-dimensional convolutional neural networks and bidirectional long short-term memory networks (1DCNN-BiLSTM), while time-frequency features are extracted using short-term Fourier transform and two-dimensional convolutional neural networks (STFT-2DCNN). These features are then dynamically fused based on attention mechanisms to achieve accurate sensing of the undulatory flow field. Furthermore, extensive experiments are conducted to test various scenarios inspired by human swimming, such as leg kick pattern recognition and kicking leg localization, achieving satisfactory results.

arxiv情報

著者 Jun Wang,Tongsheng Shen,Dexin Zhao,Feitian Zhang
発行日 2025-03-10 13:32:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Bioinspired Sensing of Undulatory Flow Fields Generated by Leg Kicks in Swimming はコメントを受け付けていません

A Decapod Robot with Rotary Bellows-Enclosed Soft Transmissions

要約

柔らかいクロールロボットは、さまざまな地形で効率的な移動を示し、多様な環境条件に対する堅牢性を示しています。
ここでは、ロータリーベローズで描かれたソフトトランスミッションシステム(Rベスト)を統合するバルフェスソフトレッグロボットを提案します。
提案されているRベストは、サーボ回転を脚のスイングモーションに直接送信できます。
タイミングベルトは、r-bestsのペアを制御して、反対の段階での同期回転を維持し、歩行と回転の交互の三脚歩行を実現します。
R-Bestsの入力Bellowsユニットのねじれにおける補強骨格の役割を理解するために、いくつかの設計を調査しました。
ロボット脚の曲げシーケンスは、出力ベローズユニットの構造設計を通じて制御されます。
最後に、ソフトロボットティアポッドを使用して、無視された移動を示します。
実験結果は、ロボットが毎秒1.75センチ(1秒あたり0.07体の長さ)で90分間歩くことができることを示しており、半径15センチメートル(0.6 BL)で回転し、200 gのペイロードを持ち、異なる地形に適応します。

要約(オリジナル)

Soft crawling robots exhibit efficient locomotion across various terrains and demonstrate robustness to diverse environmental conditions. Here, we propose a valveless soft-legged robot that integrates a pair of rotary bellows-enclosed soft transmission systems (R-BESTS). The proposed R-BESTS can directly transmit the servo rotation into leg swing motion. A timing belt controls the pair of R-BESTS to maintain synchronous rotation in opposite phases, realizing alternating tripod gaits of walking and turning. We explored several designs to understand the role of a reinforcement skeleton in twisting the R-BESTS’ input bellows units. The bending sequences of the robot legs are controlled through structural design for the output bellows units. Finally, we demonstrate untethered locomotion with the soft robotic decapod. Experimental results show that our robot can walk at 1.75 centimeters per second (0.07 body length per second) for 90 min, turn with a 15-centimeter (0.6 BL) radius, carry a payload of 200 g, and adapt to different terrains.

arxiv情報

著者 Yiming He,Yuchen Wang,Yunjia Zhang,Shuguang Li
発行日 2025-03-10 13:38:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | A Decapod Robot with Rotary Bellows-Enclosed Soft Transmissions はコメントを受け付けていません

Tactile-based force estimation for interaction control with robot fingers

要約

微細な器用な操作には、マニピュレーターとオブジェクトの相互作用の豊富なセンシングに基づいた反応性制御が必要です。
触覚センシングアレイは、マニピュレーターの表面全体に豊富な連絡先情報を提供します。
ただし、その実装は、ロボットハンドなどの複雑な表面全体での正確な力の推定と、これらの推定値の反応性制御ループへの統合という2つの主な課題に直面しています。
さまざまなジオメトリ全体で迅速かつフルレイの力の推定を可能にするデータ効率の高いキャリブレーション方法を提示し、非線形性と変形効果を説明するオンラインフィードバックを提供します。
私たちのフォース推定モデルは、相互作用力追跡のためのオンライン閉ループ制御システムのフィードバックとして機能します。
推定値の精度は、較正されたフォーストルクセンサーからの測定に対して独立して検証されます。
Xela Uskinセンサーを装備したAllegroハンドを使用して、100Hzで実行されるアドミタンスコントロールループを介して正確な力アプリケーションを実証し、器用な操作の有望な可能性を示す最大0.12 +/- 0.08 [n]エラーマージン結果を達成します。

要約(オリジナル)

Fine dexterous manipulation requires reactive control based on rich sensing of manipulator-object interactions. Tactile sensing arrays provide rich contact information across the manipulator’s surface. However their implementation faces two main challenges: accurate force estimation across complex surfaces like robotic hands, and integration of these estimates into reactive control loops. We present a data-efficient calibration method that enables rapid, full-array force estimation across varying geometries, providing online feedback that accounts for non-linearities and deformation effects. Our force estimation model serves as feedback in an online closed-loop control system for interaction force tracking. The accuracy of our estimates is independently validated against measurements from a calibrated force-torque sensor. Using the Allegro Hand equipped with Xela uSkin sensors, we demonstrate precise force application through an admittance control loop running at 100Hz, achieving up to 0.12+/-0.08 [N] error margin-results that show promising potential for dexterous manipulation.

arxiv情報

著者 Elie Chelly,Andrea Cherubini,Philippe Fraisse,Faiz Ben Amar,Mahdi Khoramshahi
発行日 2025-03-10 13:38:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Tactile-based force estimation for interaction control with robot fingers はコメントを受け付けていません

AffordDexGrasp: Open-set Language-guided Dexterous Grasp with Generalizable-Instructive Affordance

要約

言語誘導ロボットの器用な生成により、ロボットは人間のコマンドに基づいてオブジェクトを把握および操作できます。
ただし、以前のデータ駆動型メソッドは、意図を理解し、オープンセットの目に見えないカテゴリで把握を実行するのは困難です。
この作業では、新しいタスク、オープンセットの言語誘導器用な巧妙な把握を探り、主な課題は高レベルの人間言語セマンティクスと低レベルのロボットアクションの大きなギャップであることがわかります。
この問題を解決するために、新しい一般化可能なイントラクティブなアフォーダンス表現でギャップを埋めるという洞察を得て、アフォーダンスの器用な把握(affordexgrasp)フレームワークを提案します。
このアフォーダンスは、オブジェクトのローカル構造とカテゴリに依存しないセマンティック属性を活用することにより、目に見えないカテゴリに一般化することができ、それにより、器用な把握の生成を効果的に導きます。
アフォーダンスに基づいて構築された私たちのフレームワークは、アフォーダンス生成のためのAfforeCne Flow Matter(AFM)を入力として導入し、入力としてアフォーダンスを備えた器用な把握を生成するためのフローマッチング(GFM)を把握します。
フレームワークを評価するために、オープンセットのテーブルトップ言語誘導器具把握データセットを構築します。
シミュレーションと現実の世界での広範な実験は、私たちのフレームワークが以前のすべての方法をオープンセット一般化のすべての方法を上回っていることを示しています。

要約(オリジナル)

Language-guided robot dexterous generation enables robots to grasp and manipulate objects based on human commands. However, previous data-driven methods are hard to understand intention and execute grasping with unseen categories in the open set. In this work, we explore a new task, Open-set Language-guided Dexterous Grasp, and find that the main challenge is the huge gap between high-level human language semantics and low-level robot actions. To solve this problem, we propose an Affordance Dexterous Grasp (AffordDexGrasp) framework, with the insight of bridging the gap with a new generalizable-instructive affordance representation. This affordance can generalize to unseen categories by leveraging the object’s local structure and category-agnostic semantic attributes, thereby effectively guiding dexterous grasp generation. Built upon the affordance, our framework introduces Affordacne Flow Matching (AFM) for affordance generation with language as input, and Grasp Flow Matching (GFM) for generating dexterous grasp with affordance as input. To evaluate our framework, we build an open-set table-top language-guided dexterous grasp dataset. Extensive experiments in the simulation and real worlds show that our framework surpasses all previous methods in open-set generalization.

arxiv情報

著者 Yi-Lin Wei,Mu Lin,Yuhao Lin,Jian-Jian Jiang,Xiao-Ming Wu,Ling-An Zeng,Wei-Shi Zheng
発行日 2025-03-10 14:17:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | AffordDexGrasp: Open-set Language-guided Dexterous Grasp with Generalizable-Instructive Affordance はコメントを受け付けていません

AttentionSwarm: Reinforcement Learning with Attention Control Barier Function for Crazyflie Drones in Dynamic Environments

要約

3つの挑戦的な環境で安全で効率的な群れ制御を評価するために設計された新しいベンチマークであるAttentionsWarmを紹介します。障害物を備えた着陸環境、競争力のあるドローンゲーム設定、ダイナミックなドローンレースシナリオです。
私たちのアプローチの中心は、注意モデルベースのコントロールバリア機能(CBF)フレームワークです。これは、リアルタイムの衝突回避と軌道最適化を可能にするために、注意メカニズムを安全性クリティカル制御理論と統合します。
このフレームワークは、注意力を使用して群れ周辺の重要な障害とエージェントを動的に優先しますが、CBFは衝突のない制約を実施することにより安全性を正式に保証します。
安全な注意ネットアルゴリズムが開発され、CrazyFlie 2.1マイクロクワッドローターの群れを使用して評価されました。これは、正確なローカリゼーションと制御を確保するためにViconモーションキャプチャシステムで屋内でテストされました。
実験結果は、私たちのシステムが3.02 cmの着陸精度を達成し、平均時間は23秒、ダイナミックな着陸環境での衝突のない着陸、ドローンゲーム環境での100%と衝突のないナビゲーション、95%と動的なマルチエージェントドローンレース環境のための衝突のないナビゲーション、現実的なシナリオの効果と堅牢性を強調します。
この作業は、安全性と耐久性が最も重要な動的環境でのアプリケーションの有望な基盤を提供します。

要約(オリジナル)

We introduce AttentionSwarm, a novel benchmark designed to evaluate safe and efficient swarm control across three challenging environments: a landing environment with obstacles, a competitive drone game setting, and a dynamic drone racing scenario. Central to our approach is the Attention Model Based Control Barrier Function (CBF) framework, which integrates attention mechanisms with safety-critical control theory to enable real-time collision avoidance and trajectory optimization. This framework dynamically prioritizes critical obstacles and agents in the swarms vicinity using attention weights, while CBFs formally guarantee safety by enforcing collision-free constraints. The safe attention net algorithm was developed and evaluated using a swarm of Crazyflie 2.1 micro quadrotors, which were tested indoors with the Vicon motion capture system to ensure precise localization and control. Experimental results show that our system achieves landing accuracy of 3.02 cm with a mean time of 23 s and collision-free landings in a dynamic landing environment, 100% and collision-free navigation in a drone game environment, and 95% and collision-free navigation for a dynamic multiagent drone racing environment, underscoring its effectiveness and robustness in real-world scenarios. This work offers a promising foundation for applications in dynamic environments where safety and fastness are paramount.

arxiv情報

著者 Grik Tadevosyan,Valerii Serpiva,Aleksey Fedoseev,Roohan Ahmed Khan,Demetros Aschu,Faryal Batool,Nickolay Efanov,Artem Mikhaylov,Dzmitry Tsetserukou
発行日 2025-03-10 14:30:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | AttentionSwarm: Reinforcement Learning with Attention Control Barier Function for Crazyflie Drones in Dynamic Environments はコメントを受け付けていません

Towards Safe Robot Foundation Models

要約

Robot Foundationモデルは、産業用アプリケーションから家庭用タスクまで、多様な環境にわたって展開の可能性を秘めています。
現在の研究は、主にさまざまなタスクにわたるポリシーの一般化機能に焦点を当てていますが、実際のシステムでの展開の重要な要件である安全性に対処することができません。
この論文では、ジェネラリスト政策のアクション空間を適切に制約するように設計された安全層を紹介します。
私たちのアプローチでは、安全なアクション空間を作成する安全な補強学習アルゴリズムであるAtacomを使用し、したがって、安全な状態移行を保証します。
Atacomをジェネラリストの政策に拡張することにより、当社の方法は、特定の安全性の微調整を必要とせずに、安全性の高いシナリオでの展開を容易にします。
エアホッケー環境でこの安全層の有効性を実証します。エアホッケー環境では、パックヒットエージェントが周囲と衝突するのを防ぎます。

要約(オリジナル)

Robot foundation models hold the potential for deployment across diverse environments, from industrial applications to household tasks. While current research focuses primarily on the policies’ generalization capabilities across a variety of tasks, it fails to address safety, a critical requirement for deployment on real-world systems. In this paper, we introduce a safety layer designed to constrain the action space of any generalist policy appropriately. Our approach uses ATACOM, a safe reinforcement learning algorithm that creates a safe action space and, therefore, ensures safe state transitions. By extending ATACOM to generalist policies, our method facilitates their deployment in safety-critical scenarios without requiring any specific safety fine-tuning. We demonstrate the effectiveness of this safety layer in an air hockey environment, where it prevents a puck-hitting agent from colliding with its surroundings, a failure observed in generalist policies.

arxiv情報

著者 Maximilian Tölle,Theo Gruner,Daniel Palenicek,Jonas Günster,Puze Liu,Joe Watson,Davide Tateo,Jan Peters
発行日 2025-03-10 14:55:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Towards Safe Robot Foundation Models はコメントを受け付けていません

Polyhedral Collision Detection via Vertex Enumeration

要約

衝突検出は、ロボット工学の重要な機能です。
オブジェクトが衝突する程度は、球以外の形状の連続的に微分可能な関数として表すことはできません。
このペーパーでは、多面体形状間の衝突検出を処理するためのフレームワークを提案します。
凸最適化の最適値として、2つの多面体間の署名された距離をフレーム化し、バイレベル最適化問題で署名された距離を制約することを検討します。
特殊なBilevelソルバーに依存することを避けるために、私たちの方法は、署名された距離が2つのボディに関連する凸領域の最小点であるという事実を活用しています。
このメソッドは、この領域のすべての極端なポイントで得られた値を列挙し、それらを高レベルの問題の制約としてリストします。
同じ混合相補性問題ソルバーを使用して解決した場合の信頼性と速度の観点から、既存の方法と定式化を比較します。
私たちのアプローチは、他の方法よりも複数の障害物で困難な衝突検出の問題をより確実に解決し、場合によっては既存の方法よりも速いことを実証します。

要約(オリジナル)

Collision detection is a critical functionality for robotics. The degree to which objects collide cannot be represented as a continuously differentiable function for any shapes other than spheres. This paper proposes a framework for handling collision detection between polyhedral shapes. We frame the signed distance between two polyhedral bodies as the optimal value of a convex optimization, and consider constraining the signed distance in a bilevel optimization problem. To avoid relying on specialized bilevel solvers, our method exploits the fact that the signed distance is the minimal point of a convex region related to the two bodies. Our method enumerates the values obtained at all extreme points of this region and lists them as constraints in the higher-level problem. We compare our formulation to existing methods in terms of reliability and speed when solved using the same mixed complementarity problem solver. We demonstrate that our approach more reliably solves difficult collision detection problems with multiple obstacles than other methods, and is faster than existing methods in some cases.

arxiv情報

著者 Andrew Cinar,Yue Zhao,Forrest Laine
発行日 2025-03-10 15:02:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CG, cs.RO | Polyhedral Collision Detection via Vertex Enumeration はコメントを受け付けていません

Advances in Hybrid Modular Climbing Robots: Design Principles and Refinement Strategies

要約

このペーパーでは、ハイブリッドポールまたはトランククライミングロボットの設計戦略を調査し、設計上の決定を通知し、適応性やパフォーマンスなどのメトリックを評価する方法に焦点を当てています。
モジュラーの腱駆動型の握りアームと砲塔に取り付けられた車輪付きドライブシステムを備えた車輪を握るハイブリッドロボットが、さまざまな直径の柱を登るために開発されました。
ここでは、主要な革新は、モジュール式リンケージを追加または削除することで異なる列サイズに調整できる積極化されたアームですが、ロボットにはセルフロック(電力なしで摩擦によるロボットの能力)、自律的な把握、およびカラム軸の周りの回転などの機能も備えています。
数学モデルは、セルフロックと垂直の登山の条件を説明しています。
実験結果は、登山とセルフロックにおけるロボットの有効性を示し、提案されたモデルを検証し、産業用アプリケーションで完全に自動化されたソリューションの可能性を強調しています。
この作業は、ハイブリッドクライミングロボットを評価および設計するための包括的なフレームワークを提供し、背の高い構造を登ることが重要な環境の自律的ロボット工学の進歩に貢献します。

要約(オリジナル)

This paper explores the design strategies for hybrid pole- or trunk-climbing robots, focusing on methods to inform design decisions and assess metrics such as adaptability and performance. A wheeled-grasping hybrid robot with modular, tendon-driven grasping arms and a wheeled drive system mounted on a turret was developed to climb columns of varying diameters. Here, the key innovation is the underactuated arms that can be adjusted to different column sizes by adding or removing modular linkages, though the robot also features capabilities like self-locking (the ability of the robot to stay on the column by friction without power), autonomous grasping, and rotation around the column axis. Mathematical models describe conditions for self-locking and vertical climbing. Experimental results demonstrate the robot’s efficacy in climbing and self-locking, validating the proposed models and highlighting the potential for fully automated solutions in industrial applications. This work provides a comprehensive framework for evaluating and designing hybrid climbing robots, contributing to advancements in autonomous robotics for environments where climbing tall structures is critical.

arxiv情報

著者 Ryan Poon,Ian Hunter
発行日 2025-03-10 15:09:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | Advances in Hybrid Modular Climbing Robots: Design Principles and Refinement Strategies はコメントを受け付けていません

Augmented Carpentry: Computer Vision-assisted Framework for Manual Fabrication

要約

通常の電気木工ツールは、製造タスクのオペレーターを支援するために、複数のオブジェクトを認識した拡張フレームワークに統合されています。
この研究では、オブジェクトとツールの両方を認識するように設計された、技術的な課題、潜在的なボトルネック、および提案されたシステムの精度に焦点を当てた、開発されたオープンソース製造ソフトウェア拡張大工(AC)の高度な評価を提示します。
ワークフローでは、コンピュータービジョンツールとセンサーは、改造ツールにインサイドアウト追跡技術を実装しています。
この方法により、オペレーターはコンピューターで生成されたフィードバックを使用して、正確なソーカットおよび掘削タスクを実行できます。
設計および製造プロセスパイプラインでは、コンピューターの数値制御マシンが木材建設業界で広く使用されているため、コンピューター支援設計環境から手動の製造タスクが直接実行されます。
実行図面、マーキング、ジグを使用する従来の非デジタル方法を交換できるようになり、手動労働をデジタルバリューチェーンに直接統合できます。
まず、このペーパーでは、開発された方法論を紹介し、そのデバイスと機能フェーズを詳細に説明します。
第二に、製造方法は、生成された1対1のモックアップ要素を実験的にスキャンし、矛盾をそれぞれの3次元実行モデルと比較することにより評価されます。
最後に、ツール認識の製造プロセスの改善と制限、ならびにデジタル木材製造環境におけるACの潜在的な影響について説明します。

要約(オリジナル)

Ordinary electric woodworking tools are integrated into a multiple-object-aware augmented framework to assist operators in fabrication tasks. This study presents an advanced evaluation of the developed open-source fabrication software Augmented Carpentry (AC), focusing on the technical challenges, potential bottlenecks, and precision of the proposed system, which is designed to recognize both objects and tools. In the workflow, computer vision tools and sensors implement inside-out tracking techniques for the retrofitting tools. This method enables operators to perform precise saw-cutting and drilling tasks using computer-generated feedback. In the design and manufacturing process pipeline, manual fabrication tasks are performed directly from the computer-aided design environment, as computer numerical control machines are widely used in the timber construction industry. Traditional non-digital methods employing execution drawings, markings, and jigs can now be replaced, and manual labor can be directly integrated into the digital value chain. First, this paper introduces the developed methodology and explains its devices and functional phases in detail. Second, the fabrication methodology is evaluated by experimentally scanning the produced one-to-one scale mock-up elements and comparing the discrepancies with their respective three-dimensional execution models. Finally, improvements and limitations in the tool-aware fabrication process, as well as the potential impact of AC in the digital timber fabrication landscape, are discussed.

arxiv情報

著者 Andrea Settimi,Julien Gamerro,Yves Weinand
発行日 2025-03-10 15:48:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Augmented Carpentry: Computer Vision-assisted Framework for Manual Fabrication はコメントを受け付けていません

QBIT: Quality-Aware Cloud-Based Benchmarking for Robotic Insertion Tasks

要約

挿入タスクは、環境との継続的な相互作用のため、特に自律的な操作では、ロボットにとって基本的でありながら挑戦的です。
AIベースのアプローチは課題に至っているように見えますが、生産では、高い成功率を達成するだけではありません。
また、挿入品質と信頼性を確保する必要があります。
これに対処するために、力エネルギー、力の滑らかさ、完了時間などの追加のメトリックを組み込んだ質の高いベンチマークフレームワークであるQBITを紹介し、包括的な評価を提供します。
統計的有意性を確保し、SIMからリアルのギャップを最小化するために、Mujocoシミュレーターの接触パラメーターをランダム化し、知覚の不確実性を説明し、Kubernetesベースのインフラストラクチャで大規模な実験を実施します。
当社のマイクロサービス指向アーキテクチャは、拡張性、幅広い適用性、および再現性の向上を保証します。
物理的なロボットテストへのシームレスな遷移を容易にするために、ROS2をコンテナ化で使用して統合の障壁を減らします。
シミュレートされた環境と実世界の両方の環境で、幾何学的、力ベース、および学習ベースの3つの挿入アプローチを使用してQBITを評価します。
シミュレーションでは、さまざまなメッシュ分解技術を使用して、連絡先シミュレーションの精度を比較します。
私たちの結果は、さまざまな挿入アプローチを比較し、実験室から現実世界のアプリケーションへの移行を加速する際のQBITの有効性を示しています。
コードはgithubで利用できます。

要約(オリジナル)

Insertion tasks are fundamental yet challenging for robots, particularly in autonomous operations, due to their continuous interaction with the environment. AI-based approaches appear to be up to the challenge, but in production they must not only achieve high success rates. They must also ensure insertion quality and reliability. To address this, we introduce QBIT, a quality-aware benchmarking framework that incorporates additional metrics such as force energy, force smoothness and completion time to provide a comprehensive assessment. To ensure statistical significance and minimize the sim-to-real gap, we randomize contact parameters in the MuJoCo simulator, account for perceptual uncertainty, and conduct large-scale experiments on a Kubernetes-based infrastructure. Our microservice-oriented architecture ensures extensibility, broad applicability, and improved reproducibility. To facilitate seamless transitions to physical robotic testing, we use ROS2 with containerization to reduce integration barriers. We evaluate QBIT using three insertion approaches: geometricbased, force-based, and learning-based, in both simulated and real-world environments. In simulation, we compare the accuracy of contact simulation using different mesh decomposition techniques. Our results demonstrate the effectiveness of QBIT in comparing different insertion approaches and accelerating the transition from laboratory to real-world applications. Code is available on GitHub.

arxiv情報

著者 Constantin Schempp,Yongzhou Zhang,Christian Friedrich,Bjorn Hein
発行日 2025-03-10 15:54:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | QBIT: Quality-Aware Cloud-Based Benchmarking for Robotic Insertion Tasks はコメントを受け付けていません