Dynamic Motion/Force Control of Mobile Manipulators via Extended-UDE

要約

モバイルマニピュレーターは、固定ベースのマニピュレーターよりも優れたモビリティで知られており、スマート業界やハウスキーピングシナリオで有望なアプリケーションを提供します。
モバイルベースとマニピュレーターの間の動的な結合性は、モバイルマニピュレーターの力のインタラクティブタスクの課題を提示します。
ただし、現在の戦略は、このようなシナリオでのこの結合を説明できないことがよくあります。
これに対処するために、このペーパーでは、モデリングプロセスを簡素化するマニピュレーターのダイナミクスとモバイルベースの運動学のみを必要とする動的な結合統合マニピュレーターモデルを紹介します。
さらに、動的モデルを埋め込むと、モバイルマニピュレーターには、動的なマニピュレーターに拡張された不確実性と妨害推定器(UDE)が提案されています。これは、それぞれフィードフォワードおよびフィードバック制御ループに組み込まれた動的な結合項とその他のモデルの不確実性を個別に推定します。
提案されたアプローチにより、システムの応答速度が向上し、モバイルマニピュレーターの動的ロボット環境相互作用(REI)パフォーマンスが向上します。
提案されたアプローチの有効性を検証するために、壁洗浄タスクの一連のシミュレーションと実験が実施されます。
アブレーション研究は、提案されたアプローチが、モバイルベースが動的運動にあるときに動き/力追跡性能を大幅に改善することを示しています。

要約(オリジナル)

Mobile manipulators are known for their superior mobility over manipulators on fixed bases, offering promising applications in smart industry and housekeeping scenarios. The dynamic coupling nature between the mobile base and the manipulator presents challenges for force interactive tasks of the mobile manipulator. However, current strategies often fail to account for this coupling in such scenarios. To address this, this paper presents a dynamic coupling-integrated manipulator model that requires only the manipulator dynamics and the mobile base kinematics, which simplifies the modeling process. In addition, embedding the dynamic model, an extended uncertainty and disturbance estimator (UDE) is proposed for the mobile manipulator, which separately estimates the dynamic coupling terms and other unmodeled uncertainties, incorporating them into the feedforward and feedback control loops, respectively. The proposed approach increases the speed of response of the system and improves the dynamic robot-environment interaction (REI) performance of the mobile manipulator. A series of simulations and experiments of a wall-cleaning task are conducted to verify the effectiveness of the proposed approach. Ablation studies demonstrate that the proposed approach significantly improves the motion/force tracking performance when the mobile base is in dynamic motion.

arxiv情報

著者 Songqun Gao,Wendi Ding,Maotong Cheng,Qinyuan Ren,Ben M. Chen
発行日 2025-03-27 23:03:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Dynamic Motion/Force Control of Mobile Manipulators via Extended-UDE はコメントを受け付けていません

Deep Depth Estimation from Thermal Image: Dataset, Benchmark, and Challenges

要約

悪天候や照明条件の下で堅牢で正確な空間認識を達成することは、自動運転車やロボットの高レベルの自律性にとって重要です。
ただし、可視スペクトルに依存する既存の知覚アルゴリズムは、天候や照明の状態に大きく影響を受けます。
長波赤外線カメラ(つまり、サーマルイメージングカメラ)は、高レベルの堅牢性を実現するための潜在的なソリューションになります。
ただし、大規模なデータセットと標準化されたベンチマークがないことは、熱画像からの堅牢な視覚的知覚のための積極的な研究の進行に重要なボトルネックのままです。
この目的のために、この原稿は、ステレオRGB、ステレオNIR、ステレオサーマル、ステレオライダーデータ、およびGNSS/IMU情報で構成される大規模なマルチスペクトルステレオ(MS $^2 $)データセットを提供します。
MS $^2 $データセットには、さまざまな時期(朝、昼間、昼間、昼間、昼間、昼間、昼間、昼間、昼間、昼間など)(例えば、透明なスキー、曇り、雨が降る)で、多様な場所(例:都市、居住地域、キャンパス、高速道路など)でキャプチャされた162kの同期マルチモーダルデータペアが含まれています。
第二に、RGB、NIR、および熱モダリティ全体の単眼およびステレオ深度推定ネットワークの徹底的な評価を実施して、MS $^2 $深度テストセット(昼、夜、雨など)の標準化されたベンチマーク結果を確立します。
最後に、詳細な分析を提供し、有害条件下での各モダリティのパフォーマンスの変動、異なるセンサーモダリティ間のドメインシフト、熱知覚の潜在的な研究方向など、ベンチマーク結果によって明らかにされた課題について説明します。
データセットとソースコードは、https://sites.google.com/view/multi-spectral-stereo-datasetおよびhttps://github.com/ukcheolshin/supdepth4thermalで公開されています。

要約(オリジナル)

Achieving robust and accurate spatial perception under adverse weather and lighting conditions is crucial for the high-level autonomy of self-driving vehicles and robots. However, existing perception algorithms relying on the visible spectrum are highly affected by weather and lighting conditions. A long-wave infrared camera (i.e., thermal imaging camera) can be a potential solution to achieve high-level robustness. However, the absence of large-scale datasets and standardized benchmarks remains a significant bottleneck to progress in active research for robust visual perception from thermal images. To this end, this manuscript provides a large-scale Multi-Spectral Stereo (MS$^2$) dataset that consists of stereo RGB, stereo NIR, stereo thermal, stereo LiDAR data, and GNSS/IMU information along with semi-dense depth ground truth. MS$^2$ dataset includes 162K synchronized multi-modal data pairs captured across diverse locations (e.g., urban city, residential area, campus, and high-way road) at different times (e.g., morning, daytime, and nighttime) and under various weather conditions (e.g., clear-sky, cloudy, and rainy). Secondly, we conduct a thorough evaluation of monocular and stereo depth estimation networks across RGB, NIR, and thermal modalities to establish standardized benchmark results on MS$^2$ depth test sets (e.g., day, night, and rainy). Lastly, we provide in-depth analyses and discuss the challenges revealed by the benchmark results, such as the performance variability for each modality under adverse conditions, domain shift between different sensor modalities, and potential research direction for thermal perception. Our dataset and source code are publicly available at https://sites.google.com/view/multi-spectral-stereo-dataset and https://github.com/UkcheolShin/SupDepth4Thermal.

arxiv情報

著者 Ukcheol Shin,Jinsun Park
発行日 2025-03-28 00:46:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | Deep Depth Estimation from Thermal Image: Dataset, Benchmark, and Challenges はコメントを受け付けていません

Dynamics-Guided Diffusion Model for Sensor-less Robot Manipulator Design

要約

タスク固有のトレーニングなしでタスク固有のマニピュレーター設計を生成するためのデータ駆動型フレームワークであるダイナミクスガイド拡散モデル(DGDM)を提示します。
オブジェクトの形状とタスクの仕様が与えられた場合、DGDMは、オブジェクトを盲目的に操作して、オープンループパラレルモーションを使用して望ましい動きとポーズに向かって盲目的に操作できるセンサーレスマニピュレーター設計を生成します。
このフレームワーク1)操作タスクをインタラクションプロファイルとして柔軟に表し、2)幾何学的拡散モデルを使用して設計空間を表し、3)タスク情報なしでトレーニングされたダイナミクスネットワークが提供する勾配を使用してこの設計空間を効率的に検索します。
オブジェクトのシフト/回転から特定のポーズへの収束に至るまで、さまざまな操作タスクでDGDMを評価します。
私たちの生成されたデザインは、平均成功率で31.5%と45.3%比較的最適化ベースと無ガイド拡散ベースラインよりも優れています。
0.8以内に新しい設計を生成する機能により、DGDMは迅速な設計反復を促進し、ロボットメカニズム設計のためのデータ駆動型アプローチの採用を強化します。
定性的な結果は、プロジェクトWebサイトhttps://dgdm-robot.github.io/で最もよく表示されます。

要約(オリジナル)

We present Dynamics-Guided Diffusion Model (DGDM), a data-driven framework for generating task-specific manipulator designs without task-specific training. Given object shapes and task specifications, DGDM generates sensor-less manipulator designs that can blindly manipulate objects towards desired motions and poses using an open-loop parallel motion. This framework 1) flexibly represents manipulation tasks as interaction profiles, 2) represents the design space using a geometric diffusion model, and 3) efficiently searches this design space using the gradients provided by a dynamics network trained without any task information. We evaluate DGDM on various manipulation tasks ranging from shifting/rotating objects to converging objects to a specific pose. Our generated designs outperform optimization-based and unguided diffusion baselines relatively by 31.5% and 45.3% on average success rate. With the ability to generate a new design within 0.8s, DGDM facilitates rapid design iteration and enhances the adoption of data-driven approaches for robot mechanism design. Qualitative results are best viewed on our project website https://dgdm-robot.github.io/.

arxiv情報

著者 Xiaomeng Xu,Huy Ha,Shuran Song
発行日 2025-03-28 02:09:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO | Dynamics-Guided Diffusion Model for Sensor-less Robot Manipulator Design はコメントを受け付けていません

SuperLoc: The Key to Robust LiDAR-Inertial Localization Lies in Predicting Alignment Risks

要約

地図ベースのLidarローカリゼーションは、自律システムで広く使用されていますが、異なる幾何学的特徴がないため、劣化した環境で大きな課題に直面しています。
このペーパーでは、既存の方法の主要な制限に対処する堅牢なLIDARローカリゼーションパッケージであるSuperLocを紹介します。
Superlocは、新しい予測リスクリスク評価手法を備えており、最適化前に潜在的な障害の早期検出と緩和を可能にします。
このアプローチは、廊下、トンネル、洞窟などの挑戦的なシナリオのパフォーマンスを大幅に向上させます。
最適化後分析やヒューリスティックなしきい値に依存する既存の縮退緩和アルゴリズムとは異なり、SuperLocは生センサー測定のローカライズ性を評価します。
実験結果は、さまざまな劣化した環境にわたる最先端の方法よりも大きなパフォーマンスの改善を示しています。
私たちのアプローチは、精度が54%増加し、最高の堅牢性を示します。
さらなる調査を促進するために、8つの挑戦的なシナリオからデータセットとともに実装をリリースします

要約(オリジナル)

Map-based LiDAR localization, while widely used in autonomous systems, faces significant challenges in degraded environments due to lacking distinct geometric features. This paper introduces SuperLoc, a robust LiDAR localization package that addresses key limitations in existing methods. SuperLoc features a novel predictive alignment risk assessment technique, enabling early detection and mitigation of potential failures before optimization. This approach significantly improves performance in challenging scenarios such as corridors, tunnels, and caves. Unlike existing degeneracy mitigation algorithms that rely on post-optimization analysis and heuristic thresholds, SuperLoc evaluates the localizability of raw sensor measurements. Experimental results demonstrate significant performance improvements over state-of-the-art methods across various degraded environments. Our approach achieves a 54% increase in accuracy and exhibits the highest robustness. To facilitate further research, we release our implementation along with datasets from eight challenging scenarios

arxiv情報

著者 Shibo Zhao,Honghao Zhu,Yuanjun Gao,Beomsoo Kim,Yuheng Qiu,Aaron M. Johnson,Sebastian Scherer
発行日 2025-03-28 02:28:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | SuperLoc: The Key to Robust LiDAR-Inertial Localization Lies in Predicting Alignment Risks はコメントを受け付けていません

Preferenced Oracle Guided Multi-mode Policies for Dynamic Bipedal Loco-Manipulation

要約

動的な局所操作では、オブジェクトと環境との効果的な全身制御と接触が豊富な相互作用が必要です。
既存の学習ベースのコントロール合成は、低レベルのスキルポリシーのトレーニングと、高レベルのポリシーまたは手すりの有限状態マシンで明示的に切り替えることに依存しており、準静的行動につながります。
対照的に、サッカーなどのダイナミックなタスクでは、ロボットがボールに向かって走り、ドリブルへの最適なアプローチに減速し、最終的には滑らかな動きの連続体であるゴールを蹴る必要があります。
この目的のために、私たちは優先されるOracleガイド付きマルチモードポリシー(OGMP)を提案して、単一のポリシーを学習し、必要なすべてのモードと優先遷移シーケンスを習得して、統合操作タスクを解決します。
ハイブリッドオートマトンをオラクルとして設計して、連続ダイナミクスと離散モードジャンプを備えた参照を生成して、境界のある探索を通じてガイド付きポリシーの最適化を実行します。
モード遷移の目的のシーケンスを学習するために、パフォーマンスを向上させるタスクに依存しない選好報酬を提示します。
提案されているアプローチは、全身制御を通じて、サッカーや移動箱などのタスクの運動操作が成功したことを示しています。
サッカーでは、単一のポリシーがボールに最適に到達し、コンタクトリッチドリブルに移行し、成功したゴールキックとボールストップを実行することを学びます。
Oracleの抽象化を活用して、同じ報酬の定義と重量を使用して、Hector V1、Berkeley Humanoid、Unitree G1、およびH1を含むさまざまな形態学でロボットの各局所操作タスクを解決します。

要約(オリジナル)

Dynamic loco-manipulation calls for effective whole-body control and contact-rich interactions with the object and the environment. Existing learning-based control synthesis relies on training low-level skill policies and explicitly switching with a high-level policy or a hand-designed finite state machine, leading to quasi-static behaviors. In contrast, dynamic tasks such as soccer require the robot to run towards the ball, decelerate to an optimal approach to dribble, and eventually kick a goal – a continuum of smooth motion. To this end, we propose Preferenced Oracle Guided Multi-mode Policies (OGMP) to learn a single policy mastering all the required modes and preferred sequence of transitions to solve uni-object loco-manipulation tasks. We design hybrid automatons as oracles to generate references with continuous dynamics and discrete mode jumps to perform a guided policy optimization through bounded exploration. To enforce learning a desired sequence of mode transitions, we present a task-agnostic preference reward that enhances performance. The proposed approach demonstrates successful loco-manipulation for tasks like soccer and moving boxes omnidirectionally through whole-body control. In soccer, a single policy learns to optimally reach the ball, transition to contact-rich dribbling, and execute successful goal kicks and ball stops. Leveraging the oracle’s abstraction, we solve each loco-manipulation task on robots with varying morphologies, including HECTOR V1, Berkeley Humanoid, Unitree G1, and H1, using the same reward definition and weights.

arxiv情報

著者 Prashanth Ravichandar,Lokesh Krishna,Nikhil Sobanbabu,Quan Nguyen
発行日 2025-03-28 03:41:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Preferenced Oracle Guided Multi-mode Policies for Dynamic Bipedal Loco-Manipulation はコメントを受け付けていません

REMAC: Self-Reflective and Self-Evolving Multi-Agent Collaboration for Long-Horizon Robot Manipulation

要約

Vision-Language Models(VLMS)は、特にタスク分解のために環境の全体的な理解を必要とする長老型タスクで、ロボット計画において顕著な能力を実証しています。
既存の方法は通常、以前の環境知識または慎重に設計されたタスク固有のプロンプトに依存しているため、動的なシーンの変更や予期しないタスク条件に耐えます。たとえば、マイクロ波にニンジンを入れようとするロボットがドアが閉じられていることがわかります。
このような課題は、適応性と効率性という2つの重要な問題を強調しています。
この作業では、それらに対処するために、Remacと呼ばれる適応的なマルチエージェント計画フレームワークを提案します。これは、継続的な反射と自己進化を通じて、効率的でシーンに依存しないマルチロボットの長老タスクの計画と実行を可能にします。
REMACには、2つの重要なモジュールが組み込まれています。ループで事前条件と条件後のチェックを実行する自己反射モジュールが、進捗状況を評価し、計画を絞り込むことと、シーン固有の推論に基づいて計画を動的に適応させる自己進化モジュールです。
それはいくつかの魅力的な利点を提供します:1)ロボットは、複雑な迅速な設計なしで最初に環境について探求し、推論することができます。
2)ロボットは、潜在的な計画エラーを反映し、タスク固有の洞察に基づいて計画を適応させることができます。
3)反復後、ロボットは別のロボットを呼び出して並行してタスクを調整し、タスク実行効率を最大化できます。
Remacの有効性を検証するために、Robocasaに基づいた長距離ロボットの操作とナビゲーション用のマルチエージェント環境を構築し、27のタスクスタイルと50以上の異なるオブジェクトを備えた4つのタスクカテゴリを備えています。
それに基づいて、DeepSeek-R1、O3-Mini、QWQ、GROK3を含む最先端の推論モデルをさらにベンチマークし、平均成功率を40%増加させ、実行効率を単一のロボットベースラインより52.7%上昇させることにより、Remacの優位性を実証しました。

要約(オリジナル)

Vision-language models (VLMs) have demonstrated remarkable capabilities in robotic planning, particularly for long-horizon tasks that require a holistic understanding of the environment for task decomposition. Existing methods typically rely on prior environmental knowledge or carefully designed task-specific prompts, making them struggle with dynamic scene changes or unexpected task conditions, e.g., a robot attempting to put a carrot in the microwave but finds the door was closed. Such challenges underscore two critical issues: adaptability and efficiency. To address them, in this work, we propose an adaptive multi-agent planning framework, termed REMAC, that enables efficient, scene-agnostic multi-robot long-horizon task planning and execution through continuous reflection and self-evolution. REMAC incorporates two key modules: a self-reflection module performing pre-condition and post-condition checks in the loop to evaluate progress and refine plans, and a self-evolvement module dynamically adapting plans based on scene-specific reasoning. It offers several appealing benefits: 1) Robots can initially explore and reason about the environment without complex prompt design. 2) Robots can keep reflecting on potential planning errors and adapting the plan based on task-specific insights. 3) After iterations, a robot can call another one to coordinate tasks in parallel, maximizing the task execution efficiency. To validate REMAC’s effectiveness, we build a multi-agent environment for long-horizon robot manipulation and navigation based on RoboCasa, featuring 4 task categories with 27 task styles and 50+ different objects. Based on it, we further benchmark state-of-the-art reasoning models, including DeepSeek-R1, o3-mini, QwQ, and Grok3, demonstrating REMAC’s superiority by boosting average success rates by 40% and execution efficiency by 52.7% over the single robot baseline.

arxiv情報

著者 Puzhen Yuan,Angyuan Ma,Yunchao Yao,Huaxiu Yao,Masayoshi Tomizuka,Mingyu Ding
発行日 2025-03-28 03:51:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.CV, cs.RO | REMAC: Self-Reflective and Self-Evolving Multi-Agent Collaboration for Long-Horizon Robot Manipulation はコメントを受け付けていません

Cooperative Hybrid Multi-Agent Pathfinding Based on Shared Exploration Maps

要約

マルチエージェントパスフィンディングは、マルチロボットフォーメーション、倉庫ロジスティクス、インテリジェント車両などの分野で使用されます。
ただし、多くの環境は不完全または頻繁に変化しているため、標準的な集中計画または純粋な強化学習がグローバルソリューションの品質とローカルの柔軟性の両方を維持することが困難です。
このペーパーでは、D* Lite Global Searchとマルチエージェント補強学習を統合するハイブリッドフレームワークを紹介します。スイッチングメカニズムと凍結防止戦略を使用して、動的条件と混雑した設定を処理します。
個別のくぼみ環境のフレームワークを評価し、ベースラインの方法と比較します。
実験結果は、提案されたフレームワークが成功率、衝突率、および経路効率を大幅に改善することを示しています。
このモデルは、頻繁な変更と大規模なロボット展開の下で実行可能なパスファンディングを維持する視覚プラットフォームでさらにテストされています。

要約(オリジナル)

Multi-Agent Pathfinding is used in areas including multi-robot formations, warehouse logistics, and intelligent vehicles. However, many environments are incomplete or frequently change, making it difficult for standard centralized planning or pure reinforcement learning to maintain both global solution quality and local flexibility. This paper introduces a hybrid framework that integrates D* Lite global search with multi-agent reinforcement learning, using a switching mechanism and a freeze-prevention strategy to handle dynamic conditions and crowded settings. We evaluate the framework in the discrete POGEMA environment and compare it with baseline methods. Experimental outcomes indicate that the proposed framework substantially improves success rate, collision rate, and path efficiency. The model is further tested on the EyeSim platform, where it maintains feasible Pathfinding under frequent changes and large-scale robot deployments.

arxiv情報

著者 Ning Liu,Sen Shen,Xiangrui Kong,Hongtao Zhang,Thomas Bräunl
発行日 2025-03-28 05:57:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.MA, cs.RO | Cooperative Hybrid Multi-Agent Pathfinding Based on Shared Exploration Maps はコメントを受け付けていません

3D Acetabular Surface Reconstruction from 2D Pre-operative X-ray Images using SRVF Elastic Registration and Deformation Graph

要約

適切な寛骨臼カップサイズの正確で信頼できる選択は、全股関節形成術(THA)で関節の生体力学を回復するために重要です。
このペーパーでは、2D術前胸部X線画像の複数のビューを融合させることにより、寛骨臼の3D関節表面を再構築するために、具合した変形(ED)グラフのアプローチと標準ルート速度関数(SRVF)ベースの弾性形状登録技術を統合する新しいフレームワークを提案します。
SRVFベースの弾性登録は、パラメトリック半球モデルとX線画像の間に2D-3Dの対応を確立し、EDフレームワークには、非線形最適化を使用した3D酢酸表面再構成を最適化するための制約としてSRVF由来の対応を組み込んでいます。
シミュレーションと実際の患者データセットの両方を使用した検証が実行され、提案されたアルゴリズムの堅牢性と潜在的な臨床価値を実証します。
再建結果は、一次THAでの最初の試みで正しい寛骨臼カップを選択するのを支援し、修正手術の必要性を最小限に抑えることができます。

要約(オリジナル)

Accurate and reliable selection of the appropriate acetabular cup size is crucial for restoring joint biomechanics in total hip arthroplasty (THA). This paper proposes a novel framework that integrates square-root velocity function (SRVF)-based elastic shape registration technique with an embedded deformation (ED) graph approach to reconstruct the 3D articular surface of the acetabulum by fusing multiple views of 2D pre-operative pelvic X-ray images and a hemispherical surface model. The SRVF-based elastic registration establishes 2D-3D correspondences between the parametric hemispherical model and X-ray images, and the ED framework incorporates the SRVF-derived correspondences as constraints to optimize the 3D acetabular surface reconstruction using nonlinear least-squares optimization. Validations using both simulation and real patient datasets are performed to demonstrate the robustness and the potential clinical value of the proposed algorithm. The reconstruction result can assist surgeons in selecting the correct acetabular cup on the first attempt in primary THA, minimising the need for revision surgery.

arxiv情報

著者 Shuai Zhang,Jinliang Wang,Sujith Konandetails,Xu Wang,Danail Stoyanov,Evangelos B. Mazomenos
発行日 2025-03-28 06:47:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO, eess.IV | 3D Acetabular Surface Reconstruction from 2D Pre-operative X-ray Images using SRVF Elastic Registration and Deformation Graph はコメントを受け付けていません

IKSel: Selecting Good Seed Joint Values for Fast Numerical Inverse Kinematics Iterations

要約

このペーパーでは、数値逆運動学(IK)の問題を再検討し、最新の計算リソースを活用し、分析ベースの方法と競合するソルバーを開発するためにシード選択プロセスを改良します。
提案された種子選択戦略は、3つの重要な段階で構成されています。(1)K次元ツリー(Kdtree)を利用して、ワークスペースの近接に基づいて種子候補を特定し、(2)ジョイントのスペース調整による候補者のソートを、最小限の調整を必要とするものとの数値反復を試みること、および(3)障害の場合に最も遠い関節構造を再選択します。
ジョイントスペースの調整ベースの種子の選択により、迅速な収束の可能性が高まりますが、再actment戦略は、局所的な最小値と共同制限制約を効果的に回避するのに役立ちます。
従来の数値ソルバーと学習ベースの方法の両方との比較結果は、成功率、時間効率、および精度の観点から提案されたアプローチの強みを示しています。
さらに、詳細なアブレーション研究を実施して、さまざまなパラメーターとソルバー設定の効果を分析し、カスタマイズと最適化のための実用的な洞察を提供します。
提案された方法は、一貫して高い成功率と計算効率を示します。
時間に敏感なアプリケーションに適しています。

要約(オリジナル)

This paper revisits the numerical inverse kinematics (IK) problem, leveraging modern computational resources and refining the seed selection process to develop a solver that is competitive with analytical-based methods. The proposed seed selection strategy consists of three key stages: (1) utilizing a K-Dimensional Tree (KDTree) to identify seed candidates based on workspace proximity, (2) sorting candidates by joint space adjustment and attempting numerical iterations with the one requiring minimal adjustment, and (3) re-selecting the most distant joint configurations for new attempts in case of failures. The joint space adjustment-based seed selection increases the likelihood of rapid convergence, while the re-attempt strategy effectively helps circumvent local minima and joint limit constraints. Comparison results with both traditional numerical solvers and learning-based methods demonstrate the strengths of the proposed approach in terms of success rate, time efficiency, and accuracy. Additionally, we conduct detailed ablation studies to analyze the effects of various parameters and solver settings, providing practical insights for customization and optimization. The proposed method consistently exhibits high success rates and computational efficiency. It is suitable for time-sensitive applications.

arxiv情報

著者 Xinyi Yuan,Weiwei Wan,Kensuke Harada
発行日 2025-03-28 08:34:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | IKSel: Selecting Good Seed Joint Values for Fast Numerical Inverse Kinematics Iterations はコメントを受け付けていません

Bimanual Regrasp Planning and Control for Eliminating Object Pose Uncertainty

要約

オブジェクトを正確に把握することは、不確実性をもたらすため、挑戦的な作業です。
従来の方法では、カメラと備品を使用してオブジェクトの不確実性を軽減しています。
それらは効果的ですが、オブジェクトジオメトリに基づいたジグの設計や、レーザーを使用して製造された高精度ツールを備えたカメラを較正するなど、集中的な準備が必要です。
この研究では、フィクスチャやカメラを使用せずに、把持したオブジェクトの位置と方向の不確実性を減らす方法を提案します。
私たちの方法は、平行グリッパーの平らな指パッドが、平らな表面接触を介して開口/閉じ方向に沿って不確実性を減らすことができるという概念に基づいています。
平らな指のパッドを備えた平行グリッパーによる3つの直交goの握りは、オブジェクトの位置と方向を一意の状態にまとめて制限します。
概念に導かれて、オブジェクトのポーズの不確実性を排除するために、2つのロボットアームの3つの直交握りを順番に見つけてレバレッジする再aspの計画とアドミタンス制御アプローチを開発します。
さまざまな初期オブジェクトの不確実性に関する提案された方法を評価し、この方法に満足のいく再現性の精度があることを確認しました。
標準的な実験室条件下でカメラとレーザージェットプリンターを使用して実装されたARマーカー検出方法を上回ります。

要約(オリジナル)

Precisely grasping an object is a challenging task due to pose uncertainties. Conventional methods have used cameras and fixtures to reduce object uncertainty. They are effective but require intensive preparation, such as designing jigs based on the object geometry and calibrating cameras with high-precision tools fabricated using lasers. In this study, we propose a method to reduce the uncertainty of the position and orientation of a grasped object without using a fixture or a camera. Our method is based on the concept that the flat finger pads of a parallel gripper can reduce uncertainty along its opening/closing direction through flat surface contact. Three orthogonal grasps by parallel grippers with flat finger pads collectively constrain an object’s position and orientation to a unique state. Guided by the concepts, we develop a regrasp planning and admittance control approach that sequentially finds and leverages three orthogonal grasps of two robotic arms to eliminate uncertainties in the object pose. We evaluated the proposed method on different initial object uncertainties and verified that the method has satisfactory repeatability accuracy. It outperforms an AR marker detection method implemented using cameras and laser jet printers under standard laboratory conditions.

arxiv情報

著者 Ryuta Nagahama,Weiwei Wan,Zhengtao Hu,Kensuke Harada
発行日 2025-03-28 08:42:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Bimanual Regrasp Planning and Control for Eliminating Object Pose Uncertainty はコメントを受け付けていません