Data-efficient Tactile Sensing with Electrical Impedance Tomography

要約

電気インピーダンス断層撮影(EIT)に触発された触覚センサーは、まばらな電極構成での費用対効果、安全性、スケーラビリティにより、ロボット触覚センシングに注目を集めています。
このホワイトペーパーでは、元の単一フレーム信号測定を32個の異なる効果的なシグナルデータにトレーニング用に増幅する学習ベースの触覚再建のためのデータ増強戦略を提示します。
このアプローチは、位置情報の回収されていない条件を補完し、より正確で高解像度の触覚再構成をもたらします。
EITのデータ増強により、必要なEIT測定値が大幅に減少し、サンプルが限られていることで有望なパフォーマンスを達成します。
シミュレーション結果は、提案された方法が相関係数を12%以上改善し、さまざまなノイズレベルで相対誤差を21%以上減らすことを示しています。
さらに、提案されたデータ増強を利用する標準的なディープニューラルネットワーク(DNN)により、同様の触覚再建品質を達成しながら、必要なデータが1/31に減少することを実証します。
実際のテストは、柔軟なEITベースの触覚センサーに対するアプローチの有効性をさらに検証します。
これらの結果は、利用可能な測定が限られているトレーニング触覚センシングネットワークの課題に対処し、EITベースの触覚センシングシステムの精度と適用性を改善するのに役立ちます。

要約(オリジナル)

Electrical Impedance Tomography (EIT)-inspired tactile sensors are gaining attention in robotic tactile sensing due to their cost-effectiveness, safety, and scalability with sparse electrode configurations. This paper presents a data augmentation strategy for learning-based tactile reconstruction that amplifies the original single-frame signal measurement into 32 distinct, effective signal data for training. This approach supplements uncollected conditions of position information, resulting in more accurate and high-resolution tactile reconstructions. Data augmentation for EIT significantly reduces the required EIT measurements and achieves promising performance with even limited samples. Simulation results show that the proposed method improves the correlation coefficient by over 12% and reduces the relative error by over 21% under various noise levels. Furthermore, we demonstrate that a standard deep neural network (DNN) utilizing the proposed data augmentation reduces the required data down to 1/31 while achieving a similar tactile reconstruction quality. Real-world tests further validate the approach’s effectiveness on a flexible EIT-based tactile sensor. These results could help address the challenge of training tactile sensing networks with limited available measurements, improving the accuracy and applicability of EIT-based tactile sensing systems.

arxiv情報

著者 Huazhi Dong,Ronald B. Liu,Leo Micklem,Peisan Sharel E,Francesco Giorgio-Serchi,Yunjie Yang
発行日 2025-03-18 10:20:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Data-efficient Tactile Sensing with Electrical Impedance Tomography はコメントを受け付けていません

db-CBS: Discontinuity-Bounded Conflict-Based Search for Multi-Robot Kinodynamic Motion Planning

要約

このペーパーでは、さまざまなダイナミクス、作動制限、形状を備えたロボットのチームが挑戦的な環境で目標を達成できるようにするマルチロボット運動力学モーションプランナーを紹介します。
この問題は、紛争ベースの検索(CBS)、マルチエージェントパス検索方法、および単一ロボット運動力学モーションプランナーであるA*を拘束する不連続性A*を組み合わせて解決します。
私たちの方法であるDB-CBSは、3つのレベルで動作します。
最初は、事前計算されたモーションプリミティブ間の制限された不連続性を可能にするグラフ検索を使用して、個々のロボットの軌跡を計算します。
第2レベルでは、ロボット間の衝突を識別し、第1レベルに制約を課すことでそれらを解決します。
3番目の最終レベルでは、結果として得られたソリューションを、共同空間軌跡の最適化の最初の推測として、不連続性を備えたソリューションを使用します。
手順は、バウンドバインドを減らして繰り返されます。
私たちのアプローチはいつでも、確率的に完全で、漸近的に最適であり、最適に近いソリューションを迅速に見つけます。
異なる設定でトレーラーを備えた車両、ダブルインテグレーター、車などのロボットダイナミクスを使用した実験結果は、既存の最先端よりも高い成功率と低コストで挑戦的なタスクを解決できることを示しています。

要約(オリジナル)

This paper presents a multi-robot kinodynamic motion planner that enables a team of robots with different dynamics, actuation limits, and shapes to reach their goals in challenging environments. We solve this problem by combining Conflict-Based Search (CBS), a multi-agent path finding method, and discontinuity-bounded A*, a single-robot kinodynamic motion planner. Our method, db-CBS, operates in three levels. Initially, we compute trajectories for individual robots using a graph search that allows bounded discontinuities between precomputed motion primitives. The second level identifies inter-robot collisions and resolves them by imposing constraints on the first level. The third and final level uses the resulting solution with discontinuities as an initial guess for a joint space trajectory optimization. The procedure is repeated with a reduced discontinuity bound. Our approach is anytime, probabilistically complete, asymptotically optimal, and finds near-optimal solutions quickly. Experimental results with robot dynamics such as unicycle, double integrator, and car with trailer in different settings show that our method is capable of solving challenging tasks with a higher success rate and lower cost than the existing state-of-the-art.

arxiv情報

著者 Akmaral Moldagalieva,Joaquim Ortiz-Haro,Wolfgang Hönig
発行日 2025-03-18 10:42:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | db-CBS: Discontinuity-Bounded Conflict-Based Search for Multi-Robot Kinodynamic Motion Planning はコメントを受け付けていません

GPU-Accelerated Motion Planning of an Underactuated Forestry Crane in Cluttered Environments

要約

自律的な大規模なマシン操作には、油圧作動制限や関節力の低下などの独自の課題に対処しながら、迅速で効率的で衝突のないモーション計画が必要です。
このペーパーでは、不足している林業クレーン向けに設計された新しい2段階のモーション計画フレームワークを紹介します。
最初のステップでは、GPUが加速した確率的最適化を採用して、グローバルに最短の衝突のないパスを迅速に計算します。
2番目のステップでは、このパスを、システムのダイナミクスと作動の制約のコンプライアンスを保証する軌跡のオプティマイザーを使用して、動的に実行可能な軌跡に絞り込みます。
提案されたアプローチは、RRTベースの方法や純粋に最適化ベースのアプローチを含む、従来の手法に対してベンチマークされています。
シミュレーション結果は、計算速度とモーションの実現可能性の大幅な改善を示しており、この方法により複雑なクレーンシステムに非常に適しています。

要約(オリジナル)

Autonomous large-scale machine operations require fast, efficient, and collision-free motion planning while addressing unique challenges such as hydraulic actuation limits and underactuated joint dynamics. This paper presents a novel two-step motion planning framework designed for an underactuated forestry crane. The first step employs GPU-accelerated stochastic optimization to rapidly compute a globally shortest collision-free path. The second step refines this path into a dynamically feasible trajectory using a trajectory optimizer that ensures compliance with system dynamics and actuation constraints. The proposed approach is benchmarked against conventional techniques, including RRT-based methods and purely optimization-based approaches. Simulation results demonstrate substantial improvements in computation speed and motion feasibility, making this method highly suitable for complex crane systems.

arxiv情報

著者 Minh Nhat Vu,Gerald Ebmer,Alexander Watcher,Marc-Philip Ecker,Giang Nguyen,Tobias Glueck
発行日 2025-03-18 11:31:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | GPU-Accelerated Motion Planning of an Underactuated Forestry Crane in Cluttered Environments はコメントを受け付けていません

Bridging Past and Future: End-to-End Autonomous Driving with Historical Prediction and Planning

要約

エンドツーエンドの自律運転は、微分可能なフレームワークのタスクを統合し、計画指向の最適化を可能にし、注目を集めます。
現在の方法は、密集した歴史的な鳥瞰図(BEV)機能を通じて、または検出から継承されたパラダイムに従って、まばらなメモリバンクを照会することにより、歴史的情報を集約します。
ただし、これらのパラダイムは、動きの計画で履歴情報を省略するか、複数の将来のタイムステップを予測または計画する必要があるマルチステップの性質と一致しないかのいずれかであると主張します。
未来の哲学に沿って、過去の継続であるBridgeadを提案します。Bridgeadは、将来の各時間ステップのクエリを区別するためのマルチステップクエリとして動きと計画のクエリを再定式化することを提案します。
この設計により、知覚と運動計画の両方を改善するタイムステップに基づいて、エンドツーエンドシステムの適切な部分にそれらを適用することにより、歴史的予測と計画の効果的な使用が可能になります。
具体的には、現在のフレームの履歴クエリは知覚と組み合わされ、将来のフレームのクエリはモーション計画と統合されています。
このようにして、私たちはすべての時間ステップで歴史的洞察を集約し、エンドツーエンドの自律運転パイプラインの全体的な一貫性と精度を高めることにより、過去と未来の間のギャップを埋めます。
オープンループと閉ループの両方の設定の両方でヌスセンデータセットに関する広範な実験は、Bridgeadが最先端のパフォーマンスを達成することを示しています。

要約(オリジナル)

End-to-end autonomous driving unifies tasks in a differentiable framework, enabling planning-oriented optimization and attracting growing attention. Current methods aggregate historical information either through dense historical bird’s-eye-view (BEV) features or by querying a sparse memory bank, following paradigms inherited from detection. However, we argue that these paradigms either omit historical information in motion planning or fail to align with its multi-step nature, which requires predicting or planning multiple future time steps. In line with the philosophy of future is a continuation of past, we propose BridgeAD, which reformulates motion and planning queries as multi-step queries to differentiate the queries for each future time step. This design enables the effective use of historical prediction and planning by applying them to the appropriate parts of the end-to-end system based on the time steps, which improves both perception and motion planning. Specifically, historical queries for the current frame are combined with perception, while queries for future frames are integrated with motion planning. In this way, we bridge the gap between past and future by aggregating historical insights at every time step, enhancing the overall coherence and accuracy of the end-to-end autonomous driving pipeline. Extensive experiments on the nuScenes dataset in both open-loop and closed-loop settings demonstrate that BridgeAD achieves state-of-the-art performance.

arxiv情報

著者 Bozhou Zhang,Nan Song,Xin Jin,Li Zhang
発行日 2025-03-18 11:57:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | Bridging Past and Future: End-to-End Autonomous Driving with Historical Prediction and Planning はコメントを受け付けていません

Variable Time-Step MPC for Agile Multi-Rotor UAV Interception of Dynamic Targets

要約

アジャイル軌道計画は、時空間現象の監視や動的ターゲットの傍受など、タスク指向と運動学的軌道計画を組み合わせたシナリオで、マルチローターのない弾薬車両(UAV)の効率を改善することができます。
既存の非線形モデル予測制御方法を使用したアジャイル計画は、ますます計算的に要求が厳しくなるため、計画ステップの数によって制限されます。
これにより、予測期間が短縮され、ソリューションの品質が低下します。
また、固定されたタイムステップの長さは、ターゲット近傍で利用可能なUAVダイナミクスの利用を制限します。
このホワイトペーパーでは、これらの制限に対処することを提案します。これらの制限は、さまざまな時間ステップを導入し、予測ホリズンの長さと結合することを提案します。
単純化されたポイントマスモーションプリミティブを使用して、四肢装置のダイナミクスの微分平坦性と、フラット出力空間での実行可能な軌跡の生成を活用します。
提示された評価結果と実験的に検証された展開に基づいて、提案された方法は、長い飛行セグメントの計画を可能にし、厳密にサンプリングされた操作を可能にすることにより、ソリューションの品質を向上させます。

要約(オリジナル)

Agile trajectory planning can improve the efficiency of multi-rotor Uncrewed Aerial Vehicles (UAVs) in scenarios with combined task-oriented and kinematic trajectory planning, such as monitoring spatio-temporal phenomena or intercepting dynamic targets. Agile planning using existing non-linear model predictive control methods is limited by the number of planning steps as it becomes increasingly computationally demanding. That reduces the prediction horizon length, leading to a decrease in solution quality. Besides, the fixed time-step length limits the utilization of the available UAV dynamics in the target neighborhood. In this paper, we propose to address these limitations by introducing variable time steps and coupling them with the prediction horizon length. A simplified point-mass motion primitive is used to leverage the differential flatness of quadrotor dynamics and the generation of feasible trajectories in the flat output space. Based on the presented evaluation results and experimentally validated deployment, the proposed method increases the solution quality by enabling planning for long flight segments but allowing tightly sampled maneuvering.

arxiv情報

著者 Atharva Ghotavadekar,František Nekovář,Martin Saska,Jan Faigl
発行日 2025-03-18 11:59:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO, cs.SY, eess.SY | Variable Time-Step MPC for Agile Multi-Rotor UAV Interception of Dynamic Targets はコメントを受け付けていません

Stochastic Trajectory Prediction under Unstructured Constraints

要約

軌道予測は効果的な計画と意思決定を促進し、制約された軌道予測は規制を予測に統合します。
制約された軌道予測の最近の進歩は、最適化目標を構築することにより、構造化された制約に焦点を当てています。
ただし、微分可能な正式な定義がないため、非構造化された制約を処理することは困難です。
これに対処するために、制御可能な軌道拡散(CTD)という名前の条件付き生成パラダイムを使用して、制約された軌道予測の新しい方法を提案します。
重要なアイデアは、軌道は制約への程度の適合性に対応することです。
この程度を定量化し、それを条件として扱うことにより、モデルは非構造化された制約の下で軌跡を予測することを暗黙的に学ぶことができます。
CTDは、事前に訓練されたスコアリングモデルを採用して適合度(つまり、スコア)の程度を予測し、条件付き拡散モデルの条件としてこのスコアを使用して軌道を生成します。
実験結果は、CTDがETH/UCYおよびSDDベンチマークで高い精度を達成することを示しています。
定性分析は、CTDが非構造化された制約の順守を保証し、組み合わせの制約を満たす軌跡を予測できることを確認しています。

要約(オリジナル)

Trajectory prediction facilitates effective planning and decision-making, while constrained trajectory prediction integrates regulation into prediction. Recent advances in constrained trajectory prediction focus on structured constraints by constructing optimization objectives. However, handling unstructured constraints is challenging due to the lack of differentiable formal definitions. To address this, we propose a novel method for constrained trajectory prediction using a conditional generative paradigm, named Controllable Trajectory Diffusion (CTD). The key idea is that any trajectory corresponds to a degree of conformity to a constraint. By quantifying this degree and treating it as a condition, a model can implicitly learn to predict trajectories under unstructured constraints. CTD employs a pre-trained scoring model to predict the degree of conformity (i.e., a score), and uses this score as a condition for a conditional diffusion model to generate trajectories. Experimental results demonstrate that CTD achieves high accuracy on the ETH/UCY and SDD benchmarks. Qualitative analysis confirms that CTD ensures adherence to unstructured constraints and can predict trajectories that satisfy combinatorial constraints.

arxiv情報

著者 Hao Ma,Zhiqiang Pu,Shijie Wang,Boyin Liu,Huimu Wang,Yanyan Liang,Jianqiang Yi
発行日 2025-03-18 12:27:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | Stochastic Trajectory Prediction under Unstructured Constraints はコメントを受け付けていません

CANVAS: Commonsense-Aware Navigation System for Intuitive Human-Robot Interaction

要約

実際のロボットナビゲーションには、目的地に到達するだけではありません。
シナリオ固有の目標に対処しながら、動きを最適化する必要があります。
人間がこれらの目標を表現するための直感的な方法は、言葉によるコマンドや大まかなスケッチのような抽象的な手がかりを通してです。
このような人間の指導は、詳細が不足しているか、騒々しいかもしれません。
それにもかかわらず、ロボットが意図したとおりにナビゲートすることを期待しています。
ロボットが人間の期待に沿ってこれらの抽象的な指示を解釈して実行するには、基本的なナビゲーション概念の共通の理解を人間と共有する必要があります。
この目的のために、Canvasを紹介します。Canvasは、Canvasを紹介します。これは、常識的なナビゲーションのための視覚的および言語的指示を組み合わせた新しいフレームワークです。
その成功は、模倣学習によって推進され、ロボットが人間の航海行動から学ぶことができます。
シミュレートされた環境で常識を把握するナビゲーションシステムを訓練するように設計された、48時間以上219 km以上にわたるヒトが注目したナビゲーション結果を備えた包括的なデータセットであるコマンドを提示します。
私たちの実験は、キャンバスがすべての環境で強力なルールベースのシステムROS Navstackを上回ることを示しており、騒々しい指示で優れたパフォーマンスを示しています。
特に、ROS Navstackが0%の総成功率を記録しているオーチャード環境では、Canvasは総成功率67%を達成しています。
キャンバスはまた、目に見えない環境であっても、人間のデモや常識的な制約と密接に一致しています。
さらに、CANVASの実際の展開は、総成功率69%で印象的なSIM2real転送を紹介し、実世界のアプリケーションのシミュレートされた環境で人間のデモンストレーションから学習する可能性を強調しています。

要約(オリジナル)

Real-life robot navigation involves more than just reaching a destination; it requires optimizing movements while addressing scenario-specific goals. An intuitive way for humans to express these goals is through abstract cues like verbal commands or rough sketches. Such human guidance may lack details or be noisy. Nonetheless, we expect robots to navigate as intended. For robots to interpret and execute these abstract instructions in line with human expectations, they must share a common understanding of basic navigation concepts with humans. To this end, we introduce CANVAS, a novel framework that combines visual and linguistic instructions for commonsense-aware navigation. Its success is driven by imitation learning, enabling the robot to learn from human navigation behavior. We present COMMAND, a comprehensive dataset with human-annotated navigation results, spanning over 48 hours and 219 km, designed to train commonsense-aware navigation systems in simulated environments. Our experiments show that CANVAS outperforms the strong rule-based system ROS NavStack across all environments, demonstrating superior performance with noisy instructions. Notably, in the orchard environment, where ROS NavStack records a 0% total success rate, CANVAS achieves a total success rate of 67%. CANVAS also closely aligns with human demonstrations and commonsense constraints, even in unseen environments. Furthermore, real-world deployment of CANVAS showcases impressive Sim2Real transfer with a total success rate of 69%, highlighting the potential of learning from human demonstrations in simulated environments for real-world applications.

arxiv情報

著者 Suhwan Choi,Yongjun Cho,Minchan Kim,Jaeyoon Jung,Myunchul Joe,Yubeen Park,Minseo Kim,Sungwoong Kim,Sungjae Lee,Hwiseong Park,Jiwan Chung,Youngjae Yu
発行日 2025-03-18 12:44:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, cs.RO | CANVAS: Commonsense-Aware Navigation System for Intuitive Human-Robot Interaction はコメントを受け付けていません

Temporally Consistent Object-Centric Learning by Contrasting Slots

要約

動画からの監視されていないオブジェクト中心の学習は、ビデオの大規模でラベルのないコレクションから構造化された表現を抽出するための有望なアプローチです。
自律制御のような下流のタスクをサポートするには、これらの表現は組成的で一時的に一貫している必要があります。
再発処理に基づいた既存のアプローチは、トレーニングの目標が時間的一貫性を強制しないため、フレーム全体の長期的な安定性を欠くことがよくあります。
この作業では、時間的一貫性を明示的に促進するビデオオブジェクト中心のモデルに、新しいオブジェクトレベルの時間的対照損失を導入します。
私たちの方法は、学習したオブジェクト中心の表現の時間的一貫性を大幅に改善し、監視されていないオブジェクトダイナミクス予測などの挑戦的な下流タスクを促進するより信頼性の高いビデオ分解を生み出します。
さらに、私たちの損失によって追加された帰納的バイアスは、オブジェクトの発見を大幅に改善し、合成データセットと実際のデータセットの両方で最先端の結果をもたらし、モーションマスクを追加のキューとして活用する弱く監視された方法でさえも優れています。

要約(オリジナル)

Unsupervised object-centric learning from videos is a promising approach to extract structured representations from large, unlabeled collections of videos. To support downstream tasks like autonomous control, these representations must be both compositional and temporally consistent. Existing approaches based on recurrent processing often lack long-term stability across frames because their training objective does not enforce temporal consistency. In this work, we introduce a novel object-level temporal contrastive loss for video object-centric models that explicitly promotes temporal consistency. Our method significantly improves the temporal consistency of the learned object-centric representations, yielding more reliable video decompositions that facilitate challenging downstream tasks such as unsupervised object dynamics prediction. Furthermore, the inductive bias added by our loss strongly improves object discovery, leading to state-of-the-art results on both synthetic and real-world datasets, outperforming even weakly-supervised methods that leverage motion masks as additional cues.

arxiv情報

著者 Anna Manasyan,Maximilian Seitzer,Filip Radovic,Georg Martius,Andrii Zadaianchuk
発行日 2025-03-18 13:01:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, cs.RO | Temporally Consistent Object-Centric Learning by Contrasting Slots はコメントを受け付けていません

HA-VLN: A Benchmark for Human-Aware Navigation in Discrete-Continuous Environments with Dynamic Multi-Human Interactions, Real-World Validation, and an Open Leaderboard

要約

Vision and-Language Navigation(VLN)システムは、多くの場合、個別(パノラマ)または連続(フリーモーション)パラダイムのいずれかに焦点を当て、人間が人口の多い動的環境の複雑さを見落とします。
明示的な社会的認識の制約の下でこれらのパラダイムを統合する統一された人間に認識されたVLN(HA-VLN)ベンチマークを導入します。
私たちの貢献には、次のものが含まれます。1。個別の連続したナビゲーションと個人空間要件のバランスをとる標準化されたタスク定義。
2.現実的な多人間の相互作用、屋外コンテキスト、および洗練されたモーション言語アライメントをキャプチャする強化された人間の動きデータセット(HAPS 2.0)およびアップグレードされたシミュレーター。
3. 16,844人の人間中心の命令に関する広範なベンチマーク。マルチヒューマンのダイナミクスと部分的な観測可能性が、主要なVLNエージェントにとって大きな課題をどのように引き起こすかを明らかにします。
4.混雑した屋内スペースでのSIMからリアルへの転送を検証する現実世界のロボットテスト。
5。離散タスクと連続タスク全体で透明な比較をサポートするパブリックリーダーボード。
経験的な結果は、ナビゲーションの成功の改善と、社会的文脈が統合されたときの衝突の減少を示しており、人間中心の設計の必要性を強調しています。
すべてのデータセット、シミュレータ、エージェントコード、および評価ツールをリリースすることにより、より安全で、より能力があり、社会的に責任のあるVLN研究を促進することを目指しています。

要約(オリジナル)

Vision-and-Language Navigation (VLN) systems often focus on either discrete (panoramic) or continuous (free-motion) paradigms alone, overlooking the complexities of human-populated, dynamic environments. We introduce a unified Human-Aware VLN (HA-VLN) benchmark that merges these paradigms under explicit social-awareness constraints. Our contributions include: 1. A standardized task definition that balances discrete-continuous navigation with personal-space requirements; 2. An enhanced human motion dataset (HAPS 2.0) and upgraded simulators capturing realistic multi-human interactions, outdoor contexts, and refined motion-language alignment; 3. Extensive benchmarking on 16,844 human-centric instructions, revealing how multi-human dynamics and partial observability pose substantial challenges for leading VLN agents; 4. Real-world robot tests validating sim-to-real transfer in crowded indoor spaces; and 5. A public leaderboard supporting transparent comparisons across discrete and continuous tasks. Empirical results show improved navigation success and fewer collisions when social context is integrated, underscoring the need for human-centric design. By releasing all datasets, simulators, agent code, and evaluation tools, we aim to advance safer, more capable, and socially responsible VLN research.

arxiv情報

著者 Yifei Dong,Fengyi Wu,Qi He,Heng Li,Minghan Li,Zebang Cheng,Yuxuan Zhou,Jingdong Sun,Qi Dai,Zhi-Qi Cheng,Alexander G Hauptmann
発行日 2025-03-18 13:05:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.RO | HA-VLN: A Benchmark for Human-Aware Navigation in Discrete-Continuous Environments with Dynamic Multi-Human Interactions, Real-World Validation, and an Open Leaderboard はコメントを受け付けていません

Dynamic Programming-Based Offline Redundancy Resolution of Redundant Manipulators Along Prescribed Paths with Real-Time Adjustment

要約

冗長マニピュレーターの軌跡の従来のオフライン冗長解像度には、デカルトスペースパスの逆運動ソリューションを計算し、リアルタイム調整なしでマニピュレーターを固定パスに制約します。
オンライン冗長性解像度はパスのリアルタイム調整を実現できますが、後続のパスポイントを考慮することはできず、マニピュレーターが共同制約のためにミッドモーションを停止せざるを得なくなる可能性につながります。
これに対処するために、このペーパーでは、リアルタイム調整により、規定されたパスに沿った冗長マニピュレーターの動的プログラミングベースのオフライン冗長解像度を紹介します。
提案された方法により、マニピュレーターは、パスの通常に沿ってリアルタイム調整を実装しながら、規定のパスに沿って移動できます。
動的プログラミングを使用して、提案されたアプローチは、調整係数の変動に対してグローバルな最大を計算します。
隣接するサンプリングパスポイント間の係数の変動がこの制限を超えない限り、アルゴリズムは現在のジョイント角に基づいて次のパスポイントのジョイント角を提供し、エンドエフェクターが調整されたデカルトポーズを実現できるようにします。
この論文の主な革新は、リアルタイム調整機能を備えた従来のオフライン最適計画を強化し、オフライン計画とオンライン計画の融合を達成することにあります。

要約(オリジナル)

Traditional offline redundancy resolution of trajectories for redundant manipulators involves computing inverse kinematic solutions for Cartesian space paths, constraining the manipulator to a fixed path without real-time adjustments. Online redundancy resolution can achieve real-time adjustment of paths, but it cannot consider subsequent path points, leading to the possibility of the manipulator being forced to stop mid-motion due to joint constraints. To address this, this paper introduces a dynamic programming-based offline redundancy resolution for redundant manipulators along prescribed paths with real-time adjustment. The proposed method allows the manipulator to move along a prescribed path while implementing real-time adjustment along the normal to the path. Using Dynamic Programming, the proposed approach computes a global maximum for the variation of adjustment coefficients. As long as the coefficient variation between adjacent sampling path points does not exceed this limit, the algorithm provides the next path point’s joint angles based on the current joint angles, enabling the end-effector to achieve the adjusted Cartesian pose. The main innovation of this paper lies in augmenting traditional offline optimal planning with real-time adjustment capabilities, achieving a fusion of offline planning and online planning.

arxiv情報

著者 Zhihang Yin,Fa Wu,Ziqian Wang,Jianmin Yang,Jiyong Tan,Dexing Kong
発行日 2025-03-18 13:16:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Dynamic Programming-Based Offline Redundancy Resolution of Redundant Manipulators Along Prescribed Paths with Real-Time Adjustment はコメントを受け付けていません