Learning Long Short-Term Intention within Human Daily Behaviors

要約

自律型の家庭用ロボットの領域では、ロボットが人間の行動を理解し、適切なサービスを提供することが最も重要です。
これには、ロボットが複雑な人間の行動を分析し、人間の真の意図を予測する能力を持っている必要があります。
伝統的に、人間は完璧であると認識されており、その決定はロボットが一致するよう努力すべき基準として機能しています。
しかし、これは適切な質問を提起します:人間が間違いを犯した場合はどうなりますか?
この研究では、「長期的な意図予測」と呼ばれる独自のタスクを提示します。
このタスクには、ロボットが人間の長期的な意図を予測できる必要があります。これは、人間の価値観と、即時の行動意図を反映する人間の短期的な意図と一致します。
一方、ロボットは、短期的および長期的な意図の間の潜在的な非整合性を検出し、必要な警告と提案を提供する必要があります。
このタスクを容易にするために、複雑な意図状態を表すために長期的な意図モデルを提案し、この意図モデルをトレーニングするデータセットを構築します。
次に、ロボットの意図モデルを統合する2段階の方法を提案します。i)価値ベースの長期的意図とアクションベースの短期的な意図の両方の人間の意図を予測する。
2)長期的な意図と短期的な意図の一貫性を分析する。
実験結果は、提案されている長期的な意図モデルがロボットが長期的および短期的な期間の両方で人間の行動パターンを理解するのに役立つことを示しており、これは人間の長期的および短期的な意図の一貫性を判断するのに役立ちます。

要約(オリジナル)

In the domain of autonomous household robots, it is of utmost importance for robots to understand human behaviors and provide appropriate services. This requires the robots to possess the capability to analyze complex human behaviors and predict the true intentions of humans. Traditionally, humans are perceived as flawless, with their decisions acting as the standards that robots should strive to align with. However, this raises a pertinent question: What if humans make mistakes? In this research, we present a unique task, termed ‘long short-term intention prediction’. This task requires robots can predict the long-term intention of humans, which aligns with human values, and the short term intention of humans, which reflects the immediate action intention. Meanwhile, the robots need to detect the potential non-consistency between the short-term and long-term intentions, and provide necessary warnings and suggestions. To facilitate this task, we propose a long short-term intention model to represent the complex intention states, and build a dataset to train this intention model. Then we propose a two-stage method to integrate the intention model for robots: i) predicting human intentions of both value-based long-term intentions and action-based short-term intentions; and 2) analyzing the consistency between the long-term and short-term intentions. Experimental results indicate that the proposed long short-term intention model can assist robots in comprehending human behavioral patterns over both long-term and short-term durations, which helps determine the consistency between long-term and short-term intentions of humans.

arxiv情報

著者 Zhe Sun,Rujie Wu,Xiaodong Yang,Hongzhao Xie,Haiyan Jiang,Junda Bi,Zhenliang Zhang
発行日 2025-04-10 09:50:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | Learning Long Short-Term Intention within Human Daily Behaviors はコメントを受け付けていません

Joint Travel Route Optimization Framework for Platooning

要約

Platooningは、さまざまな長さの交通輸送船団のドライバーを支援するために設計された高度な駆動技術を表しています。
洗練された自動化された運転支援システムは、このイノベーションを促進しました。
Platooningの最近の進歩は、車両通信技術によって可能になった集中型および分散型アーキテクチャの両方の協同メカニズムを強調しています。
この研究では、システムレベルでの集中型小隊形成戦略を通じて小隊の採用を促進することを目的とした協同ルート計画最適化フレームワークを紹介します。
このアプローチは、個人(エゴ)運転から完全に協力的な運転までの移行段階として想定されています。
さらに、この研究は、連続した運転期間に関する規制上の制約を考慮して、燃料消費、ドライバーの疲労、および移動時間に関連する旅行コストメトリックを定式化および組み込みます。
これらのコストメトリックのパフォーマンスは、ネットワークグラフフレームワーク内のDijkstraと*最短のパスアルゴリズムを使用して評価されています。
結果は、提案されたアーキテクチャが、長い道路旅行の個々のルート計画と比較して、平均コストの改善を14%に達成していることを示しています。

要約(オリジナル)

Platooning represents an advanced driving technology designed to assist drivers in traffic convoys of varying lengths, enhancing road safety, reducing driver fatigue, and improving fuel efficiency. Sophisticated automated driving assistance systems have facilitated this innovation. Recent advancements in platooning emphasize cooperative mechanisms within both centralized and decentralized architectures enabled by vehicular communication technologies. This study introduces a cooperative route planning optimization framework aimed at promoting the adoption of platooning through a centralized platoon formation strategy at the system level. This approach is envisioned as a transitional phase from individual (ego) driving to fully collaborative driving. Additionally, this research formulates and incorporates travel cost metrics related to fuel consumption, driver fatigue, and travel time, considering regulatory constraints on consecutive driving durations. The performance of these cost metrics has been evaluated using Dijkstra’s and A* shortest path algorithms within a network graph framework. The results indicate that the proposed architecture achieves an average cost improvement of 14 % compared to individual route planning for long road trips.

arxiv情報

著者 Akif Adas,Stefano Arrigoni,Mattia Brambilla,Monica Barbara Nicoli,Edoardo Sabbioni
発行日 2025-04-10 10:13:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.ET, cs.RO, cs.SY, eess.SY | Joint Travel Route Optimization Framework for Platooning はコメントを受け付けていません

Geometry-aware RL for Manipulation of Varying Shapes and Deformable Objects

要約

さまざまなジオメトリと変形可能なオブジェクトを備えたオブジェクトを操作することは、ロボット工学の大きな課題です。
異なるオブジェクトや布吊り下げの挿入などのタスクには、正確な制御と複雑なダイナミクスの効果的なモデリングが必要です。
この作業では、この問題を、アクチュエーターやオブジェクトなどの小さなサブグラフを含む不均一なグラフのレンズを通して、相互作用を説明するさまざまなエッジタイプを伴います。
このグラフ表現は、剛性と変形可能なオブジェクトの両方のタスクの統一された構造として機能し、複数のアクチュエーターを含むタスクにさらに拡張できます。
このセットアップを評価するために、多様なオブジェクトの剛性挿入、複数のエンド効果によるロープと布の操作など、斬新で挑戦的な強化学習ベンチマークを提示します。
これらのタスクは、初期構成とターゲット構成の両方が3Dスペースで均一にサンプリングされるため、大きな検索スペースを提示します。
この問題に対処するために、幾何学的対称性を活用するための主要なバックボーンとして$ se(3)$ equivariantメッセージパスネットワークを利用して、不均一等量ポリシー(HEPI)と呼ばれる新しいグラフベースのポリシーモデルを提案します。
さらに、明示的な不均一性をモデル化することにより、HEPIは、平均リターン、サンプル効率、および目に見えないオブジェクトへの一般化に関して、変圧器ベースおよび非氷河の等縁ポリシーを上回ることができます。
プロジェクトページは、https://thobotics.github.io/hepiで入手できます。

要約(オリジナル)

Manipulating objects with varying geometries and deformable objects is a major challenge in robotics. Tasks such as insertion with different objects or cloth hanging require precise control and effective modelling of complex dynamics. In this work, we frame this problem through the lens of a heterogeneous graph that comprises smaller sub-graphs, such as actuators and objects, accompanied by different edge types describing their interactions. This graph representation serves as a unified structure for both rigid and deformable objects tasks, and can be extended further to tasks comprising multiple actuators. To evaluate this setup, we present a novel and challenging reinforcement learning benchmark, including rigid insertion of diverse objects, as well as rope and cloth manipulation with multiple end-effectors. These tasks present a large search space, as both the initial and target configurations are uniformly sampled in 3D space. To address this issue, we propose a novel graph-based policy model, dubbed Heterogeneous Equivariant Policy (HEPi), utilizing $SE(3)$ equivariant message passing networks as the main backbone to exploit the geometric symmetry. In addition, by modeling explicit heterogeneity, HEPi can outperform Transformer-based and non-heterogeneous equivariant policies in terms of average returns, sample efficiency, and generalization to unseen objects. Our project page is available at https://thobotics.github.io/hepi.

arxiv情報

著者 Tai Hoang,Huy Le,Philipp Becker,Vien Anh Ngo,Gerhard Neumann
発行日 2025-04-10 11:03:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO | Geometry-aware RL for Manipulation of Varying Shapes and Deformable Objects はコメントを受け付けていません

Drama: Mamba-Enabled Model-Based Reinforcement Learning Is Sample and Parameter Efficient

要約

モデルベースの強化学習(RL)は、ほとんどのモデルのないRLアルゴリズムを悩ませるデータの非効率性に対するソリューションを提供します。
ただし、堅牢な世界モデルを学習するには、多くの場合、複雑で深いアーキテクチャが必要であり、計算的に高価で訓練が困難です。
世界モデル内では、シーケンスモデルが正確な予測に重要な役割を果たし、それぞれに独自の課題があるさまざまなアーキテクチャが検討されています。
現在、再発性ニューラルネットワーク(RNN)ベースの世界モデルは、勾配の消失と長期依存関係のキャプチャに苦労しています。
一方、変圧器は、$ o(n^2)$としてスケーリングし、$ n $がシーケンスの長さである、自己触媒メカニズムの2次記憶と計算の複雑さに悩まされます。
これらの課題に対処するために、$ O(n)$メモリと計算の複雑さを達成しながら、長期依存関係を効果的にキャプチャし、より長いシーケンスで効率的なトレーニングを可能にする状態空間モデル(SSM)ベースの世界モデル、ドラマ、特にMambaを活用することを提案します。
また、初期のトレーニング段階で誤った世界モデルによって引き起こされる最適性を緩和するための新しいサンプリング方法を紹介します。
これらのテクニックを組み合わせることで、ドラマは、700万パラメーターの世界モデルのみを使用して、他の最先端(SOTA)モデルベースのRLアルゴリズムと競合するAtari100Kベンチマークで正規化されたスコアを実現します。
ドラマは、標準のラップトップなど、既製のハードウェアでアクセスしやすくトレーニング可能です。
私たちのコードは、https://github.com/realwenlongwang/drama.gitで入手できます。

要約(オリジナル)

Model-based reinforcement learning (RL) offers a solution to the data inefficiency that plagues most model-free RL algorithms. However, learning a robust world model often requires complex and deep architectures, which are computationally expensive and challenging to train. Within the world model, sequence models play a critical role in accurate predictions, and various architectures have been explored, each with its own challenges. Currently, recurrent neural network (RNN)-based world models struggle with vanishing gradients and capturing long-term dependencies. Transformers, on the other hand, suffer from the quadratic memory and computational complexity of self-attention mechanisms, scaling as $O(n^2)$, where $n$ is the sequence length. To address these challenges, we propose a state space model (SSM)-based world model, Drama, specifically leveraging Mamba, that achieves $O(n)$ memory and computational complexity while effectively capturing long-term dependencies and enabling efficient training with longer sequences. We also introduce a novel sampling method to mitigate the suboptimality caused by an incorrect world model in the early training stages. Combining these techniques, Drama achieves a normalised score on the Atari100k benchmark that is competitive with other state-of-the-art (SOTA) model-based RL algorithms, using only a 7 million-parameter world model. Drama is accessible and trainable on off-the-shelf hardware, such as a standard laptop. Our code is available at https://github.com/realwenlongwang/Drama.git.

arxiv情報

著者 Wenlong Wang,Ivana Dusparic,Yucheng Shi,Ke Zhang,Vinny Cahill
発行日 2025-04-10 11:08:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO | Drama: Mamba-Enabled Model-Based Reinforcement Learning Is Sample and Parameter Efficient はコメントを受け付けていません

UWB Anchor Based Localization of a Planetary Rover

要約

惑星探査中の自律モバイルロボットのローカライズは、未知の地形、困難な照明条件、衛星ナビゲーションシステムなどのグローバルな参照の欠如のために困難です。
Ultra-Wideband(UWB)テクノロジーに基づいたロボットローカリゼーションの新しいアプローチを提示します。
ロボットは、ロケット推進ランチャーシステムを介して環境にUWBアンカーノードを分散することにより、独自の参照座標系を設定します。
これにより、従来のスラムベースの技術を補足するためにUWB測定が採用されるローカリゼーションスペースを作成できます。
このシステムは、ESA-ESRIC Challenge 2021およびAmadee-24に関与するために開発されました。これは、オーストリア宇宙フォーラム(\ ‘OWF)によるアルメニアのアナログ火星シミュレーションです。

要約(オリジナル)

Localization of an autonomous mobile robot during planetary exploration is challenging due to the unknown terrain, the difficult lighting conditions and the lack of any global reference such as satellite navigation systems. We present a novel approach for robot localization based on ultra-wideband (UWB) technology. The robot sets up its own reference coordinate system by distributing UWB anchor nodes in the environment via a rocket-propelled launcher system. This allows the creation of a localization space in which UWB measurements are employed to supplement traditional SLAM-based techniques. The system was developed for our involvement in the ESA-ESRIC challenge 2021 and the AMADEE-24, an analog Mars simulation in Armenia by the Austrian Space Forum (\’OWF).

arxiv情報

著者 Andreas Nüchter,Lennart Werner,Martin Hesse,Dorit Borrmann,Thomas Walter,Sergio Montenegro,Gernot Grömer
発行日 2025-04-10 11:15:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 68T40, B.m, cs.RO, cs.SY, eess.SY | UWB Anchor Based Localization of a Planetary Rover はコメントを受け付けていません

Localization Meets Uncertainty: Uncertainty-Aware Multi-Modal Localization

要約

信頼性の高いローカリゼーションは、複雑な屋内環境でのロボットナビゲーションにとって重要です。
このホワイトペーパーでは、予測モデル自体を変更せずにローカリゼーション出力の信頼性を高める不確実性を意識するローカリゼーション方法を提案します。
この研究では、ネットワークが推定するaleatoricおよび認識論の不確実性に基づいて、信頼できない3-DOFポーズ予測を除外するパーセンタイルベースの拒否戦略を導入します。
このアプローチを、RGB画像と2D LIDARデータを融合するマルチモーダルエンドツーエンドのローカリゼーションに適用し、商業化されたサービングロボットを使用して収集された3つの実際のデータセットで評価します。
実験結果は、より厳しい不確実性のしきい値を適用すると、ポーズの精度が一貫して改善されることを示しています。
具体的には、平均位置誤差は、それぞれ90%、80%、および70%のしきい値を適用する場合、それぞれ41.0%、56.7%、および69.4%、平均方向誤差は55.6%、65.7%、73.3%減少します。
さらに、拒否戦略は極端な外れ値を効果的に除去し、地上の真理軌道とのより良い整合をもたらします。
私たちの知る限り、これは、マルチモーダルのエンドツーエンドのローカリゼーションタスクにおけるパーセンタイルベースの不確実性拒絶の利点を定量的に実証する最初の研究です。
私たちのアプローチは、実際の展開におけるローカリゼーションシステムの信頼性と精度を高めるための実用的な手段を提供します。

要約(オリジナル)

Reliable localization is critical for robot navigation in complex indoor environments. In this paper, we propose an uncertainty-aware localization method that enhances the reliability of localization outputs without modifying the prediction model itself. This study introduces a percentile-based rejection strategy that filters out unreliable 3-DoF pose predictions based on aleatoric and epistemic uncertainties the network estimates. We apply this approach to a multi-modal end-to-end localization that fuses RGB images and 2D LiDAR data, and we evaluate it across three real-world datasets collected using a commercialized serving robot. Experimental results show that applying stricter uncertainty thresholds consistently improves pose accuracy. Specifically, the mean position error is reduced by 41.0%, 56.7%, and 69.4%, and the mean orientation error by 55.6%, 65.7%, and 73.3%, when applying 90%, 80%, and 70% thresholds, respectively. Furthermore, the rejection strategy effectively removes extreme outliers, resulting in better alignment with ground truth trajectories. To the best of our knowledge, this is the first study to quantitatively demonstrate the benefits of percentile-based uncertainty rejection in multi-modal end-to-end localization tasks. Our approach provides a practical means to enhance the reliability and accuracy of localization systems in real-world deployments.

arxiv情報

著者 Hye-Min Won,Jieun Lee,Jiyong Oh
発行日 2025-04-10 12:07:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | Localization Meets Uncertainty: Uncertainty-Aware Multi-Modal Localization はコメントを受け付けていません

SigmaRL: A Sample-Efficient and Generalizable Multi-Agent Reinforcement Learning Framework for Motion Planning

要約

このペーパーでは、接続された車両および自動車のモーション計画のためのマルチエージェント補強学習(RL)のサンプル効率と一般化の両方を強化するように設計されたSigmarlという名前のオープンソースの分散型フレームワークを紹介します。
ほとんどのRLエージェントは、一般化するための限られた能力を示し、多くの場合、特定のシナリオに狭く焦点を当て、通常、トレーニング中に見られる類似または同じシナリオで評価されます。
経験のリプレイや正規化など、これらの課題に対処するために、さまざまな方法が提案されています。
ただし、RLでの観測設計がサンプルの効率にどのように影響し、一般化が依存していない領域のままです。
ほとんどのトラフィックシナリオに適用される一般的な機能に焦点を当て、情報密度の高い観察を設計するための5つの戦略を提案することにより、このギャップに対処します。
交差点でこれらの戦略を使用してRLエージェントを訓練し、新しい交差点、ランプ、ラウンドアバウトなど、完全に目に見えないトラフィックシナリオにわたって数値実験を通じて一般化を評価します。
これらの情報密度の高い観測を組み込むと、1つのCPUでトレーニング時間が1時間未満に短縮され、評価結果により、RLエージェントが効果的にゼロショットが一般化できることが明らかになります。
コード:github.com/bassamlab/sigmarl

要約(オリジナル)

This paper introduces an open-source, decentralized framework named SigmaRL, designed to enhance both sample efficiency and generalization of multi-agent Reinforcement Learning (RL) for motion planning of connected and automated vehicles. Most RL agents exhibit a limited capacity to generalize, often focusing narrowly on specific scenarios, and are usually evaluated in similar or even the same scenarios seen during training. Various methods have been proposed to address these challenges, including experience replay and regularization. However, how observation design in RL affects sample efficiency and generalization remains an under-explored area. We address this gap by proposing five strategies to design information-dense observations, focusing on general features that are applicable to most traffic scenarios. We train our RL agents using these strategies on an intersection and evaluate their generalization through numerical experiments across completely unseen traffic scenarios, including a new intersection, an on-ramp, and a roundabout. Incorporating these information-dense observations reduces training times to under one hour on a single CPU, and the evaluation results reveal that our RL agents can effectively zero-shot generalize. Code: github.com/bassamlab/SigmaRL

arxiv情報

著者 Jianye Xu,Pan Hu,Bassam Alrifaee
発行日 2025-04-10 12:22:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.MA, cs.RO, cs.SY, eess.SY | SigmaRL: A Sample-Efficient and Generalizable Multi-Agent Reinforcement Learning Framework for Motion Planning はコメントを受け付けていません

Sim-to-Real Transfer in Reinforcement Learning for Maneuver Control of a Variable-Pitch MAV

要約

強化学習(RL)アルゴリズムは、無人航空機(MAV)で高操作性を高めることができますが、シミュレーションから実際の使用に転送することは困難です。
可変ピッチプロペラ(VPP)Mavsはより大きな俊敏性を提供しますが、それらの複雑なダイナミクスはSIMからリアルへの転送を複雑にします。
このペーパーでは、これらの課題を克服するための新しいRLフレームワークを紹介し、VPP MAVが実際の設定で高度な空中操作を実行できるようにします。
私たちのアプローチには、システム識別、ドメインランダム化、および堅牢なトレーニングシミュレーションを作成するためのカリキュラム学習など、現実からSIMからSIMへの転送手法、およびカスケードコントロールシステムと信頼できる展開のための高速応答の低レベルコントローラーを組み合わせたSIMから現実の転送戦略が含まれます。
結果は、ゼロショットの展開を達成する上でこのフレームワークの有効性を示しており、MAVがフリップやウォールバックトラッキングなどの複雑な操作を実行できるようにします。

要約(オリジナル)

Reinforcement learning (RL) algorithms can enable high-maneuverability in unmanned aerial vehicles (MAVs), but transferring them from simulation to real-world use is challenging. Variable-pitch propeller (VPP) MAVs offer greater agility, yet their complex dynamics complicate the sim-to-real transfer. This paper introduces a novel RL framework to overcome these challenges, enabling VPP MAVs to perform advanced aerial maneuvers in real-world settings. Our approach includes real-to-sim transfer techniques-such as system identification, domain randomization, and curriculum learning to create robust training simulations and a sim-to-real transfer strategy combining a cascade control system with a fast-response low-level controller for reliable deployment. Results demonstrate the effectiveness of this framework in achieving zero-shot deployment, enabling MAVs to perform complex maneuvers such as flips and wall-backtracking.

arxiv情報

著者 Zhikun Wang,Shiyu Zhao
発行日 2025-04-10 12:27:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Sim-to-Real Transfer in Reinforcement Learning for Maneuver Control of a Variable-Pitch MAV はコメントを受け付けていません

Transformer-Based Robust Underwater Inertial Navigation in Prolonged Doppler Velocity Log Outages

要約

自律的な水中車両(AUV)には、探査、調査、マッピングなど、海洋ドメインにさまざまな用途があります。
それらのナビゲーションシステムは、通常、非線形フィルタリングを介して、慣性センサーとドップラー速度ログ(DVL)からのデータの融合に大きく依存しています。
DVLは、音響ビームを海底に送信し、反射信号からのドップラーシフトを分析することにより、AUVの速度ベクトルを推定します。
ただし、環境の課題により、DVLビームは実際の設定で偏向または故障し、信号の停止を引き起こす可能性があります。
そのような場合、AUVは慣性データのみに依存しており、蓄積されたナビゲーションエラーとミッション終了につながります。
これらの停止に対処するために、慣性測定値と以前のDVLデータを使用して、孤立した停止中にAUV速度を推定する深い学習アプローチであるSt-BeamSnetを採用しました。
この作業では、st-beamsnetを拡張して、長期にわたるDVL停止に対処し、拡張されたカルマンフィルターフレームワーク内でその影響を評価します。
実験は、提案されたフレームワークが速度RMSEを最大63%改善し、純粋な慣性ナビゲーションと比較して最終位置誤差を最大95%減らすことを示しています。
これは、最大50秒の完全なDVL停止を含むシナリオです。

要約(オリジナル)

Autonomous underwater vehicles (AUV) have a wide variety of applications in the marine domain, including exploration, surveying, and mapping. Their navigation systems rely heavily on fusing data from inertial sensors and a Doppler velocity log (DVL), typically via nonlinear filtering. The DVL estimates the AUV’s velocity vector by transmitting acoustic beams to the seabed and analyzing the Doppler shift from the reflected signals. However, due to environmental challenges, DVL beams can deflect or fail in real-world settings, causing signal outages. In such cases, the AUV relies solely on inertial data, leading to accumulated navigation errors and mission terminations. To cope with these outages, we adopted ST-BeamsNet, a deep learning approach that uses inertial readings and prior DVL data to estimate AUV velocity during isolated outages. In this work, we extend ST-BeamsNet to address prolonged DVL outages and evaluate its impact within an extended Kalman filter framework. Experiments demonstrate that the proposed framework improves velocity RMSE by up to 63% and reduces final position error by up to 95% compared to pure inertial navigation. This is in scenarios involving up to 50 seconds of complete DVL outage.

arxiv情報

著者 Zeev Yampolsky,Nadav Cohen,Itzik Klein
発行日 2025-04-10 12:31:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Transformer-Based Robust Underwater Inertial Navigation in Prolonged Doppler Velocity Log Outages はコメントを受け付けていません

TOCALib: Optimal control library with interpolation for bimanual manipulation and obstacles avoidance

要約

この論文は、2つのロボットマニピュレーターの最適な軌跡のライブラリを構築するための新しいアプローチを提示します。2腕の最適制御と回避ライブラリ(Tocalib)です。
最適化では、霜枠内の運動力学およびその他の制約を考慮しています。
この方法の斬新さは、DCOL法を使用した衝突の考慮にあります。これにより、衝突の存在を評価し、勾配ベースの最適化制御方法でそれらを使用するための象徴的な表現を取得できます。
提案されたアプローチにより、複雑な両操作の実装が可能になりました。
この論文では、Tocalibアプリケーションの例としてMobile Alohaを使用しました。
このアプローチは、他の双方向ロボットと、二足歩行ロボットの歩行制御に拡張できます。
また、操作のための機械学習タスクのトレーニングデータを構築するためにも使用できます。

要約(オリジナル)

The paper presents a new approach for constructing a library of optimal trajectories for two robotic manipulators, Two-Arm Optimal Control and Avoidance Library (TOCALib). The optimisation takes into account kinodynamic and other constraints within the FROST framework. The novelty of the method lies in the consideration of collisions using the DCOL method, which allows obtaining symbolic expressions for assessing the presence of collisions and using them in gradient-based optimization control methods. The proposed approach allowed the implementation of complex bimanual manipulations. In this paper we used Mobile Aloha as an example of TOCALib application. The approach can be extended to other bimanual robots, as well as to gait control of bipedal robots. It can also be used to construct training data for machine learning tasks for manipulation.

arxiv情報

著者 Yulia Danik,Dmitry Makarov,Aleksandra Arkhipova,Sergei Davidenko,Aleksandr Panov
発行日 2025-04-10 12:53:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | TOCALib: Optimal control library with interpolation for bimanual manipulation and obstacles avoidance はコメントを受け付けていません