Multi-Object Tracking for Collision Avoidance Using Multiple Cameras in Open RAN Networks

要約

このペーパーでは、車両シナリオの衝突回避のために、オープンラジオアクセスネットワーク(RAN)の範囲内で、マルチオブジェクトの検出および追跡問題を扱います。
この目的のために、カメラと協力した分散されたインテリジェントエージェントのセットが考慮されます。
検出されたオブジェクトの融合は、Open RAN接続性を考慮して、エッジサービスで行われます。
次に、エッジサービスは、衝突回避のためにオブジェクトの軌跡を予測します。
関連する作業と比較して、よりリアルなオープンRANネットワークが実装され、複数のカメラが使用されます。

要約(オリジナル)

This paper deals with the multi-object detection and tracking problem, within the scope of open Radio Access Network (RAN), for collision avoidance in vehicular scenarios. To this end, a set of distributed intelligent agents collocated with cameras are considered. The fusion of detected objects is done at an edge service, considering Open RAN connectivity. Then, the edge service predicts the objects trajectories for collision avoidance. Compared to the related work a more realistic Open RAN network is implemented and multiple cameras are used.

arxiv情報

著者 Jordi Serra,Anton Aguilar,Ebrahim Abu-Helalah,Raúl Parada,Paolo Dini
発行日 2025-04-09 17:36:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.MA, cs.RO | Multi-Object Tracking for Collision Avoidance Using Multiple Cameras in Open RAN Networks はコメントを受け付けていません

A Pointcloud Registration Framework for Relocalization in Subterranean Environments

要約

環境内でロボットの位置を再確立するプロセスである再局在化は、GPSなどの外部の位置決め情報が利用できないか、失われている場合に正確なナビゲーションとタスクの実行を確保するために重要です。
地下の環境は、外部のポジショニング情報が限られているため、カメラの局在化に影響を与える不十分な照明、不規則でしばしば非距離の表面、およびセンサーデータにノイズと閉塞を導入できる粉塵により、再局在化の重要な課題を提示します。
この作業では、以前のポイントクラウドマップを使用して、ポイントクラウド登録を通じて再局在化するための堅牢で計算フレンドリーなフレームワークを提案します。
このフレームワークは、本質的な形状シグネチャ(ISS)を使用して、ターゲットクラウドと前のポイントクラウドの両方でフィーチャポイントを選択します。
Fast Point特徴ヒストグラム(FPFH)アルゴリズムは、これらの特徴点の記述子を作成するために使用され、これらの記述子を一致させると、ポイントクラウド間の対応が得られます。
3D変換は、一致したポイントを使用して推定されます。これにより、正規分布変換(NDT)登録が初期化されます。
NDTからの変換の結果は、反復的な最も近いポイント(ICP)登録アルゴリズムを使用してさらに洗練されています。
このフレームワークは、ダスト干渉やターゲットとソースの間の大幅な初期変換など、困難な状況でも登録の精度を向上させ、地下鉱山とトンネルで動作する自律的なロボットに適しています。
このフレームワークは、シミュレートされた現実世界の鉱山データセットでの実験で検証され、再局在化の改善の可能性を示しています。

要約(オリジナル)

Relocalization, the process of re-establishing a robot’s position within an environment, is crucial for ensuring accurate navigation and task execution when external positioning information, such as GPS, is unavailable or has been lost. Subterranean environments present significant challenges for relocalization due to limited external positioning information, poor lighting that affects camera localization, irregular and often non-distinct surfaces, and dust, which can introduce noise and occlusion in sensor data. In this work, we propose a robust, computationally friendly framework for relocalization through point cloud registration utilizing a prior point cloud map. The framework employs Intrinsic Shape Signatures (ISS) to select feature points in both the target and prior point clouds. The Fast Point Feature Histogram (FPFH) algorithm is utilized to create descriptors for these feature points, and matching these descriptors yields correspondences between the point clouds. A 3D transformation is estimated using the matched points, which initializes a Normal Distribution Transform (NDT) registration. The transformation result from NDT is further refined using the Iterative Closest Point (ICP) registration algorithm. This framework enhances registration accuracy even in challenging conditions, such as dust interference and significant initial transformations between the target and source, making it suitable for autonomous robots operating in underground mines and tunnels. This framework was validated with experiments in simulated and real-world mine datasets, demonstrating its potential for improving relocalization.

arxiv情報

著者 David Akhihiero,Jason N. Gross
発行日 2025-04-09 19:13:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | A Pointcloud Registration Framework for Relocalization in Subterranean Environments はコメントを受け付けていません

Analysis of the Unscented Transform for Cooperative Localization with Ranging-Only Information

要約

特にエージェントがピアツーピア範囲の測定のみなどの限られた情報に依存している場合、マルチエージェントロボットシステムにおける協同組合のローカリゼーションは困難です。
2つの重要な課題が生じます。この限られた情報を利用して、位置の推定を改善する。
センサーノイズ、非線形性、およびエージェント測定間の未知の相関からの不確実性の取り扱い。
情報の再利用を回避します。
このホワイトペーパーでは、エージェントと共分散交差点(CI)の範囲測定(CI)が未知の相関を処理するために使用される場合の状態推定のための無香料変換(UT)の使用を調べます。
Kalmanフィルターアプローチとは異なり、CIメソッドは完全な状態と共分散の推定を融合します。
これにより、Rangeのみの測定値を使用したCIアプローチの策定が課題になります。
これを克服するために、UTは不確実性を処理し、範囲測定と現在の協同的状態の推定値を使用して協調状態の更新を策定するために使用されます。
これにより、測定アップデートに情報の再利用が導入されます。
したがって、この作業の目的は、さまざまなレベルの状態測定の不確実性とエラーに直面した場合、この定式化の制限と有用性を評価することです。

要約(オリジナル)

Cooperative localization in multi-agent robotic systems is challenging, especially when agents rely on limited information, such as only peer-to-peer range measurements. Two key challenges arise: utilizing this limited information to improve position estimation; handling uncertainties from sensor noise, nonlinearity, and unknown correlations between agents measurements; and avoiding information reuse. This paper examines the use of the Unscented Transform (UT) for state estimation for a case in which range measurement between agents and covariance intersection (CI) is used to handle unknown correlations. Unlike Kalman Filter approaches, CI methods fuse complete state and covariance estimates. This makes formulating a CI approach with ranging-only measurements a challenge. To overcome this, UT is used to handle uncertainties and formulate a cooperative state update using range measurements and current cooperative state estimates. This introduces information reuse in the measurement update. Therefore, this work aims to evaluate the limitations and utility of this formulation when faced with various levels of state measurement uncertainty and errors.

arxiv情報

著者 Uthman Olawoye,Cagri Kilic,Jason N Gross
発行日 2025-04-09 19:29:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Analysis of the Unscented Transform for Cooperative Localization with Ranging-Only Information はコメントを受け付けていません

CORTEX-AVD: A Framework for CORner Case Testing and EXploration in Autonomous Vehicle Development

要約

自律車(AVS)は、人為的エラーを減らすことにより、交通の安全性と効率を改善することを目指しています。
ただし、AVSの信頼性と安全性を確保することは、まれでリスクの高いトラフィックシナリオを考慮した場合に困難な作業です。
予期しない車両の操作や突然の歩行者の交差などのこれらの「コーナーケース」(CC)シナリオは、AVSが運営中に安全かつ信頼できるものにする必要があります。
しかし、それらは効率的に生成されるようになります。
従来のCC世代は、費用がかかり、リスクの高い現実世界のデータ収集、スケーラビリティの制限、および研究開発の進歩の鈍化に依存しています。
シミュレーションベースの手法も課題に直面しています。さまざまなシナリオをモデル化し、可能なすべてのCCをキャプチャすることは複雑で時間がかかるためです。
CC世代のこれらの制限に対処するために、この研究では、CARLAシミュレーターと風光明媚なオープンソースのフレームワークである自動運転車開発の皮質AVD、コーナーケーステストと探査を導入し、テキストの説明からCCを自動的に生成し、シナリオモデリングの多様性と自動化を増やします。
遺伝的アルゴリズム(GA)は、6つのケーススタディシナリオでシナリオパラメーターを最適化するために使用され、リスクの高いイベントの発生を増加させます。
以前の方法とは異なり、Cortex-AVDには、距離、時間、速度、衝突の尤度などの変数を考慮する多要素フィットネス関数が組み込まれています。
さらに、この調査では、GAベースのCC生成方法を比較するためのベンチマークを提供し、合成データ生成とシナリオ評価のより標準化された評価に貢献しています。
実験結果は、皮質-AVDフレームワークが無駄なシミュレーションの割合を減らしながらCCの発生率を大幅に増加させることを示しています。

要約(オリジナル)

Autonomous Vehicles (AVs) aim to improve traffic safety and efficiency by reducing human error. However, ensuring AVs reliability and safety is a challenging task when rare, high-risk traffic scenarios are considered. These ‘Corner Cases’ (CC) scenarios, such as unexpected vehicle maneuvers or sudden pedestrian crossings, must be safely and reliable dealt by AVs during their operations. But they arehard to be efficiently generated. Traditional CC generation relies on costly and risky real-world data acquisition, limiting scalability, and slowing research and development progress. Simulation-based techniques also face challenges, as modeling diverse scenarios and capturing all possible CCs is complex and time-consuming. To address these limitations in CC generation, this research introduces CORTEX-AVD, CORner Case Testing & EXploration for Autonomous Vehicles Development, an open-source framework that integrates the CARLA Simulator and Scenic to automatically generate CC from textual descriptions, increasing the diversity and automation of scenario modeling. Genetic Algorithms (GA) are used to optimize the scenario parameters in six case study scenarios, increasing the occurrence of high-risk events. Unlike previous methods, CORTEX-AVD incorporates a multi-factor fitness function that considers variables such as distance, time, speed, and collision likelihood. Additionally, the study provides a benchmark for comparing GA-based CC generation methods, contributing to a more standardized evaluation of synthetic data generation and scenario assessment. Experimental results demonstrate that the CORTEX-AVD framework significantly increases CC incidence while reducing the proportion of wasted simulations.

arxiv情報

著者 Gabriel Kenji Godoy Shimanuki,Alexandre Moreira Nascimento,Lucio Flavio Vismari,Joao Batista Camargo Junior,Jorge Rady de Almeida Junior,Paulo Sergio Cugnasca
発行日 2025-04-09 20:04:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | CORTEX-AVD: A Framework for CORner Case Testing and EXploration in Autonomous Vehicle Development はコメントを受け付けていません

Expectations, Explanations, and Embodiment: Attempts at Robot Failure Recovery

要約

期待は、人々がロボットについての判断をどのように形成するかを批判的に形成し、失敗をマイナーな技術的な不具合と見なしているか、取引違反の欠陥と見なしているかどうかに影響を与えます。
この作業では、短いビデオプライミングによって引き起こされる期待と低い期待が、ロボット障害のユーザー認識とHRIの説明の有用性にどのように影響するかを探ります。
2つのオンライン調査を実施しました($ n = 600 $合計参加者)。
それぞれが異なる実施形態の2つのロボット、furhatとpepperを複製しました。
予想理論に基づいた最初の研究では、参加者は2つのグループに分けられました。1つは肯定的でプライミングされ、もう1つはロボットのパフォーマンスに関して否定的な期待を抱き、明確な期待フレームワークを確立しました。
この検証研究は、ビデオが低発足と高出現プロファイルを確実に確立できるかどうかを検証することを目的としています。
2番目の調査では、参加者は検証済みのビデオを使用してプライミングされ、その後、ロボットがタスクで失敗した新しいシナリオを表示しました。
半分はロボットが失敗を説明したバージョンを見たが、残りの半分は説明を受けなかった。
特に参加者が予想を低くするように準備されている場合、説明はFurhatのユーザー認識を大幅に改善することがわかりました。
説明は満足度を高め、ロボットの認識された表現力を高め、エラーの原因を効果的に伝えることでユーザーの信頼の修復に役立つことを示しています。
対照的に、ペッパーの説明はユーザーの態度に対する最小限の影響を生み出し、ロボットの具体化と相互作用スタイルが、説明が否定的な印象を正常に相殺できるかどうかを判断できることを示唆しています。
一緒に、これらの調査結果は、HRIで説明戦略を調整する際にユーザーの期待を考慮する必要性を強調しています。
期待が最初に低い場合、説得力のある説明は、失敗を却下することと、ロボットの透明性とコミュニケーションの努力を評価することとの違いを生むことができます。

要約(オリジナル)

Expectations critically shape how people form judgments about robots, influencing whether they view failures as minor technical glitches or deal-breaking flaws. This work explores how high and low expectations, induced through brief video priming, affect user perceptions of robot failures and the utility of explanations in HRI. We conducted two online studies ($N=600$ total participants); each replicated two robots with different embodiments, Furhat and Pepper. In our first study, grounded in expectation theory, participants were divided into two groups, one primed with positive and the other with negative expectations regarding the robot’s performance, establishing distinct expectation frameworks. This validation study aimed to verify whether the videos could reliably establish low and high-expectation profiles. In the second study, participants were primed using the validated videos and then viewed a new scenario in which the robot failed at a task. Half viewed a version where the robot explained its failure, while the other half received no explanation. We found that explanations significantly improved user perceptions of Furhat, especially when participants were primed to have lower expectations. Explanations boosted satisfaction and enhanced the robot’s perceived expressiveness, indicating that effectively communicating the cause of errors can help repair user trust. By contrast, Pepper’s explanations produced minimal impact on user attitudes, suggesting that a robot’s embodiment and style of interaction could determine whether explanations can successfully offset negative impressions. Together, these findings underscore the need to consider users’ expectations when tailoring explanation strategies in HRI. When expectations are initially low, a cogent explanation can make the difference between dismissing a failure and appreciating the robot’s transparency and effort to communicate.

arxiv情報

著者 Elmira Yadollahi,Fethiye Irmak Dogan,Yujing Zhang,Beatriz Nogueira,Tiago Guerreiro,Shelly Levy Tzedek,Iolanda Leite
発行日 2025-04-09 20:44:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Expectations, Explanations, and Embodiment: Attempts at Robot Failure Recovery はコメントを受け付けていません

Bridging Deep Reinforcement Learning and Motion Planning for Model-Free Navigation in Cluttered Environments

要約

ディープ補強学習(DRL)は、最適なポリシーを学習するための強力なモデルのないパラダイムとして浮上しています。
ただし、実際のナビゲーションタスクでは、DRLメソッドは、特にシステム障害の下でまばらな報酬または複雑なダイナミクスを備えた乱雑な環境では、探索が不十分な場合がよくあります。
この課題に対処するために、一般的なグラフベースのモーションプランニングをDRLに橋渡しし、エージェントが雑然とした空間をより効果的に探索し、望ましいナビゲーションパフォーマンスを実現できるようにします。
具体的には、状態空間全体に及ぶグラフ構造に基づいた密な報酬関数を設計します。
このグラフは、豊富なガイダンスを提供し、エージェントを最適な戦略に向けて導きます。
挑戦的な環境でのアプローチを検証し、探査効率とタスクの成功率の大幅な改善を実証します。
プロジェクトWebサイトは、https://plen1lune.github.io/overcome_exploration/で入手できます。

要約(オリジナル)

Deep Reinforcement Learning (DRL) has emerged as a powerful model-free paradigm for learning optimal policies. However, in real-world navigation tasks, DRL methods often suffer from insufficient exploration, particularly in cluttered environments with sparse rewards or complex dynamics under system disturbances. To address this challenge, we bridge general graph-based motion planning with DRL, enabling agents to explore cluttered spaces more effectively and achieve desired navigation performance. Specifically, we design a dense reward function grounded in a graph structure that spans the entire state space. This graph provides rich guidance, steering the agent toward optimal strategies. We validate our approach in challenging environments, demonstrating substantial improvements in exploration efficiency and task success rates. The project website is available at: https://plen1lune.github.io/overcome_exploration/

arxiv情報

著者 Licheng Luo,Mingyu Cai
発行日 2025-04-09 21:19:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Bridging Deep Reinforcement Learning and Motion Planning for Model-Free Navigation in Cluttered Environments はコメントを受け付けていません

Data-Enabled Neighboring Extremal: Case Study on Model-Free Trajectory Tracking for Robotic Arm

要約

データ対応の予測制御(DEEPC)は最近、制約処理機能を備えた効率的なシステム制御のための強力なデータ駆動型アプローチとして浮上しました。
入出力(I/O)データを直接利用して、コストがかかり、時間がかかる可能性のある明示的なモデル識別のプロセスをバイパスすることにより、最適なコントロールを実行します。
ただし、大規模な最適化問題(通常、モデルベースのカウンターパートよりも高い次元であるモデル予測制御)によって駆動される高い計算の複雑さは、リアルタイムアプリケーションを妨げます。
この制限を克服するために、データ対応の隣接する極端な(deene)フレームワークを提案します。これにより、制御パフォーマンスを維持しながら計算コストが大幅に削減されます。
Deeneは、初期条件と参照軌跡の変化に応じて、事前計算された公称DEEPCソリューションを効率的に更新するために、1次の最適性摂動分析を活用します。
7-DOF Kinova Gen3ロボットアームに対する有効性を検証し、大幅な計算節約と堅牢なデータ駆動型のコントロールパフォーマンスを実証します。

要約(オリジナル)

Data-enabled predictive control (DeePC) has recently emerged as a powerful data-driven approach for efficient system controls with constraints handling capabilities. It performs optimal controls by directly harnessing input-output (I/O) data, bypassing the process of explicit model identification that can be costly and time-consuming. However, its high computational complexity, driven by a large-scale optimization problem (typically in a higher dimension than its model-based counterpart–Model Predictive Control), hinders real-time applications. To overcome this limitation, we propose the data-enabled neighboring extremal (DeeNE) framework, which significantly reduces computational cost while preserving control performance. DeeNE leverages first-order optimality perturbation analysis to efficiently update a precomputed nominal DeePC solution in response to changes in initial conditions and reference trajectories. We validate its effectiveness on a 7-DoF KINOVA Gen3 robotic arm, demonstrating substantial computational savings and robust, data-driven control performance.

arxiv情報

著者 Amin Vahidi-Moghaddam,Keyi Zhu,Kaixiang Zhang,Ziyou Song,Zhaojian Li
発行日 2025-04-09 21:30:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | Data-Enabled Neighboring Extremal: Case Study on Model-Free Trajectory Tracking for Robotic Arm はコメントを受け付けていません

ChatEMG: Synthetic Data Generation to Control a Robotic Hand Orthosis for Stroke

要約

脳卒中患者の手矯正の意図は、データ収集の難しさのために困難です。
さらに、EMG信号は、さまざまな条件、セッション、および被験者にわたって大きな変動を示し、分類器が一般化するのが難しくなります。
従来のアプローチでは、新しい条件、セッション、または訓練意図分類器の対象から大きなラベル付きデータセットが必要です。
ただし、このデータ収集プロセスは負担がかかり、時間がかかります。
このホワイトペーパーでは、プロンプトに条件付けられた合成EMG信号(つまり、EMG信号の特定のシーケンス)を生成できる自己回帰生成モデルであるChatemgを提案します。
Chatemgを使用すると、新しい条件、セッション、またはサブジェクトから小さなデータセットのみを収集し、この新しいコンテキストからプロンプトを条件付けした合成サンプルで展開できます。
Chatemgは、生成トレーニングを介して以前のデータの膨大なリポジトリを活用しながら、プロンプトを介してコンテキスト固有のままです。
私たちの実験は、これらの合成サンプルが分類器に依存しており、さまざまなタイプの分類器の意図的な不規則性の精度を改善できることを示しています。
機能的なアプローチを単一の患者セッションに統合できることを実証します。これには、機能的な装具支援タスクに分類器を使用することができます。
私たちの知る限り、合成データで部分的に訓練された意図分類器が、脳卒中の生存者による装具の機能的制御のために展開されたのはこれが初めてです。
ビデオ、ソースコード、および追加情報は、https://jxu.ai/chatemgにあります。

要約(オリジナル)

Intent inferral on a hand orthosis for stroke patients is challenging due to the difficulty of data collection. Additionally, EMG signals exhibit significant variations across different conditions, sessions, and subjects, making it hard for classifiers to generalize. Traditional approaches require a large labeled dataset from the new condition, session, or subject to train intent classifiers; however, this data collection process is burdensome and time-consuming. In this paper, we propose ChatEMG, an autoregressive generative model that can generate synthetic EMG signals conditioned on prompts (i.e., a given sequence of EMG signals). ChatEMG enables us to collect only a small dataset from the new condition, session, or subject and expand it with synthetic samples conditioned on prompts from this new context. ChatEMG leverages a vast repository of previous data via generative training while still remaining context-specific via prompting. Our experiments show that these synthetic samples are classifier-agnostic and can improve intent inferral accuracy for different types of classifiers. We demonstrate that our complete approach can be integrated into a single patient session, including the use of the classifier for functional orthosis-assisted tasks. To the best of our knowledge, this is the first time an intent classifier trained partially on synthetic data has been deployed for functional control of an orthosis by a stroke survivor. Videos, source code, and additional information can be found at https://jxu.ai/chatemg.

arxiv情報

著者 Jingxi Xu,Runsheng Wang,Siqi Shang,Ava Chen,Lauren Winterbottom,To-Liang Hsu,Wenxi Chen,Khondoker Ahmed,Pedro Leandro La Rotta,Xinyue Zhu,Dawn M. Nilsen,Joel Stein,Matei Ciocarlie
発行日 2025-04-09 21:49:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO | ChatEMG: Synthetic Data Generation to Control a Robotic Hand Orthosis for Stroke はコメントを受け付けていません

Adaptive Vision-Guided Robotic Arm Control for Precision Pruning in Dynamic Orchard Environments

要約

この研究では、自動化された果樹枝の剪定アプリケーション用の視覚誘導ロボット制御システムを提示します。
従来の農業慣行は、スケーラビリティと効率性を欠く労働集約的なタスクとプロセスに依存しており、より高い作物収量、スケーラブルな操作、および肉体労働の削減に対する増大する需要に対処するための自動化研究の緊急の必要性を生み出します。
この目的のために、このペーパーでは、密集した果樹園での堅牢で自動化された果物剪定のための新しいアルゴリズムを提案しています。
提案されたアルゴリズムは、コットラッカーを利用します。これは、大きな堅牢性と精度を持つビデオシーケンスの2D機能ポイントを追跡するように設計されていますが、共同注意メカニズムを活用してインターポイント依存性を説明し、困難で洗練された条件下で堅牢で正確な追跡を可能にします。
Cotrackerの有効性を検証するために、Universal RobotsマニピュレーターUR5Eは、Intel RealSense D435カメラを備えたClearPath Robotics Warthog Robotに取り付けられたGazeboシミュレーション環境で採用されています。
このシステムは、剪定試験で93%の成功率を達成し、平均末端軌道誤差は0.23 mmでした。
ビジョンコントローラーは、アームがターゲットポイントに向かって移動するにつれて、閉塞の取り扱いと安定した軌道の維持における堅牢なパフォーマンスを実証しました。
結果は、視覚ベースの追跡を統合することの有効性を、精密な農業タスクの運動学的制御と統合します。
将来の作業は、実際の実装と、動的環境での適応性を向上させるための3D再構成技術の統合に焦点を当てます。

要約(オリジナル)

This study presents a vision-guided robotic control system for automated fruit tree pruning applications. Traditional agricultural practices rely on labor-intensive tasks and processes that lack scalability and efficiency, creating a pressing need for automation research to address growing demands for higher crop yields, scalable operations, and reduced manual labor. To this end, this paper proposes a novel algorithm for robust and automated fruit pruning in dense orchards. The proposed algorithm utilizes CoTracker, that is designed to track 2D feature points in video sequences with significant robustness and accuracy, while leveraging joint attention mechanisms to account for inter-point dependencies, enabling robust and precise tracking under challenging and sophisticated conditions. To validate the efficacy of CoTracker, a Universal Robots manipulator UR5e is employed in a Gazebo simulation environment mounted on ClearPath Robotics Warthog robot featuring an Intel RealSense D435 camera. The system achieved a 93% success rate in pruning trials and with an average end trajectory error of 0.23 mm. The vision controller demonstrated robust performance in handling occlusions and maintaining stable trajectories as the arm move towards the target point. The results validate the effectiveness of integrating vision-based tracking with kinematic control for precision agricultural tasks. Future work will focus on real-world implementation and the integration of 3D reconstruction techniques for enhanced adaptability in dynamic environments.

arxiv情報

著者 Dawood Ahmed,Basit Muhammad Imran,Martin Churuvija,Manoj Karkee
発行日 2025-04-09 22:14:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Adaptive Vision-Guided Robotic Arm Control for Precision Pruning in Dynamic Orchard Environments はコメントを受け付けていません

Learning-Based Approximate Nonlinear Model Predictive Control Motion Cueing

要約

モーションキューイングアルゴリズム(MCAS)は、シミュレートされた車両の動きを動きにエンコードし、モーションシミュレーターで再現できるようにして、マシンの機能内で現実的な運転体験を提供します。
このペーパーでは、シリアルロボットベースのモーションシミュレーター向けの新しい学習ベースのMCAを紹介します。
微分可能な予測制御フレームワークに基づいて、提案された方法は、機械学習の計算効率と、非線形モデル予測制御(NMPC)(特に非線形制約処理と正確な運動モデリング)の利点をマージします。
計算負担をオフライントレーニングにシフトすることにより、新しいアルゴリズムにより、高い制御レートでリアルタイム操作が可能になり、NMPCベースのモーションキューイングに関連する重要な課題を克服できます。
提案されたMCAには、非線形の関節空間植物モデルと、NMPCの動作を模倣するように訓練されたポリシーネットワークが組み込まれています。
複数のモーションキューイングシナリオにわたるシミュレーション実験により、提案されたアルゴリズムは、参照信号に関してRMSEおよび相関係数によって定量化されたモーションキューニング品質の観点から、最先端のNMPCベースの代替品と同等に実行されたことが示されました。
ただし、提案されたアルゴリズムは、NMPCベースラインの平均400倍高速でした。
さらに、アルゴリズムは、異なる車両やリアルタイムの物理ベースのシミュレーションでのモーションキューイングシナリオなど、目に見えない動作条件に成功しました。

要約(オリジナル)

Motion Cueing Algorithms (MCAs) encode the movement of simulated vehicles into movement that can be reproduced with a motion simulator to provide a realistic driving experience within the capabilities of the machine. This paper introduces a novel learning-based MCA for serial robot-based motion simulators. Building on the differentiable predictive control framework, the proposed method merges the advantages of Nonlinear Model Predictive Control (NMPC) – notably nonlinear constraint handling and accurate kinematic modeling – with the computational efficiency of machine learning. By shifting the computational burden to offline training, the new algorithm enables real-time operation at high control rates, thus overcoming the key challenge associated with NMPC-based motion cueing. The proposed MCA incorporates a nonlinear joint-space plant model and a policy network trained to mimic NMPC behavior while accounting for joint acceleration, velocity, and position limits. Simulation experiments across multiple motion cueing scenarios showed that the proposed algorithm performed on par with a state-of-the-art NMPC-based alternative in terms of motion cueing quality as quantified by the RMSE and correlation coefficient with respect to reference signals. However, the proposed algorithm was on average 400 times faster than the NMPC baseline. In addition, the algorithm successfully generalized to unseen operating conditions, including motion cueing scenarios on a different vehicle and real-time physics-based simulations.

arxiv情報

著者 Camilo Gonzalez Arango,Houshyar Asadi,Mohammad Reza Chalak Qazani,Chee Peng Lim
発行日 2025-04-09 23:09:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO, cs.SY, eess.SY | Learning-Based Approximate Nonlinear Model Predictive Control Motion Cueing はコメントを受け付けていません