要約
生物からインスピレーションを得たロボット システムは、適応学習、スケーラブルな制御、効率的な情報処理が可能です。
このようなシステムでリアルタイムの意思決定を可能にすることは、環境の動的な変化に対応するために重要です。
私たちは、視覚的なフィードバックのための鳥瞰図カメラを備えたロボットの 6 自由度マニピュレーターを使用し、神経力学的計算フレームワーク (NeuCF) を展開することにより、オープンエリアでの動的ターゲット追跡に焦点を当てています。
NeuCF は、動的ニューラル フィールド (DNF) と確率的最適制御 (SOC) 理論に基づいて、ターゲット追跡用に最近開発された生物由来のモデルです。
これは、局所的な視覚ビーコンに向かって平面上のアクションに到達するように訓練されており、環境の変化に基づいてその場でターゲットを変更したり、停止信号を生成したりできます (例: 新しいターゲットが出現したり、既存のターゲットがターゲットになったり)。
削除されました)。
私たちは、さまざまな目標達成シナリオに基づいてシステムを評価しました。
すべての実験において、NeuCF はエンドエフェクターの位置精度が高く、ベースライン 3 次多項式軌道ジェネレーターと比較して滑らかな軌道を生成し、経路長を短縮しました。
全体として、開発されたシステムは、リアルタイムの意思決定を可能にする、堅牢で動的を認識したロボット操作アプローチを提供します。
要約(オリジナル)
Bio-inspired robotic systems are capable of adaptive learning, scalable control, and efficient information processing. Enabling real-time decision-making for such systems is critical to respond to dynamic changes in the environment. We focus on dynamic target tracking in open areas using a robotic six-degree-of-freedom manipulator with a bird-eye view camera for visual feedback, and by deploying the Neurodynamical Computational Framework (NeuCF). NeuCF is a recently developed bio-inspired model for target tracking based on Dynamic Neural Fields (DNFs) and Stochastic Optimal Control (SOC) theory. It has been trained for reaching actions on a planar surface toward localized visual beacons, and it can re-target or generate stop signals on the fly based on changes in the environment (e.g., a new target has emerged, or an existing one has been removed). We evaluated our system over various target-reaching scenarios. In all experiments, NeuCF had high end-effector positional accuracy, generated smooth trajectories, and provided reduced path lengths compared with a baseline cubic polynomial trajectory generator. In all, the developed system offers a robust and dynamic-aware robotic manipulation approach that affords real-time decision-making.
arxiv情報
著者 | Dimitrios Chatziparaschis,Shan Zhong,Vasileios Christopoulos,Konstantinos Karydis |
発行日 | 2024-07-16 04:44:01+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google