Online Adaptation of Terrain-Aware Dynamics for Planning in Unstructured Environments

要約

リモートで構造化されていない環境で動作する自律モバイルロボットは、動作中に急速に変化する可能性のある新しい予測不可能な地形に適応する必要があります。
このようなシナリオでは、重要な課題は、信頼できる正確なナビゲーションと計画を可能にするために、地形の変化に関するロボットのダイナミクスを推定することになります。
関数エンコーダーを使用して、地形を意識したダイナミクスモデリングと計画のための新しいオンライン適応アプローチを紹介します。
当社のアプローチは、再訓練や微調整なしで限られたオンラインデータを使用して、実行時に新しい地形に効率的に適応します。
多様な地形のロボットダイナミクスにまたがる一連のニューラルネットワーク基底関数を学習することにより、単純な最小二乗計算として、新しい、目に見えない地形と環境への迅速なオンライン適応を可能にします。
UnityベースのRobotics Simulatorでの地形適応のアプローチを実証し、学習モデルの精度が高いため、下流のコントローラーがより良い経験的パフォーマンスを持っていることを示しています。
これにより、神経オードベースラインと比較して、乱雑な環境でナビゲートしながら、障害物との衝突が少なくなります。

要約(オリジナル)

Autonomous mobile robots operating in remote, unstructured environments must adapt to new, unpredictable terrains that can change rapidly during operation. In such scenarios, a critical challenge becomes estimating the robot’s dynamics on changing terrain in order to enable reliable, accurate navigation and planning. We present a novel online adaptation approach for terrain-aware dynamics modeling and planning using function encoders. Our approach efficiently adapts to new terrains at runtime using limited online data without retraining or fine-tuning. By learning a set of neural network basis functions that span the robot dynamics on diverse terrains, we enable rapid online adaptation to new, unseen terrains and environments as a simple least-squares calculation. We demonstrate our approach for terrain adaptation in a Unity-based robotics simulator and show that the downstream controller has better empirical performance due to higher accuracy of the learned model. This leads to fewer collisions with obstacles while navigating in cluttered environments as compared to a neural ODE baseline.

arxiv情報

著者 William Ward,Sarah Etter,Tyler Ingebrand,Christian Ellis,Adam J. Thorpe,Ufuk Topcu
発行日 2025-06-04 22:03:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | コメントする

‘Don’t Do That!’: Guiding Embodied Systems through Large Language Model-based Constraint Generation

要約

大規模な言語モデル(LLMS)の最近の進歩は、自然言語から計画問題への複雑な空間的、数学的、条件付き制約を組み込んだロボットナビゲーションへの関心を促しました。
このような制約は非公式でありながら非常に複雑である可能性があり、計画アルゴリズムに渡すことができる正式な説明に変換することが困難です。
このホワイトペーパーでは、LLMSを使用して制約(「何をしないか」の指示として表される)を実行可能なPython関数に変換する制約生成フレームワークであるSTPRを提案します。
STPRは、LLMの強力なコーディング機能を活用して、問題の説明を言語から構造化された透明コードにシフトし、複雑な推論を回避し、潜在的な幻覚を回避します。
これらのLLMで生成された関数は、複雑な数学的制約でさえ正確に記述し、従来の検索アルゴリズムを使用してクラウド表現をポイントに適用することを示します。
シミュレートされたガゼボ環境での実験は、STPRがいくつかの制約とシナリオにわたって完全なコンプライアンスを保証することを示しています。
また、STPRはより小さくコード固有のLLMで使用できるようにして、低推論コストで幅広いコンパクトモデルに適用できるようにすることも確認します。

要約(オリジナル)

Recent advancements in large language models (LLMs) have spurred interest in robotic navigation that incorporates complex spatial, mathematical, and conditional constraints from natural language into the planning problem. Such constraints can be informal yet highly complex, making it challenging to translate into a formal description that can be passed on to a planning algorithm. In this paper, we propose STPR, a constraint generation framework that uses LLMs to translate constraints (expressed as instructions on “what not to do”) into executable Python functions. STPR leverages the LLM’s strong coding capabilities to shift the problem description from language into structured and transparent code, thus circumventing complex reasoning and avoiding potential hallucinations. We show that these LLM-generated functions accurately describe even complex mathematical constraints, and apply them to point cloud representations with traditional search algorithms. Experiments in a simulated Gazebo environment show that STPR ensures full compliance across several constraints and scenarios, while having short runtimes. We also verify that STPR can be used with smaller, code-specific LLMs, making it applicable to a wide range of compact models at low inference cost.

arxiv情報

著者 Aladin Djuhera,Amin Seffo,Masataro Asai,Holger Boche
発行日 2025-06-04 22:47:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | コメントする

SGN-CIRL: Scene Graph-based Navigation with Curriculum, Imitation, and Reinforcement Learning

要約

3Dシーングラフは、オブジェクト間の空間的関係をモデル化し、エージェントが部分的に観察可能な環境で効率的にナビゲートし、ターゲットオブジェクトの位置を予測できるようにします。
強化学習ベースのアルゴリズムのトレーニングを加速して安定させるために、フレームワークは模倣学習とカリキュラム学習も採用しています。
最初のものにより、エージェントはデモンストレーションから学習できますが、2番目のものは、単純なシナリオからより高度なシナリオに徐々にタスクの複雑さを高めることでトレーニングプロセスを構成します。
ISAAC SIM環境で実施された数値実験により、補強学習のために3Dシーングラフを使用すると、困難なナビゲーションの場合の成功率が大幅に増加することが示されました。
コードはオープンソースで、https://github.com/xisonik/aloha\_graphで入手できます。

要約(オリジナル)

The 3D scene graph models spatial relationships between objects, enabling the agent to efficiently navigate in a partially observable environment and predict the location of the target object.This paper proposes an original framework named SGN-CIRL (3D Scene Graph-Based Reinforcement Learning Navigation) for mapless reinforcement learning-based robot navigation with learnable representation of open-vocabulary 3D scene graph. To accelerate and stabilize the training of reinforcement learning-based algorithms, the framework also employs imitation learning and curriculum learning. The first one enables the agent to learn from demonstrations, while the second one structures the training process by gradually increasing task complexity from simple to more advanced scenarios. Numerical experiments conducted in the Isaac Sim environment showed that using a 3D scene graph for reinforcement learning significantly increased the success rate in difficult navigation cases. The code is open-sourced and available at: https://github.com/Xisonik/Aloha\_graph.

arxiv情報

著者 Nikita Oskolkov,Huzhenyu Zhang,Dmitry Makarov,Dmitry Yudin,Aleksandr Panov
発行日 2025-06-04 23:09:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO | コメントする

Olfactory Inertial Odometry: Sensor Calibration and Drift Compensation

要約

視覚慣性臭気(VIO)は、視覚データと運動学的データを融合して、ナビゲーションタスクで機械の状態を理解するプロセスです。
嗅覚慣性匂い(OIO)は、ロボットが香りでナビゲートするのに役立つガスセンサーからの信号を慣性データと融合するVioのアナログです。
ガスのダイナミクスと環境要因により、OIOが促進するのが難しくなる可能性のある嗅覚航法タスクに乱れをもたらします。
ここでの作業では、いくつかの溶解センサータイプに一般化されるOIOのロボットを校正するプロセスを定義します。
私たちの焦点は、ロボット手術と感動的なセキュリティスクリーニングでのユースケースを実証するために、ゆっくりと動くロボットプラットフォームに臭気源をローカライズする際のセンチメートルレベルの精度のために、特にOIOの校正に焦点を当てています。
実際のロボットアームでOIOキャリブレーションのプロセスを実証し、このキャリブレーションがコールドスタートの嗅覚ナビゲーションタスクのパフォーマンスをどのように改善するかを示します。

要約(オリジナル)

Visual inertial odometry (VIO) is a process for fusing visual and kinematic data to understand a machine’s state in a navigation task. Olfactory inertial odometry (OIO) is an analog to VIO that fuses signals from gas sensors with inertial data to help a robot navigate by scent. Gas dynamics and environmental factors introduce disturbances into olfactory navigation tasks that can make OIO difficult to facilitate. With our work here, we define a process for calibrating a robot for OIO that generalizes to several olfaction sensor types. Our focus is specifically on calibrating OIO for centimeter-level accuracy in localizing an odor source on a slow-moving robot platform to demonstrate use cases in robotic surgery and touchless security screening. We demonstrate our process for OIO calibration on a real robotic arm and show how this calibration improves performance over a cold-start olfactory navigation task.

arxiv情報

著者 Kordel K. France,Ovidiu Daescu,Anirban Paul,Shalini Prasad
発行日 2025-06-05 01:16:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.ET, cs.LG, cs.RO, cs.SY, eess.SY | コメントする

Chronoamperometry with Room-Temperature Ionic Liquids: Sub-Second Inference Techniques

要約

クロノンペロメトリー(CA)は、酸化還元種の定量化に使用される基本的な電気化学技術です。
ただし、室温のイオン液体(RTIL)では、粘度が高く、質量輸送が遅いため、測定期間が長くなることがよくあります。
このホワイトペーパーでは、CA測定ウィンドウを1秒未満に減らし、以前に報告された方法よりも大幅に高速にする新しい数学的回帰アプローチを紹介します。これは通常1〜4秒以上必要です。
推論アルゴリズムを初期過渡電流応答に適用することにより、この方法は、追加のハードウェアの変更を必要とせずに定常状態の電気化学パラメーターを正確に予測します。
このアプローチは、標準的な年代包包検査技術との比較を通じて検証され、データ収集時間を劇的に短縮しながら、合理的な精度を維持することが実証されています。
この手法の意味は、迅速な電気化学的定量化が重要な分析化学、センサー技術、およびバッテリー科学で調査されています。
私たちの手法は、迅速な嗅覚および電気化学分析のための年代包鏡測定のより速い多重化を可能にすることに焦点を当てています。

要約(オリジナル)

Chronoamperometry (CA) is a fundamental electrochemical technique used for quantifying redox-active species. However, in room-temperature ionic liquids (RTILs), the high viscosity and slow mass transport often lead to extended measurement durations. This paper presents a novel mathematical regression approach that reduces CA measurement windows to under 1 second, significantly faster than previously reported methods, which typically require 1-4 seconds or longer. By applying an inference algorithm to the initial transient current response, this method accurately predicts steady-state electrochemical parameters without requiring additional hardware modifications. The approach is validated through comparison with standard chronoamperometric techniques and is demonstrated to maintain reasonable accuracy while dramatically reducing data acquisition time. The implications of this technique are explored in analytical chemistry, sensor technology, and battery science, where rapid electrochemical quantification is critical. Our technique is focused on enabling faster multiplexing of chronoamperometric measurements for rapid olfactory and electrochemical analysis.

arxiv情報

著者 Kordel K. France
発行日 2025-06-05 01:21:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO, physics.chem-ph, physics.ins-det | コメントする

Simultaneous Task Allocation and Planning for Multi-Robots under Hierarchical Temporal Logic Specifications

要約

線形時間論的論理(LTL)などの時間的論理仕様を使用したロボット計画の研究は、単一の式に依存しています。
ただし、タスクの複雑さが増すと、LTL式が長くなり、解釈と生成が困難になり、プランナーの計算能力が緊張します。
これに対処するために、広く使用されている仕様タイプの階層構造を導入します – 有限トレース(LTL $ _F $)のLTL。
結果の言語は、H-LTL $ _F $と呼ばれ、その構文とセマンティクスの両方で定義されます。
さらに、H-LTL $ _F $が標準の「フラット」な対応物よりも表現力があることを証明します。
さらに、標準のLTL $ _F $を階層バージョンと比較したユーザー調査を実施し、ユーザーが階層構造を使用して複雑なタスクをより簡単に理解できることを発見しました。
マルチロボットシステムの計画を合成するための検索ベースのアプローチを開発し、同時タスクの割り当てと計画を達成します。
このメソッドは、それぞれがLTL $ _F $仕様に対応する、ゆるく相互接続されたサブスペースによって検索空間を近似します。
検索は主に単一のサブスペースに焦点を当て、オートマトンの分解によって決定される条件下で別のサブスペースに移行します。
検索を大幅に促進するために、複数のヒューリスティックを開発します。
軽度の仮定の下で実施された理論分析は、完全性と最適性に対処します。
サービスタスクのためにさまざまなシミュレータで使用される既存の方法と比較して、私たちのアプローチは、同等のソリューション品質を維持しながら、計画時間を改善します。

要約(オリジナル)

Research in robotic planning with temporal logic specifications, such as Linear Temporal Logic (LTL), has relied on single formulas. However, as task complexity increases, LTL formulas become lengthy, making them difficult to interpret and generate, and straining the computational capacities of planners. To address this, we introduce a hierarchical structure for a widely used specification type — LTL on finite traces (LTL$_f$). The resulting language, termed H-LTL$_f$, is defined with both its syntax and semantics. We further prove that H-LTL$_f$ is more expressive than its standard ‘flat’ counterparts. Moreover, we conducted a user study that compared the standard LTL$_f$ with our hierarchical version and found that users could more easily comprehend complex tasks using the hierarchical structure. We develop a search-based approach to synthesize plans for multi-robot systems, achieving simultaneous task allocation and planning. This method approximates the search space by loosely interconnected sub-spaces, each corresponding to an LTL$_f$ specification. The search primarily focuses on a single sub-space, transitioning to another under conditions determined by the decomposition of automata. We develop multiple heuristics to significantly expedite the search. Our theoretical analysis, conducted under mild assumptions, addresses completeness and optimality. Compared to existing methods used in various simulators for service tasks, our approach improves planning times while maintaining comparable solution quality.

arxiv情報

著者 Xusheng Luo,Changliu Liu
発行日 2025-06-05 01:23:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.FL, cs.RO | コメントする

Inflatable Kirigami Crawlers

要約

キリガミは、カットのジオメトリを活用することにより、ガイド付きモーフィングのユニークな機会を提供します。
この作品は、周期的な空気圧作動時の運動を実現するために、熱に密集可能なテキスタイルにカットパターンを導入することによって作成されたインフレータブルキリガミクローラーを提示します。
従来のエアポーチを膨らませると、対称的な膨らみと収縮が生じます。
膨張したキリガミアクチュエーターでは、蓄積された圧縮力が対称性を均一に破壊し、2倍の単純な空気ポーチと比較して収縮を強化し、新たなスケールのような特徴を備えたアーキテクチャ表面に重複して自己組織化される密閉されたエッジの局所回転を引き起こします。
その結果、膨張型のキリガミアクチュエーターは、非対称の局所的な面外変形を伴う均一で制御された収縮を示します。
このプロセスにより、幾何学的および物質的な非線形性を活用して、膨張型の繊維ベースのキリガミアクチュエーターを予測可能な機関車機能に吹き込むことができます。
これらのアクチュエーターのプログラムされた変形と摩擦への影響を徹底的に特徴づけました。
キリガミのアクチュエーターは、膨らむと方向性異方性摩擦特性を示すことがわかりました。動きの方向に対してより高い摩擦係数を持ち、粗さが異なる表面を横切って移動できるようにします。
さらに、複数のチャネルとセグメントを導入して、多用途の移動能力を備えた機能的なソフトロボットプロトタイプを作成することにより、インフレータブルキリガミアクチュエーターの機能をさらに強化しました。

要約(オリジナル)

Kirigami offers unique opportunities for guided morphing by leveraging the geometry of the cuts. This work presents inflatable kirigami crawlers created by introducing cut patterns into heat-sealable textiles to achieve locomotion upon cyclic pneumatic actuation. Inflating traditional air pouches results in symmetric bulging and contraction. In inflated kirigami actuators, the accumulated compressive forces uniformly break the symmetry, enhance contraction compared to simple air pouches by two folds, and trigger local rotation of the sealed edges that overlap and self-assemble into an architected surface with emerging scale-like features. As a result, the inflatable kirigami actuators exhibit a uniform, controlled contraction with asymmetric localized out-of-plane deformations. This process allows us to harness the geometric and material nonlinearities to imbue inflatable textile-based kirigami actuators with predictable locomotive functionalities. We thoroughly characterized the programmed deformations of these actuators and their impact on friction. We found that the kirigami actuators exhibit directional anisotropic friction properties when inflated, having higher friction coefficients against the direction of the movement, enabling them to move across surfaces with varying roughness. We further enhanced the functionality of inflatable kirigami actuators by introducing multiple channels and segments to create functional soft robotic prototypes with versatile locomotion capabilities.

arxiv情報

著者 Burcu Seyidoğlu,Aida Parvaresh,Bahman Taherkhani,Ahmad Rafsanjani
発行日 2025-06-05 01:31:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | コメントする

Multimodal Limbless Crawling Soft Robot with a Kirigami Skin

要約

手足の生き物は、体を変形させ、地面のアスペリティと相互作用することにより、平らな表面をcraう、効率的な四肢ロボットを設計するための生物学的青写真を提供することができます。
この自然な移動に触発されて、直線運動と非対称ステアリング歩行の組み合わせを使用して、複雑な地形をナビゲートできるソフトロボットを紹介します。
ロボットは、非対称の摩擦特性を備えた柔軟なキリガミ皮膚で覆われた拮抗的なインフレータブルソフトアクチュエーターで作られています。
ロボットの直線運動は、正確な位相シフトを伴う内部チャンバーの周期的なインフレを通じて達成され、前方の進行が可能になります。
ステアリングは、非対称歩行を使用して達成され、インプレースの回転と広いターンの両方が可能になります。
障害物が豊富な環境でのモビリティを検証するために、粗い基質と複数の障害物を備えたアリーナでロボットをテストしました。
Human-Machineインターフェイス(HMI)と統合されたオンボード近接センサーからのリアルタイムフィードバックにより、衝突を回避するための適応制御が可能になりました。
この研究では、捜索救助操作、環境監視、産業検査など、限られた環境または非構造化された環境での用途向けのバイオインスピレーションのソフトロボットの可能性を強調しています。

要約(オリジナル)

Limbless creatures can crawl on flat surfaces by deforming their bodies and interacting with asperities on the ground, offering a biological blueprint for designing efficient limbless robots. Inspired by this natural locomotion, we present a soft robot capable of navigating complex terrains using a combination of rectilinear motion and asymmetric steering gaits. The robot is made of a pair of antagonistic inflatable soft actuators covered with a flexible kirigami skin with asymmetric frictional properties. The robot’s rectilinear locomotion is achieved through cyclic inflation of internal chambers with precise phase shifts, enabling forward progression. Steering is accomplished using an asymmetric gait, allowing for both in-place rotation and wide turns. To validate its mobility in obstacle-rich environments, we tested the robot in an arena with coarse substrates and multiple obstacles. Real-time feedback from onboard proximity sensors, integrated with a human-machine interface (HMI), allowed adaptive control to avoid collisions. This study highlights the potential of bioinspired soft robots for applications in confined or unstructured environments, such as search-and-rescue operations, environmental monitoring, and industrial inspections.

arxiv情報

著者 Jonathan Tirado,Aida Parvaresh,Burcu Seyidoğlu,Darryl A. Bedford,Jonas Jørgensen,Ahmad Rafsanjani
発行日 2025-06-05 01:37:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | コメントする

ADEPT: Adaptive Diffusion Environment for Policy Transfer Sim-to-Real

要約

モデルフリーの強化学習は、複雑で構造化されていない環境をナビゲートできる堅牢なロボット制御ポリシーを開発するための強力な方法として浮上しています。
これらの方法の有効性は、2つの重要な要素にかかっています。(1)ポリシートレーニングを促進するための非常に並行した物理シミュレーションの使用、および(2)継続的な政策改善を促進するために十分に挑戦的でありながら達成可能な環境を作成することを担当する環境ジェネレーター。
屋外環境生成の既存の方法は、多くの場合、一連のパラメーターに制約されているヒューリスティックに依存しており、多様性とリアリズムを制限しています。
この作業では、Adeptを紹介します。これを紹介します。
現在のポリシーに適応する多様で複雑な環境。
Adeptは、初期ノイズの最適化を通じて拡散モデルの生成プロセスを導き、対応する各環境でのポリシーのパフォーマンスによって重み付けされた既存のトレーニング環境からの騒音腐敗した環境をブレンドします。
ノイズの腐敗レベルを操作することにより、トレーニングの多様性を拡大するために、ポリシーの微調整と新規環境のために同様の環境を生成することとの間に、熟達した腐敗レベルを操作します。
オフロードナビゲーションに熟達したベンチマークのために、野生の環境生成のための高速で効果的な多層マップ表現を提案します。
私たちの実験は、Adeptによって訓練されたポリシーが、一般的なナビゲーション方法とともに、手続き上の生成された環境と自然環境の両方を上回ることを示しています。

要約(オリジナル)

Model-free reinforcement learning has emerged as a powerful method for developing robust robot control policies capable of navigating through complex and unstructured environments. The effectiveness of these methods hinges on two essential elements: (1) the use of massively parallel physics simulations to expedite policy training, and (2) an environment generator tasked with crafting sufficiently challenging yet attainable environments to facilitate continuous policy improvement. Existing methods of outdoor environment generation often rely on heuristics constrained by a set of parameters, limiting the diversity and realism. In this work, we introduce ADEPT, a novel \textbf{A}daptive \textbf{D}iffusion \textbf{E}nvironment for \textbf{P}olicy \textbf{T}ransfer in the zero-shot sim-to-real fashion that leverages Denoising Diffusion Probabilistic Models to dynamically expand existing training environments by adding more diverse and complex environments adaptive to the current policy. ADEPT guides the diffusion model’s generation process through initial noise optimization, blending noise-corrupted environments from existing training environments weighted by the policy’s performance in each corresponding environment. By manipulating the noise corruption level, ADEPT seamlessly transitions between generating similar environments for policy fine-tuning and novel ones to expand training diversity. To benchmark ADEPT in off-road navigation, we propose a fast and effective multi-layer map representation for wild environment generation. Our experiments show that the policy trained by ADEPT outperforms both procedural generated and natural environments, along with popular navigation methods.

arxiv情報

著者 Youwei Yu,Junhong Xu,Lantao Liu
発行日 2025-06-05 02:23:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | コメントする

A Novel Transformer-Based Method for Full Lower-Limb Joint Angles and Moments Prediction in Gait Using sEMG and IMU data

要約

この研究では、表面筋電図(SEMG)および慣性測定ユニット(IMU)シグナルを使用した完全な下肢の関節角度と関節モーメントの長距離予測のための変圧器ベースの深い学習フレームワークを提示します。
2つの別々の変圧器ニューラルネットワーク(TNNS)が設計されました。1つは運動学的予測用と運動学的予測用です。
このモデルは、リアルタイムのアプリケーションを念頭に置いて開発され、外部のラボリティの使用に適したウェアラブルセンサーのみを使用して開発されました。
短期および長期のパフォーマンスを評価するために、2つの予測視野が検討されました。
ネットワークは両方のタスクで高い精度を達成し、スピアマン相関係数は0.96を超え、すべてのジョイントで0.92を超えるRスクエアスコアを超えました。
特に、モデルは一貫して関節角度予測の最近のベンチマーク方法を上回り、RMSEエラーを数桁削減しました。
結果は、運動学と運動学の両方の情報をキャプチャする際のSEMGおよびIMUシグナルの補完的な役割を確認しました。
この作業は、モデルの効率と精度を強化するための入力最小化とモダリティ固有の重み付け戦略を含む将来の方向を備えた、ウェアラブルおよびロボットアプリケーションにおけるリアルタイムのフルリンブ生体力学的予測のためのトランスベースのモデルの可能性を示しています。

要約(オリジナル)

This study presents a transformer-based deep learning framework for the long-horizon prediction of full lower-limb joint angles and joint moments using surface electromyography (sEMG) and inertial measurement unit (IMU) signals. Two separate Transformer Neural Networks (TNNs) were designed: one for kinematic prediction and one for kinetic prediction. The model was developed with real-time application in mind, using only wearable sensors suitable for outside-laboratory use. Two prediction horizons were considered to evaluate short- and long-term performance. The network achieved high accuracy in both tasks, with Spearman correlation coefficients exceeding 0.96 and R-squared scores above 0.92 across all joints. Notably, the model consistently outperformed a recent benchmark method in joint angle prediction, reducing RMSE errors by an order of magnitude. The results confirmed the complementary role of sEMG and IMU signals in capturing both kinematic and kinetic information. This work demonstrates the potential of transformer-based models for real-time, full-limb biomechanical prediction in wearable and robotic applications, with future directions including input minimization and modality-specific weighting strategies to enhance model efficiency and accuracy.

arxiv情報

著者 Farshad Haghgoo Daryakenari,Tara Farizeh
発行日 2025-06-05 02:54:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | コメントする