Human Locomotion Implicit Modeling Based Real-Time Gait Phase Estimation

要約

慣性測定ユニット(IMU)シグナルに基づく歩行位相推定により、個々の歩行変動に対するエキソ販売の正確な適応が促進されます。
ただし、特に地形の変化の期間中、高い精度と堅牢性を達成することには課題が残っています。
これに対処するために、ヒトの移動の暗黙的なモデリングに基づいて歩行位相推定ニューラルネットワークを開発します。これは、特徴抽出の時間的畳み込みとマルチチャネル情報融合の変圧器層を組み合わせます。
最初に歩行相のベクトルとIMUシグナルを人間の移動の共同観察として扱い、モデルの一般化を強化するチャネルごとのマスクされた再構成前のトレーニング戦略が提案されています。
実験結果は、提案された方法が既存のベースラインアプローチを上回り、2.729 \ PM 1.071%$の歩行位相RMSEを達成し、2秒の外観窓で安定した地形条件下で0.037 \ PM 0.016%のフェーズレートMAEを達成することを示しています。
0.023%$地形の移行下。
股関節外骨格のハードウェア検証は、アルゴリズムが歩行サイクルと主要なイベントを確実に識別し、さまざまな連続モーションシナリオに適応できることをさらに確認します。
この研究は、よりインテリジェントで適応性のある外骨格システムへの道を開き、多様な現実世界環境でより安全で効率的な人間とロボットの相互作用を可能にします。

要約(オリジナル)

Gait phase estimation based on inertial measurement unit (IMU) signals facilitates precise adaptation of exoskeletons to individual gait variations. However, challenges remain in achieving high accuracy and robustness, particularly during periods of terrain changes. To address this, we develop a gait phase estimation neural network based on implicit modeling of human locomotion, which combines temporal convolution for feature extraction with transformer layers for multi-channel information fusion. A channel-wise masked reconstruction pre-training strategy is proposed, which first treats gait phase state vectors and IMU signals as joint observations of human locomotion, thus enhancing model generalization. Experimental results demonstrate that the proposed method outperforms existing baseline approaches, achieving a gait phase RMSE of $2.729 \pm 1.071%$ and phase rate MAE of $0.037 \pm 0.016%$ under stable terrain conditions with a look-back window of 2 seconds, and a phase RMSE of $3.215 \pm 1.303%$ and rate MAE of $0.050 \pm 0.023%$ under terrain transitions. Hardware validation on a hip exoskeleton further confirms that the algorithm can reliably identify gait cycles and key events, adapting to various continuous motion scenarios. This research paves the way for more intelligent and adaptive exoskeleton systems, enabling safer and more efficient human-robot interaction across diverse real-world environments.

arxiv情報

著者 Yuanlong Ji,Xingbang Yang,Ruoqi Zhao,Qihan Ye,Quan Zheng,Yubo Fan
発行日 2025-06-18 05:15:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | Human Locomotion Implicit Modeling Based Real-Time Gait Phase Estimation はコメントを受け付けていません

Robust Instant Policy: Leveraging Student’s t-Regression Model for Robust In-context Imitation Learning of Robot Manipulation

要約

模倣学習(IL)は、いくつかの人間のデモを観察することにより、ロボットが自律的にタスクを実行できるようにすることを目指しています。
最近、INコンテキストILと呼ばれるILのバリアントは、ネットワークモデルを大規模なデモンストレーションで明示的に更新するのではなく、新しいタスクを実行するためにいくつかの指定されたデモンストレーションからコンテキストを理解するインスタントポリシーとして、既製の大型言語モデル(LLM)を使用しました。
ただし、ロボットドメインでの信頼性は、LLMベースのインスタントポリシーなどの幻覚の問題によって損なわれており、特定のデモンストレーションから逸脱する不十分な軌跡を生成することがあります。
この問題を軽減するために、堅牢なインスタントポリシー(RIP)と呼ばれる新しい堅牢なコンテキスト内模倣学習アルゴリズムを提案します。これは、学生のT回帰モデルを利用して、インスタントポリシーの幻覚軌道に対​​して堅牢であるため、信頼できる旅行を可能にします。
具体的には、RIPはいくつかの候補ロボット軌跡を生成してLLMから特定のタスクを完了し、生徒のT分布を使用してそれらを集約します。これは、外れ値(つまり、幻覚)を無視するのに有益です。
それにより、幻覚に対する堅牢な軌跡が生成されます。
シミュレートされた環境と現実世界の両方の環境で実施された実験は、RIPが最先端のIL方法を大幅に上回ることを示しています。特に日常のタスクの低データシナリオでは、タスクの成功率が少なくとも26ドル$ 26 \%$改善されています。
ビデオの結果https://sites.google.com/view/robustinstantpolicyで入手できます。

要約(オリジナル)

Imitation learning (IL) aims to enable robots to perform tasks autonomously by observing a few human demonstrations. Recently, a variant of IL, called In-Context IL, utilized off-the-shelf large language models (LLMs) as instant policies that understand the context from a few given demonstrations to perform a new task, rather than explicitly updating network models with large-scale demonstrations. However, its reliability in the robotics domain is undermined by hallucination issues such as LLM-based instant policy, which occasionally generates poor trajectories that deviate from the given demonstrations. To alleviate this problem, we propose a new robust in-context imitation learning algorithm called the robust instant policy (RIP), which utilizes a Student’s t-regression model to be robust against the hallucinated trajectories of instant policies to allow reliable trajectory generation. Specifically, RIP generates several candidate robot trajectories to complete a given task from an LLM and aggregates them using the Student’s t-distribution, which is beneficial for ignoring outliers (i.e., hallucinations); thereby, a robust trajectory against hallucinations is generated. Our experiments, conducted in both simulated and real-world environments, show that RIP significantly outperforms state-of-the-art IL methods, with at least $26\%$ improvement in task success rates, particularly in low-data scenarios for everyday tasks. Video results available at https://sites.google.com/view/robustinstantpolicy.

arxiv情報

著者 Hanbit Oh,Andrea M. Salcedo-Vázquez,Ixchel G. Ramirez-Alpizar,Yukiyasu Domae
発行日 2025-06-18 06:02:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | Robust Instant Policy: Leveraging Student’s t-Regression Model for Robust In-context Imitation Learning of Robot Manipulation はコメントを受け付けていません

Closed-Loop Long-Horizon Robotic Planning via Equilibrium Sequence Modeling

要約

自律的なロボットにアクションを実行させる努力では、タスク計画は、高レベルのタスクの説明を長期式のアクションシーケンスに変換する必要がある主要な課題です。
言語モデルエージェントの最近の進歩にもかかわらず、彼らはエラーを計画する傾向があり、前もって計画する能力が制限されています。
ロボット計画におけるこれらの制限に対処するために、均衡に達するまでドラフト計画を繰り返し改良する自己修復スキームを提唱します。
驚くべきことに、このプロセスは、追加の検証因子をキュレートしたり報酬モデルをキュレートしたりすることなく、分析的な観点からエンドツーエンドを最適化し、単純な監視された学習方法で自己反復プランナーを訓練することができます。
一方、ネストされた平衡シーケンスモデリング手順は、環境(または内部世界モデル)からの有用なフィードバックを組み込んだ効率的な閉ループ計画のために考案されています。
私たちの方法は、VirtualHome-ENVベンチマークで評価されており、スケーリングW.R.T.
推論時間計算。
コードはhttps://github.com/singularity0104/equilibrium-plannerで入手できます。

要約(オリジナル)

In the endeavor to make autonomous robots take actions, task planning is a major challenge that requires translating high-level task descriptions to long-horizon action sequences. Despite recent advances in language model agents, they remain prone to planning errors and limited in their ability to plan ahead. To address these limitations in robotic planning, we advocate a self-refining scheme that iteratively refines a draft plan until an equilibrium is reached. Remarkably, this process can be optimized end-to-end from an analytical perspective without the need to curate additional verifiers or reward models, allowing us to train self-refining planners in a simple supervised learning fashion. Meanwhile, a nested equilibrium sequence modeling procedure is devised for efficient closed-loop planning that incorporates useful feedback from the environment (or an internal world model). Our method is evaluated on the VirtualHome-Env benchmark, showing advanced performance with improved scaling w.r.t. inference-time computation. Code is available at https://github.com/Singularity0104/equilibrium-planner.

arxiv情報

著者 Jinghan Li,Zhicheng Sun,Yadong Mu
発行日 2025-06-18 06:15:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO | Closed-Loop Long-Horizon Robotic Planning via Equilibrium Sequence Modeling はコメントを受け付けていません

SHeRLoc: Synchronized Heterogeneous Radar Place Recognition for Cross-Modal Localization

要約

ロボット工学におけるレーダーの採用が拡大しているにもかかわらず、研究の大部分は均一なセンサータイプに限定されており、不均一なレーダー技術に固有の統合とモダリティの課題を見落としています。
これは、多様なレーダーデータ型全体で一般化する際の大きな困難につながり、不均一なレーダーの補完的な強さを未開拓のままにすることができるモダリティを意識したアプローチを備えています。
これらのギャップを橋渡しするために、RCS Polarマッチングを使用してマルチモーダルレーダーデータを整列させる不均一レーダーに合わせた最初のディープネットワークであるSherlocを提案します。
当社の階層的な最適な輸送ベースの特徴集約方法は、回転する堅牢なマルチスケール記述子を生成します。
FFT類似性ベースのデータマイニングと適応型マージンベースのトリプレット損失を採用することにより、SherlocはFov-Awareメトリック学習を可能にします。
Sherlocは、不均一なレーダー場所の認識で数桁の改善を達成し、パブリックデータセットで0.1から0.9未満にRecall@1を増加させ、アートオブザアートメソッドを上回ります。
Lidarにも適用されるSherlocは、モーダルの場所の認識と不均一なセンサースラムへの道を開きます。
ソースコードは、受け入れられると利用可能になります。

要約(オリジナル)

Despite the growing adoption of radar in robotics, the majority of research has been confined to homogeneous sensor types, overlooking the integration and cross-modality challenges inherent in heterogeneous radar technologies. This leads to significant difficulties in generalizing across diverse radar data types, with modality-aware approaches that could leverage the complementary strengths of heterogeneous radar remaining unexplored. To bridge these gaps, we propose SHeRLoc, the first deep network tailored for heterogeneous radar, which utilizes RCS polar matching to align multimodal radar data. Our hierarchical optimal transport-based feature aggregation method generates rotationally robust multi-scale descriptors. By employing FFT-similarity-based data mining and adaptive margin-based triplet loss, SHeRLoc enables FOV-aware metric learning. SHeRLoc achieves an order of magnitude improvement in heterogeneous radar place recognition, increasing recall@1 from below 0.1 to 0.9 on a public dataset and outperforming state of-the-art methods. Also applicable to LiDAR, SHeRLoc paves the way for cross-modal place recognition and heterogeneous sensor SLAM. The source code will be available upon acceptance.

arxiv情報

著者 Hanjun Kim,Minwoo Jung,Wooseong Yang,Ayoung Kim
発行日 2025-06-18 06:42:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | SHeRLoc: Synchronized Heterogeneous Radar Place Recognition for Cross-Modal Localization はコメントを受け付けていません

Map Space Belief Prediction for Manipulation-Enhanced Mapping

要約

散らかった環境でオブジェクトを検索するには、オクルージョンを削除し、オブジェクトの位置、形状、カテゴリの不確実性を減らすために、効率的な視点と操作アクションを選択する必要があります。
この作業では、操作が強化されたセマンティックマッピングの問題に対処します。ここでは、ロボットが散らかった棚のすべてのオブジェクトを効率的に識別する必要があります。
部分的に観察可能なマルコフ決定プロセス〜(POMDP)は不確実性の下での意思決定の標準ですが、非構造化されたインタラクティブな世界を表すこの形式主義では依然として挑戦的です。
これに取り組むために、メトリックセマンチックなグリッドマップによって信念が要約されているPOMDPを定義し、ニューラルネットワークを使用してオブジェクトの幾何学、位置、カテゴリ、オクルージャー、および操作物理学について効率的かつ同時に推論的に推論するためにマップ空間信念の更新を実行する新しいフレームワークを提案します。
さらに、正確な情報ゲイン分析を有効にするために、学習された信念の更新は、不確実性の校正された推定値を維持する必要があります。
したがって、校正済みのニューラル加速化された信念更新(CNABU)を提案して、新しいシナリオに一般化し、未知の領域に信頼性の校正予測を提供する信念伝播モデルを学習します。
私たちの実験は、私たちの新しいPOMDPプランナーが、挑戦的なシミュレーションにおける既存の方法に対するマップの完全性と正確性を改善し、ゼロショットで実際の散らかった棚に正常に転送することを示しています。

要約(オリジナル)

Searching for objects in cluttered environments requires selecting efficient viewpoints and manipulation actions to remove occlusions and reduce uncertainty in object locations, shapes, and categories. In this work, we address the problem of manipulation-enhanced semantic mapping, where a robot has to efficiently identify all objects in a cluttered shelf. Although Partially Observable Markov Decision Processes~(POMDPs) are standard for decision-making under uncertainty, representing unstructured interactive worlds remains challenging in this formalism. To tackle this, we define a POMDP whose belief is summarized by a metric-semantic grid map and propose a novel framework that uses neural networks to perform map-space belief updates to reason efficiently and simultaneously about object geometries, locations, categories, occlusions, and manipulation physics. Further, to enable accurate information gain analysis, the learned belief updates should maintain calibrated estimates of uncertainty. Therefore, we propose Calibrated Neural-Accelerated Belief Updates (CNABUs) to learn a belief propagation model that generalizes to novel scenarios and provides confidence-calibrated predictions for unknown areas. Our experiments show that our novel POMDP planner improves map completeness and accuracy over existing methods in challenging simulations and successfully transfers to real-world cluttered shelves in zero-shot fashion.

arxiv情報

著者 Joao Marcos Correia Marques,Nils Dengler,Tobias Zaenker,Jesper Mucke,Shenlong Wang,Maren Bennewitz,Kris Hauser
発行日 2025-06-18 07:21:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO | Map Space Belief Prediction for Manipulation-Enhanced Mapping はコメントを受け付けていません

A compact neuromorphic system for ultra-energy-efficient, on-device robot localization

要約

神経型コンピューティングは、エッジでロボットのローカリゼーションとナビゲーションシステムを展開する際に直面する計算およびエネルギーの課題を克服するための変革的経路を提供します。
ナビゲーションの重要なコンポーネントであるVisual Place認識は、従来のシステムの高いリソースの需要によって妨げられることがよくあり、正確な長期耐久性のローカリゼーションを必要とする小規模なロボットプラットフォームには適していません。
神経形態のアプローチは効率を高める可能性を提供しますが、リアルタイムのエッジ展開はバイオリアリスティックネットワークの複雑さによって制約されたままです。
この課題を克服するために、この特殊なコンピューティングパラダイムを使用するには、ハードウェアとアルゴリズムの融合が重要です。
ここでは、従来の方法で必要なエネルギーの8%未満を消費しながら、44,000キロバイトの180キロバイトを使用して最大8キロメートルのトラバーサルで競争力のある場所認識を実行する神経形成局在システムを実証します。
神経型システム(レンズ)を使用した場所エンコードは、スパイクニューラルネットワーク、イベントベースの動的ビジョンセンサー、および単一のSynsense Speckチップ内の神経形成プロセッサを統合し、ヘキサポッドロボットのリアルタイムでエネルギー効率の高い局所化を可能にします。
ベンチマークの場所認識方法(Sum-of-Solute-Differences(SAD)と比較すると、レンズは全体的な精度で同等に機能します。
レンズは、エネルギー効率の高いロボット場所認識のために、大規模でデバイス上の展開が可能な正確な完全な神経型局在システムを表します。
Neuromorphic Computingにより、リソースに制約のあるロボットは、エネルギー効率の良い正確なローカリゼーションを実行できます。

要約(オリジナル)

Neuromorphic computing offers a transformative pathway to overcome the computational and energy challenges faced in deploying robotic localization and navigation systems at the edge. Visual place recognition, a critical component for navigation, is often hampered by the high resource demands of conventional systems, making them unsuitable for small-scale robotic platforms which still require accurate long-endurance localization. Although neuromorphic approaches offer potential for greater efficiency, real-time edge deployment remains constrained by the complexity of bio-realistic networks. In order to overcome this challenge, fusion of hardware and algorithms is critical to employ this specialized computing paradigm. Here, we demonstrate a neuromorphic localization system that performs competitive place recognition in up to 8 kilometers of traversal using models as small as 180 kilobytes with 44,000 parameters, while consuming less than 8% of the energy required by conventional methods. Our Locational Encoding with Neuromorphic Systems (LENS) integrates spiking neural networks, an event-based dynamic vision sensor, and a neuromorphic processor within a single SynSense Speck chip, enabling real-time, energy-efficient localization on a hexapod robot. When compared to a benchmark place recognition method, Sum-of-Absolute-Differences (SAD), LENS performs comparably in overall precision. LENS represents an accurate fully neuromorphic localization system capable of large-scale, on-device deployment for energy efficient robotic place recognition. Neuromorphic computing enables resource-constrained robots to perform energy efficient, accurate localization.

arxiv情報

著者 Adam D. Hines,Michael Milford,Tobias Fischer
発行日 2025-06-18 07:26:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | A compact neuromorphic system for ultra-energy-efficient, on-device robot localization はコメントを受け付けていません

Multi-Agent Reinforcement Learning for Autonomous Multi-Satellite Earth Observation: A Realistic Case Study

要約

低地球軌道(LEO)衛星の指数成長は、地球観察(EO)ミッションに革命をもたらし、気候監視、災害管理などの課題に対処しています。
ただし、マルチサテライトシステムにおける自律的な調整は依然として根本的な課題です。
従来の最適化は、動的なEOミッションのリアルタイムの意思決定要求に対処するのに苦労し、強化学習(RL)とマルチエージェント補強学習(MARL)の使用を必要とします。
このホワイトペーパーでは、RLベースの自律的なEOミッション計画を調査し、単一衛星操作をモデル化し、MARLフレームワークを使用してマルチサテライト星座に拡張します。
エネルギーとデータの保管制限、衛星観測の不確実性、部分的な観測可能性の下での分散型調整の複雑さなど、重要な課題に対処します。
ほぼ現実的な衛星シミュレーション環境を活用することにより、PPO、IPPO、MAPPO、HAPPOなど、最先端のMARLアルゴリズムのトレーニングの安定性とパフォーマンスを評価します。
我々の結果は、MARLがマルチサテライトの調整における非定常性と報酬の相互依存関係に対処しながら、イメージングとリソース管理のバランスを効果的にバランスさせることができることを示しています。
この研究から得られた洞察は、自律的な衛星操作の基盤を提供し、分散型EOミッションでの政策学習を改善するための実用的なガイドラインを提供します。

要約(オリジナル)

The exponential growth of Low Earth Orbit (LEO) satellites has revolutionised Earth Observation (EO) missions, addressing challenges in climate monitoring, disaster management, and more. However, autonomous coordination in multi-satellite systems remains a fundamental challenge. Traditional optimisation approaches struggle to handle the real-time decision-making demands of dynamic EO missions, necessitating the use of Reinforcement Learning (RL) and Multi-Agent Reinforcement Learning (MARL). In this paper, we investigate RL-based autonomous EO mission planning by modelling single-satellite operations and extending to multi-satellite constellations using MARL frameworks. We address key challenges, including energy and data storage limitations, uncertainties in satellite observations, and the complexities of decentralised coordination under partial observability. By leveraging a near-realistic satellite simulation environment, we evaluate the training stability and performance of state-of-the-art MARL algorithms, including PPO, IPPO, MAPPO, and HAPPO. Our results demonstrate that MARL can effectively balance imaging and resource management while addressing non-stationarity and reward interdependency in multi-satellite coordination. The insights gained from this study provide a foundation for autonomous satellite operations, offering practical guidelines for improving policy learning in decentralised EO missions.

arxiv情報

著者 Mohamad A. Hady,Siyi Hu,Mahardhika Pratama,Jimmy Cao,Ryszard Kowalczyk
発行日 2025-06-18 07:42:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.MA, cs.RO | Multi-Agent Reinforcement Learning for Autonomous Multi-Satellite Earth Observation: A Realistic Case Study はコメントを受け付けていません

Context-Aware Deep Lagrangian Networks for Model Predictive Control

要約

深いラグランジアンネットワーク(Delan)などの物理情報に基づいた動的モデルに基づいてロボットを制御することで、結果として生じる動作の一般化と解釈可能性を改善できます。
ただし、複雑な環境では、潜在的に相互作用するオブジェクトの数は膨大であり、それらの物理的特性はしばしば不確実です。
この複雑さにより、単一のグローバルモデルを採用することは実行不可能です。
したがって、環境の現在関連する側面のみをキャプチャするコンテキスト認識モデルのオンラインシステム識別に頼る必要があります。
エネルギーの保存などの物理的原理は、さまざまなコンテキスト全体に保持されない場合がありますが、特にモデル予測制御(MPC)などの地平線制御方法を後退させるためにそれを使用する場合、個々のコンテキストを意識するモデルの物理的妥当性を確保することは非常に望ましい場合があります。
したがって、この作業では、デランを拡張してコンテキストを認識させ、オンラインシステム識別のための再発ネットワークと組み合わせて、適応性のある物理学に基づいた制御のためにMPCと統合します。
また、デランと残留ダイナミクスモデルを組み合わせて、ロボットの名目モデルが通常利用可能であるという事実を活用します。
さまざまな負荷の下で軌跡追跡のために、7-DOFロボットアームでの方法を評価します。
私たちの方法は、拡張されたカルマンフィルターを使用するベースラインによって達成された21%の改善と比較して、エンドエフェクター追跡エラーを39%減少させます。

要約(オリジナル)

Controlling a robot based on physics-informed dynamic models, such as deep Lagrangian networks (DeLaN), can improve the generalizability and interpretability of the resulting behavior. However, in complex environments, the number of objects to potentially interact with is vast, and their physical properties are often uncertain. This complexity makes it infeasible to employ a single global model. Therefore, we need to resort to online system identification of context-aware models that capture only the currently relevant aspects of the environment. While physical principles such as the conservation of energy may not hold across varying contexts, ensuring physical plausibility for any individual context-aware model can still be highly desirable, particularly when using it for receding horizon control methods such as Model Predictive Control (MPC). Hence, in this work, we extend DeLaN to make it context-aware, combine it with a recurrent network for online system identification, and integrate it with a MPC for adaptive, physics-informed control. We also combine DeLaN with a residual dynamics model to leverage the fact that a nominal model of the robot is typically available. We evaluate our method on a 7-DOF robot arm for trajectory tracking under varying loads. Our method reduces the end-effector tracking error by 39%, compared to a 21% improvement achieved by a baseline that uses an extended Kalman filter.

arxiv情報

著者 Lucas Schulze,Jan Peters,Oleg Arenz
発行日 2025-06-18 08:26:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO | Context-Aware Deep Lagrangian Networks for Model Predictive Control はコメントを受け付けていません

Minimizing Structural Vibrations via Guided Flow Matching Design Optimization

要約

構造振動は、自動車、列車、飛行機などのエンジニアリングシステムにおける望ましくない騒音の源です。
これらの振動を最小限に抑えることは、乗客の快適さを改善するために重要です。
この作業は、プレートのような構造にビーズ(インデント)を配置することにより、振動を減らすためのガイド付きフローマッチングに基づいた新しい設計最適化アプローチを提示します。
私たちの方法は、構造振動を予測するために訓練された生成フローマッチングモデルと、代理モデルを統合します。
生成プロセス中、フローマッチングモデルは製造可能性に向かってプッシュし、代理モデルは低振動ソリューションにプッシュします。
フローマッチングモデルとそのトレーニングデータは、設計スペースを暗黙的に定義し、手動で定義された設計パラメーターの最適化が必要ないため、潜在的なソリューションのより広範な調査を可能にします。
目的関数を慎重に構築することによる特定の固有振動の直接最適化など、さまざまな微分可能な最適化目標にこの方法を適用します。
結果は、私たちの方法が、基準ベースの設計ヒューリスティックおよび遺伝的最適化であるランダム検索の設計と比較して、構造振動を減らした多様で製造可能なプレート設計を生成することを示しています。
コードとデータは、https://github.com/ecker-lab/optimizing_vibrating_platesから入手できます。

要約(オリジナル)

Structural vibrations are a source of unwanted noise in engineering systems like cars, trains or airplanes. Minimizing these vibrations is crucial for improving passenger comfort. This work presents a novel design optimization approach based on guided flow matching for reducing vibrations by placing beadings (indentations) in plate-like structures. Our method integrates a generative flow matching model and a surrogate model trained to predict structural vibrations. During the generation process, the flow matching model pushes towards manufacturability while the surrogate model pushes to low-vibration solutions. The flow matching model and its training data implicitly define the design space, enabling a broader exploration of potential solutions as no optimization of manually-defined design parameters is required. We apply our method to a range of differentiable optimization objectives, including direct optimization of specific eigenfrequencies through careful construction of the objective function. Results demonstrate that our method generates diverse and manufacturable plate designs with reduced structural vibrations compared to designs from random search, a criterion-based design heuristic and genetic optimization. The code and data are available from https://github.com/ecker-lab/Optimizing_Vibrating_Plates.

arxiv情報

著者 Jan van Delden,Julius Schultz,Sebastian Rothe,Christian Libner,Sabine C. Langer,Timo Lüddecke
発行日 2025-06-18 08:40:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CE, cs.LG, cs.RO, math.OC, stat.ML | Minimizing Structural Vibrations via Guided Flow Matching Design Optimization はコメントを受け付けていません

Designing Intent: A Multimodal Framework for Human-Robot Cooperation in Industrial Workspaces

要約

ロボットが共同ワークスペースに入ると、人間の労働者とロボットシステムの間の相互理解を確保することが、信頼、安全性、効率性の前提条件になります。
このポジションペーパーでは、人間とコボットが共同でアセンブリタスクを実行して、意図的なコミュニケーションへの構造化されたアプローチを主張するアセンブリプロジェクトの協力シナリオを利用します。
状況に基づいて、エージェントの透明性(SAT)フレームワークとタスク抽象化レベルの概念に基づいて、意図コンテンツ(SAT1、SAT3)、計画水平(操作から戦略的)、およびモダリティ(視覚、聴覚、ハプティック)をマッピングする多次元設計スペースを提案します。
このスペースが、動的な共同作業コンテキストに合わせたマルチモーダル通信戦略の設計をどのように導くことができるかを説明します。
このペーパーでは、職場での透明な人間とロボットの相互作用をサポートすることを目的とした将来の設計ツールキットの概念的基盤を築きます。
主要なオープンな質問と設計上の課題を強調し、ハイブリッド作業環境でのマルチモーダル、適応性、信頼できるロボットコラボレーションの共有アジェンダを提案します。

要約(オリジナル)

As robots enter collaborative workspaces, ensuring mutual understanding between human workers and robotic systems becomes a prerequisite for trust, safety, and efficiency. In this position paper, we draw on the cooperation scenario of the AIMotive project in which a human and a cobot jointly perform assembly tasks to argue for a structured approach to intent communication. Building on the Situation Awareness-based Agent Transparency (SAT) framework and the notion of task abstraction levels, we propose a multidimensional design space that maps intent content (SAT1, SAT3), planning horizon (operational to strategic), and modality (visual, auditory, haptic). We illustrate how this space can guide the design of multimodal communication strategies tailored to dynamic collaborative work contexts. With this paper, we lay the conceptual foundation for a future design toolkit aimed at supporting transparent human-robot interaction in the workplace. We highlight key open questions and design challenges, and propose a shared agenda for multimodal, adaptive, and trustworthy robotic collaboration in hybrid work environments.

arxiv情報

著者 Francesco Chiossi,Julian Rasch,Robin Welsch,Albrecht Schmidt,Florian Michahelles
発行日 2025-06-18 09:23:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.HC, cs.RO | Designing Intent: A Multimodal Framework for Human-Robot Cooperation in Industrial Workspaces はコメントを受け付けていません