Pellet-based 3D Printing of Soft Thermoplastic Elastomeric Membranes for Soft Robotic Applications

要約

添加剤の製造(AM)は、ソフトロボットの製造の複雑さを処理するための有望なソリューションです。
ただし、過剰弾性材料のAMは、限られた材料タイプで依然として困難です。
この作業では、非常に柔らかい熱可塑性エラストマー(TPE)のペレットベースの3D印刷が調査されました。
私たちの結果は、TPEがEcoflex O-10と同様のエンジニアリングストレスと最大ひずみを持つことができることを示しています。
これらのTPEは、3Dプリントの気密薄膜(0.2〜1.2 mm)に使用され、1320 \%まで最大膨張する可能性があります。
膜の大きな膨張と柔らかさを中空構造の3D印刷と組み合わせることで、180度曲げてその重量の238倍のブロックされた力に達することができる曲げアクチュエーターの設計が簡素化されました。
さらに、3D印刷TPEペレットと剛性フィラメントにより、柔らかい膜はオブジェクトを包み込むか、センサー吸盤としてオブジェクトを把握できます。
さらに、吸盤の膜は、接着前にオブジェクトを検出するための触覚センサーとして利用されました。
これらの結果は、ソフトTPEと膜をそれぞれ興味深いクラスの材料とセンサーアクチュエーターとして使用することにより、3D印刷ソフトロボットの実現可能性を示唆しています。

要約(オリジナル)

Additive Manufacturing (AM) is a promising solution for handling the complexity of fabricating soft robots. However, the AM of hyperelastic materials is still challenging with limited material types. Within this work, pellet-based 3D printing of very soft thermoplastic elastomers (TPEs) was explored. Our results show that TPEs can have similar engineering stress and maximum strain as Ecoflex OO-10. These TPEs were used to 3D-print airtight thin membranes (0.2-1.2 mm), which could inflate up to a stretch of 1320\%. Combining the membrane’s large expansion and softness with the 3D printing of hollow structures simplified the design of a bending actuator that can bend 180 degrees and reach a blocked force of 238 times its weight. In addition, by 3D printing TPE pellets and rigid filaments, the soft membrane could grasp objects by enveloping an object or as a sensorized sucker, which relied on the TPE’s softness to conform to the object or act as a seal. In addition, the membrane of the sucker was utilized as a tactile sensor to detect an object before adhesion. These results suggest the feasibility of 3D printing soft robots by using soft TPEs and membranes as an interesting class of materials and sensorized actuators, respectively.

arxiv情報

著者 Nick Willemstein,Herman van der Kooij,Ali Sadeghi
発行日 2025-03-26 19:45:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Pellet-based 3D Printing of Soft Thermoplastic Elastomeric Membranes for Soft Robotic Applications はコメントを受け付けていません

SimBEV: A Synthetic Multi-Task Multi-Sensor Driving Data Generation Tool and Dataset

要約

BEV表現がマルチモーダルセンサーの融合を促進するため、Bird’seye View(BEV)の認識は、近年自律運転に大きな注目を集めています。
BEVの表現により、BEVセグメンテーション、車両の軌跡の計画に役立つ環境の簡潔なビューなど、さまざまな認識タスクが可能になります。
ただし、この表現は既存のデータセットによって完全にはサポートされておらず、この目的のために新しいデータセットの作成は時間のかかる努力になる可能性があります。
この課題に対処するために、Simbevを紹介します。
Simbevは、広範囲に構成可能でスケーラブルなランダム化された合成データ生成ツールであり、幅広いセンサーをサポートし、複数のソースからの情報を組み込んで正確なBEVグラウンドトゥルースをキャプチャし、BEVセグメンテーションや3Dオブジェクト検出などのさまざまな知覚タスクを可能にします。
Simbevは、多様な運転シナリオからの注釈付き知覚データの大規模なコレクションであるSimbevデータセットを作成するために使用されます。
SimbevとSimbev Datasetは公開されており、一般に公開されています。

要約(オリジナル)

Bird’s-eye view (BEV) perception has garnered significant attention in autonomous driving in recent years, in part because BEV representation facilitates multi-modal sensor fusion. BEV representation enables a variety of perception tasks including BEV segmentation, a concise view of the environment useful for planning a vehicle’s trajectory. However, this representation is not fully supported by existing datasets, and creation of new datasets for this purpose can be a time-consuming endeavor. To address this challenge, we introduce SimBEV. SimBEV is a randomized synthetic data generation tool that is extensively configurable and scalable, supports a wide array of sensors, incorporates information from multiple sources to capture accurate BEV ground truth, and enables a variety of perception tasks including BEV segmentation and 3D object detection. SimBEV is used to create the SimBEV dataset, a large collection of annotated perception data from diverse driving scenarios. SimBEV and the SimBEV dataset are open and available to the public.

arxiv情報

著者 Goodarz Mehr,Azim Eskandarian
発行日 2025-03-26 20:42:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, cs.RO | SimBEV: A Synthetic Multi-Task Multi-Sensor Driving Data Generation Tool and Dataset はコメントを受け付けていません

Multi-Agent Inverse Reinforcement Learning in Real World Unstructured Pedestrian Crowds

要約

大学のキャンパス、レストラン、食料品店、病院などの混雑した公共スペースでのソーシャルロボットナビゲーションは、ますます重要な研究分野です。
この目標を達成するためのコア戦略の1つは、通常、逆補強学習(IRL)を介して、報酬機能を学ぶことで、動きを支配する心理的要因の上に人間の意図を理解することです。
IRLの大幅な進歩にもかかわらず、複数のエージェントの報酬機能を同時に学習している密集していない歩行者の群衆における同時に、これらのシナリオ\ Textit {例えば}の通過、交差点、揺れ、織りなどで発生する厳密に結合した社会的相互作用の性質のために、扱いにくいままである。
構造化されていない歩行者の群衆。
私たちのアプローチの鍵は、単純だが効果的な数学的なトリックであり、精度をわずかに削減するために扱いやすさを達成するいわゆる競合性の合理性トレードオフトリックと名付けます。
ETH、UCY、SCAND、JRDB、およびSpeedwayと呼ばれる新しいデータセットを含むいくつかのデータセットで、古典的なシングルエージェントMaxent IRLに対するアプローチと、最先端の軌道予測方法を比較し、密集した複雑なエージェントの相互作用に焦点を当てた大学のキャンパスで忙しい交差点で収集されました。
私たちの重要な調査結果は、密なスピードウェイデータセットでは、私たちのアプローチは、シングルエージェントIRLよりも2倍以上の改善を伴うトップ7のベースラインで1位にランクされており、ETH/UCYなどのスパースのあるデータセットの最先端の大型トランスベースのエンコーダデコーダーモデルと競合しています(トップ7ベースラインの中で3番目のランク)。

要約(オリジナル)

Social robot navigation in crowded public spaces such as university campuses, restaurants, grocery stores, and hospitals, is an increasingly important area of research. One of the core strategies for achieving this goal is to understand humans’ intent–underlying psychological factors that govern their motion–by learning their reward functions, typically via inverse reinforcement learning (IRL). Despite significant progress in IRL, learning reward functions of multiple agents simultaneously in dense unstructured pedestrian crowds has remained intractable due to the nature of the tightly coupled social interactions that occur in these scenarios \textit{e.g.} passing, intersections, swerving, weaving, etc. In this paper, we present a new multi-agent maximum entropy inverse reinforcement learning algorithm for real world unstructured pedestrian crowds. Key to our approach is a simple, but effective, mathematical trick which we name the so-called tractability-rationality trade-off trick that achieves tractability at the cost of a slight reduction in accuracy. We compare our approach to the classical single-agent MaxEnt IRL as well as state-of-the-art trajectory prediction methods on several datasets including the ETH, UCY, SCAND, JRDB, and a new dataset, called Speedway, collected at a busy intersection on a University campus focusing on dense, complex agent interactions. Our key findings show that, on the dense Speedway dataset, our approach ranks 1st among top 7 baselines with >2X improvement over single-agent IRL, and is competitive with state-of-the-art large transformer-based encoder-decoder models on sparser datasets such as ETH/UCY (ranks 3rd among top 7 baselines).

arxiv情報

著者 Rohan Chandra,Haresh Karnan,Negar Mehr,Peter Stone,Joydeep Biswas
発行日 2025-03-26 21:19:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.MA, cs.RO | Multi-Agent Inverse Reinforcement Learning in Real World Unstructured Pedestrian Crowds はコメントを受け付けていません

Automated Vehicle Driver Monitoring Dataset from Real-World Scenarios

要約

自動化のSAEレベル3から、ドライバーは、旅行中に運転に直接関係していない活動に従事することができます。
ただし、レベル3では、システムの機能を誤解すると、ドライバーが二次タスクに従事するようになり、挑戦的な交通状況に反応する能力を損なう可能性があります。
ドライバーのアクティビティを予測することで、事故を防ぐために、危険な行動を早期に検出できます。
ドライバーのアクティビティを予測できるようにするには、ディープラーニングネットワークをデータセットでトレーニングする必要があります。
ただし、トレーニングのシミュレーションに基づくデータセットの使用と予測のための実際のデータへの移行は、最適ではないことが証明されています。
したがって、このペーパーでは、さまざまな照明や気象条件の下で自律運転シナリオで発生するさまざまなアクティビティを含むIEEEデータポートで公然とアクセスできる現実世界のドライバーアクティビティデータセットを紹介します。
トレーニングプロセスの結果は、データセットがドライバーのアクティビティ認識のためのモデルを実装するための優れたベンチマークを提供することを示しました。

要約(オリジナル)

From SAE Level 3 of automation onwards, drivers are allowed to engage in activities that are not directly related to driving during their travel. However, in level 3, a misunderstanding of the capabilities of the system might lead drivers to engage in secondary tasks, which could impair their ability to react to challenging traffic situations. Anticipating driver activity allows for early detection of risky behaviors, to prevent accidents. To be able to predict the driver activity, a Deep Learning network needs to be trained on a dataset. However, the use of datasets based on simulation for training and the migration to real-world data for prediction has proven to be suboptimal. Hence, this paper presents a real-world driver activity dataset, openly accessible on IEEE Dataport, which encompasses various activities that occur in autonomous driving scenarios under various illumination and weather conditions. Results from the training process showed that the dataset provides an excellent benchmark for implementing models for driver activity recognition.

arxiv情報

著者 Mohamed Sabry,Walter Morales-Alvarez,Cristina Olaverri-Monreal
発行日 2025-03-26 22:41:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Automated Vehicle Driver Monitoring Dataset from Real-World Scenarios はコメントを受け付けていません

Exploring Interference between Concurrent Skin Stretches

要約

固有受容は、人間の動きを調整し、支援ロボットデバイスのパフォーマンスを向上させるために不可欠です。
自然な固有受容メカニズムと密接に整合する皮膚ストレッチフィードバックは、固有受容情報を伝えるための有望な方法を提示します。
皮膚ストレッチの知覚に対する干渉の影響をよりよく理解するために、ユーザー認識に対する2つの同時皮膚ストレッチの効果を評価する30人の参加者を対象としたユーザー調査を実施しました。
参加者が同時に皮膚ストレッチ刺激を経験すると、コロケートされた皮膚ストレッチ構成の知覚パフォーマンスを悪化させるマスキング効果が発生することが観察されました。
ただし、知覚されたワークロードは同じままです。
これらの発見は、干渉が皮膚ストレッチの知覚に影響を与える可能性があることを示しており、マルチチャネルの肌のストレッチフィードバック設計が近接してモジュールの位置を見つけることを避けることを示しています。

要約(オリジナル)

Proprioception is essential for coordinating human movements and enhancing the performance of assistive robotic devices. Skin stretch feedback, which closely aligns with natural proprioception mechanisms, presents a promising method for conveying proprioceptive information. To better understand the impact of interference on skin stretch perception, we conducted a user study with 30 participants that evaluated the effect of two simultaneous skin stretches on user perception. We observed that when participants experience simultaneous skin stretch stimuli, a masking effect occurs which deteriorates perception performance in the collocated skin stretch configurations. However, the perceived workload stays the same. These findings show that interference can affect the perception of skin stretch such that multi-channel skin stretch feedback designs should avoid locating modules in close proximity.

arxiv情報

著者 Ching Hei Cheng,Jonathan Eden,Denny Oetomo,Ying Tan
発行日 2025-03-26 23:24:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.HC, cs.RO | Exploring Interference between Concurrent Skin Stretches はコメントを受け付けていません

Fuzzy-Logic-based model predictive control: A paradigm integrating optimal and common-sense decision making

要約

このペーパーでは、未知の環境を探索し、ターゲットを見つけるためのマルチロボット制御アプローチとともに、新しいコンセプトであるファジーロジックベースのモデル予測制御(FLMPC)を紹介します。
従来のモデル予測制御(MPC)方法は、ベイジアン理論に依存して環境知識を表し、確率的コスト関数を最適化し、多くの場合、すべてのターゲットを見つける際の高い計算コストと有効性の欠如につながります。
代わりに、私たちのアプローチはFLMPCを活用し、それをバイレベルの親子アーキテクチャに拡張して、調整と拡張された意思決定の地平線を強化します。
確率分布と局所観測から高レベルの情報を抽出するFLMPCは、最適化の問題を簡素化し、他のMPCメソッドと比較して動作期間を大幅に拡張します。
ランダムに配置された障害物と人間を備えた未知の2次元環境で広範なシミュレーションを実施しました。
MPCに対するFLMPCのパフォーマンスと計算時間を確率的コスト関数と比較し、高レベルの親FLMPC層を統合することの影響を評価しました。
結果は、私たちのアプローチがパフォーマンスと計算時間の両方を大幅に改善し、ロボットの調整を強化し、大規模な捜索救助環境における不確実性の影響を減らすことを示しています。

要約(オリジナル)

This paper introduces a novel concept, fuzzy-logic-based model predictive control (FLMPC), along with a multi-robot control approach for exploring unknown environments and locating targets. Traditional model predictive control (MPC) methods rely on Bayesian theory to represent environmental knowledge and optimize a stochastic cost function, often leading to high computational costs and lack of effectiveness in locating all the targets. Our approach instead leverages FLMPC and extends it to a bi-level parent-child architecture for enhanced coordination and extended decision making horizon. Extracting high-level information from probability distributions and local observations, FLMPC simplifies the optimization problem and significantly extends its operational horizon compared to other MPC methods. We conducted extensive simulations in unknown 2-dimensional environments with randomly placed obstacles and humans. We compared the performance and computation time of FLMPC against MPC with a stochastic cost function, then evaluated the impact of integrating the high-level parent FLMPC layer. The results indicate that our approaches significantly improve both performance and computation time, enhancing coordination of robots and reducing the impact of uncertainty in large-scale search and rescue environments.

arxiv情報

著者 Filip Surma,Anahita Jamshidnejad
発行日 2025-03-27 00:38:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 93B45, 93C42, cs.RO, math.OC | Fuzzy-Logic-based model predictive control: A paradigm integrating optimal and common-sense decision making はコメントを受け付けていません

SyncDiff: Synchronized Motion Diffusion for Multi-Body Human-Object Interaction Synthesis

要約

現実的な人間とオブジェクトの相互作用の動きを統合することは、VR/ARと人間のアニメーションの重要な問題です。
1つのオブジェクトと相互作用する単一の人間または手を含む一般的に調査されたシナリオとは異なり、任意の数の人間、手、およびオブジェクトを備えたより一般的なマルチボディ設定に対処します。
この複雑さは、身体間の高い相関と相互の影響により、同期する動きに大きな課題をもたらします。
これらの課題に対処するために、同期された運動拡散戦略を使用して、マルチボディ相互作用合成の新しい方法であるSyncdiffを紹介します。
SyncDiffは、単一の拡散モデルを採用して、多体運動の共同分布をキャプチャします。
モーションフィデリティを強化するために、周波数ドメインモーション分解スキームを提案します。
さらに、さまざまな身体運動の同期を強調するために、新しい一連のアライメントスコアを導入します。
Syncdiffは、明示的な同期戦略を通じて、データサンプルの尤度と整列尤度の両方を共同で最適化します。
さまざまなマルチボディ構成を備えた4つのデータセットにわたる広範な実験は、既存の最先端のモーション合成方法よりも同期の優位性を示しています。

要約(オリジナル)

Synthesizing realistic human-object interaction motions is a critical problem in VR/AR and human animation. Unlike the commonly studied scenarios involving a single human or hand interacting with one object, we address a more generic multi-body setting with arbitrary numbers of humans, hands, and objects. This complexity introduces significant challenges in synchronizing motions due to the high correlations and mutual influences among bodies. To address these challenges, we introduce SyncDiff, a novel method for multi-body interaction synthesis using a synchronized motion diffusion strategy. SyncDiff employs a single diffusion model to capture the joint distribution of multi-body motions. To enhance motion fidelity, we propose a frequency-domain motion decomposition scheme. Additionally, we introduce a new set of alignment scores to emphasize the synchronization of different body motions. SyncDiff jointly optimizes both data sample likelihood and alignment likelihood through an explicit synchronization strategy. Extensive experiments across four datasets with various multi-body configurations demonstrate the superiority of SyncDiff over existing state-of-the-art motion synthesis methods.

arxiv情報

著者 Wenkun He,Yun Liu,Ruitao Liu,Li Yi
発行日 2025-03-27 02:17:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, cs.RO | SyncDiff: Synchronized Motion Diffusion for Multi-Body Human-Object Interaction Synthesis はコメントを受け付けていません

AnyBimanual: Transferring Unimanual Policy for General Bimanual Manipulation

要約

一般的な言語条件付きの両操作タスクを実行することは、家庭サービスから産業集会に至るまでの多くのアプリケーションにとって非常に重要です。
ただし、高次元のアクションスペースのため、両操作データを収集することは高価です。これは、一般的な両操作タスクを処理するための従来の方法の課題をもたらします。
対照的に、統一されたポリシーは最近、スケーリングされたモデルパラメーターとトレーニングデータのために、幅広いタスクにわたって印象的な一般化可能性を実証しました。
この目的のために、私たちはanybimanualという名前のプラグアンドプレイ方法を提案します。これは、訓練を受けた事前に訓練された単位のポリシーを一般的な操作ポリシーに転送し、両手式のデモはほとんどありません。
具体的には、最初にスキルマネージャーを紹介して、スキルプリミティブとタスク指向の補償を直線的に組み合わせて、双方向の操作指示を表すために、訓練を受けた操作タスクの事前に訓練された非近代的なポリシーから発見されたスキル表現を動的にスケジュールするためにスキルマネージャーを紹介します。
視覚的なシステムと二近くのシステム間の観察の矛盾を軽減するために、視覚的なアライナーを提示して、ワークスペースの視覚的な埋め込みのためのソフトマスクを生成します。これは、各アームの視覚的入力と事前の段階の段階の視覚入力を整列させることを目的としています。
Anybimanualは、RLBench2からの12のシミュレートされたタスクの優位性を示しており、以前の方法で成功率が大幅に改善されています。
9つの実際のタスクでの実験では、平均成功率が84.62%でその実用性がさらに検証されます。

要約(オリジナル)

Performing general language-conditioned bimanual manipulation tasks is of great importance for many applications ranging from household service to industrial assembly. However, collecting bimanual manipulation data is expensive due to the high-dimensional action space, which poses challenges for conventional methods to handle general bimanual manipulation tasks. In contrast, unimanual policy has recently demonstrated impressive generalizability across a wide range of tasks because of scaled model parameters and training data, which can provide sharable manipulation knowledge for bimanual systems. To this end, we propose a plug-and-play method named AnyBimanual, which transfers pre-trained unimanual policy to general bimanual manipulation policy with few bimanual demonstrations. Specifically, we first introduce a skill manager to dynamically schedule the skill representations discovered from pre-trained unimanual policy for bimanual manipulation tasks, which linearly combines skill primitives with task-oriented compensation to represent the bimanual manipulation instruction. To mitigate the observation discrepancy between unimanual and bimanual systems, we present a visual aligner to generate soft masks for visual embedding of the workspace, which aims to align visual input of unimanual policy model for each arm with those during pretraining stage. AnyBimanual shows superiority on 12 simulated tasks from RLBench2 with a sizable 12.67% improvement in success rate over previous methods. Experiments on 9 real-world tasks further verify its practicality with an average success rate of 84.62%.

arxiv情報

著者 Guanxing Lu,Tengbo Yu,Haoyuan Deng,Season Si Chen,Yansong Tang,Ziwei Wang
発行日 2025-03-27 02:34:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | AnyBimanual: Transferring Unimanual Policy for General Bimanual Manipulation はコメントを受け付けていません

DexForce: Extracting Force-informed Actions from Kinesthetic Demonstrations for Dexterous Manipulation

要約

模倣学習には、状態行動ペアのシーケンスで構成される高品質のデモンストレーションが必要です。
器用さを必要とする接触豊富な器用な操作タスクの場合、これらの状態行動ペアの行動は正しい力を生み出す必要があります。
器用な操作デモンストレーションを収集するための現在の広く使用されている方法は、直感的ではない人間からロボットの動きのリターゲティングと直接的な触覚フィードバックの欠如により、接触豊富なタスクを実証するために使用するのが困難です。
これらの懸念に動機付けられて、私たちはdexforceを提案します。
DexForceは、運動感覚のデモ中に測定された接触力を活用して、政策学習のための力に基づいたアクションを計算します。
6つのタスクのデモを収集し、フォースに基づいたアクションで訓練されたポリシーが、すべてのタスクで平均成功率76%を達成することを示しています。
対照的に、接触力を考慮していない行動について直接訓練されたポリシーは、ほぼゼロの成功率を持っています。
また、政策観察に力データを含めることを除去する研究を実施します。
フォースデータを使用することは決してポリシーのパフォーマンスを損なうことはありませんが、AirPodsケースを開いたり、ナットを外したりするなど、高度なレベルの精度と調整を必要とするタスクに最も役立つことがわかります。

要約(オリジナル)

Imitation learning requires high-quality demonstrations consisting of sequences of state-action pairs. For contact-rich dexterous manipulation tasks that require dexterity, the actions in these state-action pairs must produce the right forces. Current widely-used methods for collecting dexterous manipulation demonstrations are difficult to use for demonstrating contact-rich tasks due to unintuitive human-to-robot motion retargeting and the lack of direct haptic feedback. Motivated by these concerns, we propose DexForce. DexForce leverages contact forces, measured during kinesthetic demonstrations, to compute force-informed actions for policy learning. We collect demonstrations for six tasks and show that policies trained on our force-informed actions achieve an average success rate of 76% across all tasks. In contrast, policies trained directly on actions that do not account for contact forces have near-zero success rates. We also conduct a study ablating the inclusion of force data in policy observations. We find that while using force data never hurts policy performance, it helps most for tasks that require advanced levels of precision and coordination, like opening an AirPods case and unscrewing a nut.

arxiv情報

著者 Claire Chen,Zhongchun Yu,Hojung Choi,Mark Cutkosky,Jeannette Bohg
発行日 2025-03-27 03:53:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | DexForce: Extracting Force-informed Actions from Kinesthetic Demonstrations for Dexterous Manipulation はコメントを受け付けていません

Safe Human Robot Navigation in Warehouse Scenario

要約

産業環境、特に倉庫における自律モバイルロボット(AMR)の統合は、物流と運用効率に革命をもたらしました。
ただし、動的な共有スペースで人間の労働者の安全性を確保することは、依然として重要な課題です。
この作業は、倉庫ナビゲーションの安全性を高めるために制御バリア関数(CBFS)を活用する新しい方法論を提案しています。
学習ベースのCBFをオープンロボットミドルウェアフレームワーク(OpenRMF)と統合することにより、システムはマルチロボットのマルチエージェントシナリオで適応型および安全性のあるコントロールを実現します。
さまざまなロボットプラットフォームを使用して実施された実験は、人間の歩行者を含む静的および動的な障害を回避する際の提案されたアプローチの有効性を示しています。
私たちの実験は、ロボット、ロボットプラットフォーム、速度、障害物の数がさまざまなさまざまなシナリオを評価し、そこから有望なパフォーマンスを達成します。

要約(オリジナル)

The integration of autonomous mobile robots (AMRs) in industrial environments, particularly warehouses, has revolutionized logistics and operational efficiency. However, ensuring the safety of human workers in dynamic, shared spaces remains a critical challenge. This work proposes a novel methodology that leverages control barrier functions (CBFs) to enhance safety in warehouse navigation. By integrating learning-based CBFs with the Open Robotics Middleware Framework (OpenRMF), the system achieves adaptive and safety-enhanced controls in multi-robot, multi-agent scenarios. Experiments conducted using various robot platforms demonstrate the efficacy of the proposed approach in avoiding static and dynamic obstacles, including human pedestrians. Our experiments evaluate different scenarios in which the number of robots, robot platforms, speed, and number of obstacles are varied, from which we achieve promising performance.

arxiv情報

著者 Seth Farrell,Chenghao Li,Hongzhan Yu,Ryo Yoshimitsu,Sicun Gao,Henrik I. Christensen
発行日 2025-03-27 04:12:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.MA, cs.RO | Safe Human Robot Navigation in Warehouse Scenario はコメントを受け付けていません