NAMO-LLM: Efficient Navigation Among Movable Obstacles with Large Language Model Guidance

要約

障害を避けながら、望ましい目標領域に到達するロボットパスを計算するために、いくつかのプランナーが提案されています。
ただし、これらのメソッドは、目標へのすべての経路がブロックされている場合に失敗します。
そのような場合、ロボットは、環境を再構成してタスク関連領域にアクセスする方法について推論する必要があります。これは、可動オブジェクト(NAMO)間のナビゲーションとして知られている問題です。
この問題に対するさまざまな解決策が開発されていますが、彼らはしばしば非常に乱雑な環境に拡大するのに苦労しています。
これに対処するために、ロボットと障害物の構成を検索して、どの障害物、どこで、どの順序で実行可能な計画を立てるために、ロボットと障害物の構成を検索するサンプリングベースのプランナーであるNAMO-LLMを提案します。
その重要な斬新さは、大規模な言語モデル(LLM)によって導かれる不均一なサンプリング戦略であり、ツリーの構造を方向にバイアスしてソリューションを生成する可能性が高くなります。
NAMO-LLMは確率的に完全に完了しており、実験を通じて乱雑な環境に効率的にスケーリングし、ランタイムとプランの品質の両方で関連する作品を上回ることを示しています。

要約(オリジナル)

Several planners have been proposed to compute robot paths that reach desired goal regions while avoiding obstacles. However, these methods fail when all pathways to the goal are blocked. In such cases, the robot must reason about how to reconfigure the environment to access task-relevant regions – a problem known as Navigation Among Movable Objects (NAMO). While various solutions to this problem have been developed, they often struggle to scale to highly cluttered environments. To address this, we propose NAMO-LLM, a sampling-based planner that searches over robot and obstacle configurations to compute feasible plans specifying which obstacles to move, where, and in what order. Its key novelty is a non-uniform sampling strategy guided by Large Language Models (LLMs) biasing the tree construction toward directions more likely to yield a solution. We show that NAMO-LLM is probabilistically complete and demonstrate through experiments that it efficiently scales to cluttered environments, outperforming related works in both runtime and plan quality.

arxiv情報

著者 Yuqing Zhang,Yiannis Kantaros
発行日 2025-05-07 05:45:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | NAMO-LLM: Efficient Navigation Among Movable Obstacles with Large Language Model Guidance はコメントを受け付けていません

LRFusionPR: A Polar BEV-Based LiDAR-Radar Fusion Network for Place Recognition

要約

自律運転では、GPSが除去した環境におけるグローバルなローカリゼーションには、場所認識が重要です。
LIDARが正確な範囲を提供するのに対し、Lidarとレーダーベースの場所認識方法は注目を集めていますが、レーダーは悪天候の回復力に優れています。
ただし、場所認識のためにLidar-Radar融合を効果的に活用することは依然として困難です。
レーダーデータの騒々しいとまばらな性質により、認識の精度をさらに向上させる可能性が制限されます。
さらに、不均一なレーダー構成により、統一されたクロスモダリティ融合フレームワークの開発が複雑になります。
この論文では、LRFusionPRを提案します。これにより、LiDARにシングルチップまたはスキャンレーダーのいずれかを融合させることで、認識の精度と堅牢性が向上します。
技術的には、デュアルブランチネットワークが提案されており、統一された極座標鳥瞰図(BEV)表現内で異なるモダリティを融合しています。
Fusionブランチでは、相互出席が使用され、交差モダリティ機能の相互作用が実行されます。
Fusionブランチからの知識は同時に蒸留ブランチに伝達されます。これにより、レーダーは堅牢性をさらに向上させるための唯一の入力として使用されます。
最終的に、両方のブランチの記述子が連結されており、場所検索用のマルチモーダルグローバル記述子が生成されます。
複数のデータセットでの広範な評価は、LRFusionPRがさまざまな気象条件の下で堅牢性を維持しながら、正確な場所認識を達成することを示しています。
オープンソースコードは、https://github.com/qizs-bit/lrfusionprでリリースされます。

要約(オリジナル)

In autonomous driving, place recognition is critical for global localization in GPS-denied environments. LiDAR and radar-based place recognition methods have garnered increasing attention, as LiDAR provides precise ranging, whereas radar excels in adverse weather resilience. However, effectively leveraging LiDAR-radar fusion for place recognition remains challenging. The noisy and sparse nature of radar data limits its potential to further improve recognition accuracy. In addition, heterogeneous radar configurations complicate the development of unified cross-modality fusion frameworks. In this paper, we propose LRFusionPR, which improves recognition accuracy and robustness by fusing LiDAR with either single-chip or scanning radar. Technically, a dual-branch network is proposed to fuse different modalities within the unified polar coordinate bird’s eye view (BEV) representation. In the fusion branch, cross-attention is utilized to perform cross-modality feature interactions. The knowledge from the fusion branch is simultaneously transferred to the distillation branch, which takes radar as its only input to further improve the robustness. Ultimately, the descriptors from both branches are concatenated, producing the multimodal global descriptor for place retrieval. Extensive evaluations on multiple datasets demonstrate that our LRFusionPR achieves accurate place recognition, while maintaining robustness under varying weather conditions. Our open-source code will be released at https://github.com/QiZS-BIT/LRFusionPR.

arxiv情報

著者 Zhangshuo Qi,Luqi Cheng,Zijie Zhou,Guangming Xiong
発行日 2025-05-07 06:07:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | LRFusionPR: A Polar BEV-Based LiDAR-Radar Fusion Network for Place Recognition はコメントを受け付けていません

SCU-Hand: Soft Conical Universal Robotic Hand for Scooping Granular Media from Containers of Various Sizes

要約

材料科学における小規模な実験の自動化は、実験セットアップの不均一な性質のために課題を提示します。
この研究では、ロボットアームを使用してさまざまなコンテナサイズから粉末サンプルをすくい取るタスクを自動化するために設計された新しいエンドエフェクターであるScuhand(Soft Conical Universal Robot Hand)を紹介します。
スクエルは、変形を通じて異なるコンテナの形状に適応する柔軟な円錐形構造を採用し、複雑な力センシングまたは機械学習ベースの制御方法なしで一貫した接触を維持します。
再構成可能なメカニズムにより、サイズの調整が可能になり、多様なコンテナタイプからの効率的なスクープが可能になります。
ソフトロボットの原理とシートモーフィングデザインを組み合わせることにより、エンドエフェクターは、効果的な粉末操作に必要な剛性を保持しながら、柔軟性が高いことを実現します。
設計原則、生産プロセス、およびSCUの実験的検証について詳しく説明します。
実験的検証により、スクープ容量は商用ツールの容量よりも約20%高いことが示され、67 mmから110 mmのサイズの容器では95%以上のスクープパフォーマンスがありました。
この研究は、材料の合成や特性評価プロセスなどのタスクを自動化するための費用対効果が高く簡単に実装可能なソ​​リューションを提供することにより、実験室の自動化に貢献しています。

要約(オリジナル)

Automating small-scale experiments in materials science presents challenges due to the heterogeneous nature of experimental setups. This study introduces the SCU-Hand (Soft Conical Universal Robot Hand), a novel end-effector designed to automate the task of scooping powdered samples from various container sizes using a robotic arm. The SCU- Hand employs a flexible, conical structure that adapts to dif- ferent container geometries through deformation, maintaining consistent contact without complex force sensing or machine learning-based control methods. Its reconfigurable mechanism allows for size adjustment, enabling efficient scooping from diverse container types. By combining soft robotics principles with a sheet-morphing design, our end-effector achieves high flexibility while retaining the necessary stiffness for effective powder manipulation. We detail the design principles, fabri- cation process, and experimental validation of the SCU-Hand. Experimental validation showed that the scooping capacity is about 20% higher than that of a commercial tool, with a scooping performance of more than 95% for containers of sizes between 67 mm to 110 mm. This research contributes to laboratory automation by offering a cost-effective, easily implementable solution for automating tasks such as materials synthesis and characterization processes.

arxiv情報

著者 Tomoya Takahashi,Cristian C. Beltran-Hernandez,Yuki Kuroda,Kazutoshi Tanaka,Masashi Hamaya,Yoshitaka Ushiku
発行日 2025-05-07 06:24:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | SCU-Hand: Soft Conical Universal Robotic Hand for Scooping Granular Media from Containers of Various Sizes はコメントを受け付けていません

Beyond Task Performance: Human Experience in Human-Robot Collaboration

要約

人間の相互作用の経験は、特に将来のシステムでの相互作用がより厳しい身体的および機能的統合に向けて進歩するため、人間マシンのコラボレーションの有効性において重要な役割を果たします。
自動化設計はタスクのパフォーマンスに影響を与えることが示されていますが、フロー、エージェンシーの感覚(SOA)、具体化などの人間の経験メトリックへの影響は露出度の低いままです。
この研究では、自動化設計の変動がこれらの心理的経験にどのように影響するかを調査し、主観的経験と生理学的指標との相関関係を調べます。
ユーザー調査は、シミュレートされた木材ワークショップで実施され、参加者は4つの自動化レベルで軽量ロボットと協力しました。
この研究の結果は、中程度の自動化レベルが流れ、SOA、および具体化を促進し、サポートとユーザーの自律性のバランスをとることを示しています。
対照的に、より高い自動化は、タスクのパフォーマンスを最適化したにもかかわらず、知覚された流れとエージェンシーを減少させます。
さらに、グリップ力はSOAのリアルタイムプロキシと見なされる可能性があることを観察しましたが、心拍数の変動性との相関は決定的ではありませんでした。
調査結果は、共同ロボットシステムでのパフォーマンスとユーザーエクスペリエンスの両方を最適化することを目的とした、人間中心のメトリックを統合する自動化戦略の必要性を強調しています

要約(オリジナル)

Human interaction experience plays a crucial role in the effectiveness of human-machine collaboration, especially as interactions in future systems progress towards tighter physical and functional integration. While automation design has been shown to impact task performance, its influence on human experi- ence metrics such as flow, sense of agency (SoA), and embodiment remains underexplored. This study investigates how variations in automation design affect these psychological experience mea- sures and examines correlations between subjective experience and physiological indicators. A user study was conducted in a simulated wood workshop, where participants collaborated with a lightweight robot under four automation levels. The results of the study indicate that medium automation levels enhance flow, SoA and embodiment, striking a balance between support and user autonomy. In contrast, higher automation, despite optimizing task performance, diminishes perceived flow and agency. Furthermore, we observed that grip force might be considered as a real-time proxy of SoA, while correlations with heart rate variability were inconclusive. The findings underscore the necessity for automation strategies that integrate human- centric metrics, aiming to optimize both performance and user experience in collaborative robotic systems

arxiv情報

著者 Sean Kille,Jan Heinrich Robens,Philipp Dahlinger,Alejandra Rodriguez-Velasquez,Simon Rothfuß,Balint Varga,Andreas Lindenmann,Gerhard Neumann,Sven Matthiesen,Andrea Kiesel,Sören Hohmann
発行日 2025-05-07 07:28:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | Beyond Task Performance: Human Experience in Human-Robot Collaboration はコメントを受け付けていません

Trajectory Entropy Reinforcement Learning for Predictable and Robust Control

要約

シンプルさは、特に堅牢性が重要な場合、データ駆動型コントローラーを設計するための重要な帰納的バイアスです。
複雑な制御タスクにおける深い補強学習の印象的な結果にもかかわらず、観察と行動の間に複雑で偽りの相関関係を捉える傾向があり、環境へのわずかな摂動の下での失敗につながります。
この問題に取り組むために、この作業では、補強学習における単純な政策に対する新しい誘導バイアスを紹介します。
シンプルさの誘導バイアスは、エージェントが状態軌跡を観察した後にアクション内の情報を説明するために必要なビットの数に対応する、アクション軌跡全体のエントロピーを最小化することにより導入されます。
補強学習エージェントである軌跡エントロピー補強学習は、報酬を最大化しながら軌道エントロピーを最小限に抑えるために最適化されています。
軌道エントロピーは、変分パラメーター化されたアクション予測モデルを学習することで効果的に推定できることを示し、予測モデルを使用して情報正規化された報酬関数を構築します。
さらに、ポリシーや予測モデルを含むモデルの共同最適化を可能にする実用的なアルゴリズムを構築します。
いくつかの高次元の移動タスクに関する実験的評価は、私たちの学習したポリシーがより循環的で一貫したアクションの軌跡を生み出し、優れたパフォーマンスを達成し、最先端よりもノイズと動的な変化に対する堅牢性を達成することを示しています。

要約(オリジナル)

Simplicity is a critical inductive bias for designing data-driven controllers, especially when robustness is important. Despite the impressive results of deep reinforcement learning in complex control tasks, it is prone to capturing intricate and spurious correlations between observations and actions, leading to failure under slight perturbations to the environment. To tackle this problem, in this work we introduce a novel inductive bias towards simple policies in reinforcement learning. The simplicity inductive bias is introduced by minimizing the entropy of entire action trajectories, corresponding to the number of bits required to describe information in action trajectories after the agent observes state trajectories. Our reinforcement learning agent, Trajectory Entropy Reinforcement Learning, is optimized to minimize the trajectory entropy while maximizing rewards. We show that the trajectory entropy can be effectively estimated by learning a variational parameterized action prediction model, and use the prediction model to construct an information-regularized reward function. Furthermore, we construct a practical algorithm that enables the joint optimization of models, including the policy and the prediction model. Experimental evaluations on several high-dimensional locomotion tasks show that our learned policies produce more cyclical and consistent action trajectories, and achieve superior performance, and robustness to noise and dynamic changes than the state-of-the-art.

arxiv情報

著者 Bang You,Chenxu Wang,Huaping Liu
発行日 2025-05-07 07:41:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO | Trajectory Entropy Reinforcement Learning for Predictable and Robust Control はコメントを受け付けていません

Low Resolution Next Best View for Robot Packing

要約

ロボットでオブジェクトの梱包を自動化することは、効率的なオブジェクトの知覚が基本的な役割を果たす産業自動化の重要な課題です。
このペーパーでは、正確な3D再構成が不要なシナリオに焦点を当て、費用対効果の高いスケーラブルなソリューションを優先します。
提案されている低解像度の次の最高のビュー(LR-NBV)アルゴリズムは、冗長性と獲得密度のバランスをとるユーティリティ関数を活用し、効率的なオブジェクトの再構成を確保します。
実験的検証は、LR-NBVが一貫して標準のNBVアプローチを上回ることを示しており、ポーズが大幅に少ないと同等の精度を達成しています。
この方法は、高精度センシングに依存することなく、効率、スケーラビリティ、および適応性を必要とするアプリケーションに非常に適していることが証明されています。

要約(オリジナル)

Automating the packing of objects with robots is a key challenge in industrial automation, where efficient object perception plays a fundamental role. This paper focuses on scenarios where precise 3D reconstruction is not required, prioritizing cost-effective and scalable solutions. The proposed Low-Resolution Next Best View (LR-NBV) algorithm leverages a utility function that balances pose redundancy and acquisition density, ensuring efficient object reconstruction. Experimental validation demonstrates that LR-NBV consistently outperforms standard NBV approaches, achieving comparable accuracy with significantly fewer poses. This method proves highly suitable for applications requiring efficiency, scalability, and adaptability without relying on high-precision sensing.

arxiv情報

著者 Giuseppe Fabio Preziosa,Chiara Castellano,Andrea Maria Zanchettin,Marco Faroni,Paolo Rocco
発行日 2025-05-07 08:26:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Low Resolution Next Best View for Robot Packing はコメントを受け付けていません

Multi-Agent Reinforcement Learning-based Cooperative Autonomous Driving in Smart Intersections

要約

署名されていない交差点は、複雑な交通流のために重大な安全性と効率の課題をもたらします。
このペーパーでは、グローバルな認識と車両間(V2I)コミュニケーションを活用する新しい道端のユニット(RSU)中心の協同運転システムを提案します。
システムのコアは、2段階のハイブリッド強化学習(RL)フレームワークを使用したRSUベースの意思決定モジュールです。
最初は、収集されたデータセットの動作クローニング(BC)と組み合わせた保守的なQラーニング(CQL)を使用して、ポリシーが事前に訓練されています。
その後、これらのポリシーは、マルチエージェント近位ポリシー最適化(MAPPO)を使用してシミュレーションで微調整され、エージェント間の依存関係を効果的に解決する自己関節メカニズムと一致します。
RSUは、訓練されたモデルに基づいてリアルタイム推論を実行して、V2I通信を介した車両制御を実現します。
カーラ環境での広範な実験は、提案されたシステムの高い効果を示しています。\ textIT {(i)}複雑な交差点シナリオを通じて3つの接続された車両と自動運転車(Cav)を調整する際に0.03 \%未満の故障率を達成し、従来のオートウェアコントロール方法を大幅に上回っています。
他のマップの機能。

要約(オリジナル)

Unsignalized intersections pose significant safety and efficiency challenges due to complex traffic flows. This paper proposes a novel roadside unit (RSU)-centric cooperative driving system leveraging global perception and vehicle-to-infrastructure (V2I) communication. The core of the system is an RSU-based decision-making module using a two-stage hybrid reinforcement learning (RL) framework. At first, policies are pre-trained offline using conservative Q-learning (CQL) combined with behavior cloning (BC) on collected dataset. Subsequently, these policies are fine-tuned in the simulation using multi-agent proximal policy optimization (MAPPO), aligned with a self-attention mechanism to effectively solve inter-agent dependencies. RSUs perform real-time inference based on the trained models to realize vehicle control via V2I communications. Extensive experiments in CARLA environment demonstrate high effectiveness of the proposed system, by: \textit{(i)} achieving failure rates below 0.03\% in coordinating three connected and autonomous vehicles (CAVs) through complex intersection scenarios, significantly outperforming the traditional Autoware control method, and \textit{(ii)} exhibiting strong robustness across varying numbers of controlled agents and shows promising generalization capabilities on other maps.

arxiv情報

著者 Taoyuan Yu,Kui Wang,Zongdian Li,Tao Yu,Kei Sakaguchi
発行日 2025-05-07 08:27:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.MA, cs.RO, cs.SY, eess.SY | Multi-Agent Reinforcement Learning-based Cooperative Autonomous Driving in Smart Intersections はコメントを受け付けていません

MonoForce: Learnable Image-conditioned Physics Engine

要約

オンボードカメラの画像からの大まかなオフロード地形でのロボット軌跡の予測のための新しいモデルを提案します。
このモデルは、エンドツーエンドの微分可能であるため、大規模なデータから学習する能力を維持しながら、物理学を認識しているニューラルシンボリック層を通じて古典力学の法則を実施します。
提案されたハイブリッドモデルは、ロボットとテレインの相互作用力を神経系シンボリック層と予測するブラックボックスコンポーネントを統合します。
このレイヤーには、地形との接触点でこれらの力を照会することにより、ロボットの軌跡を計算する微分可能な物理エンジンが含まれています。
提案されているアーキテクチャは、かなりの幾何学的および物理学的事前で構成されているため、結果として得られるモデルは、$ 10^4 $軌道を1秒あたり10ドル4ドルの軌道に供給する実際の画像に条件付けられた学習可能な物理エンジンとも見なすことができます。
このアーキテクチャは、SIMからリアルのギャップを減らし、分散分布の感度を緩和することを主張し、経験的に実証します。
迅速なシミュレーション速度と組み合わせて、差別化性により、モデルの予測制御、軌跡撮影、監視および強化学習またはスラムなど、さまざまなアプリケーションにモデルが適切に適用されます。
コードとデータは公開されています。

要約(オリジナル)

We propose a novel model for the prediction of robot trajectories on rough offroad terrain from the onboard camera images. This model enforces the laws of classical mechanics through a physics-aware neural symbolic layer while preserving the ability to learn from large-scale data as it is end-to-end differentiable. The proposed hybrid model integrates a black-box component that predicts robot-terrain interaction forces with a neural-symbolic layer. This layer includes a differentiable physics engine that computes the robot’s trajectory by querying these forces at the points of contact with the terrain. As the proposed architecture comprises substantial geometrical and physics priors, the resulting model can also be seen as a learnable physics engine conditioned on real images that delivers $10^4$ trajectories per second. We argue and empirically demonstrate that this architecture reduces the sim-to-real gap and mitigates out-of-distribution sensitivity. The differentiability, in conjunction with the rapid simulation speed, makes the model well-suited for various applications including model predictive control, trajectory shooting, supervised and reinforcement learning or SLAM. The codes and data are publicly available.

arxiv情報

著者 Ruslan Agishev,Karel Zimmermann
発行日 2025-05-07 08:31:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | MonoForce: Learnable Image-conditioned Physics Engine はコメントを受け付けていません

RoBridge: A Hierarchical Architecture Bridging Cognition and Execution for General Robotic Manipulation

要約

多様なタスクを備えたオープンエンドシナリオでのオペレーティングロボットは、ロボット工学における重要な研究とアプリケーションの方向性です。
自然言語処理と大規模なマルチモーダルモデルの最近の進歩により、ロボットの複雑な指示を理解する能力が向上しましたが、ロボットの操作は、オープン環境での手続き的スキルのジレンマと宣言的なスキルのジレンマに依然として直面しています。
既存の方法は、多くの場合、認知能力とエグゼクティブ機能を妥協します。
これらの課題に対処するために、この論文では、一般的なロボット操作のための階層的なインテリジェントアーキテクチャであるRobridgeを提案します。
これは、大規模な事前訓練を受けた視覚言語モデル(VLM)に基づく高レベルの認知プランナー(HCP)、シンボリックブリッジとして機能する不変操作可能な表現(IOR)、およびジェネラリストの具体化されたエージェント(GEA)で構成されています。
RobridgeはVLMの宣言的なスキルを維持し、強化学習の手続的なスキルを解き放ち、認知と実行のギャップを効果的に埋めます。
Robridgeは、既存のベースラインよりも大幅なパフォーマンスの改善を示し、新しいタスクで75%の成功率を達成し、タスクごとに5つの実際のデータサンプルのみを使用して、SIMからリアルの一般化で83%の平均成功率を達成します。
この作業は、認知的推論をロボットシステムで物理的実行と統合するための重要なステップを表しており、一般的なロボット操作のための新しいパラダイムを提供します。

要約(オリジナル)

Operating robots in open-ended scenarios with diverse tasks is a crucial research and application direction in robotics. While recent progress in natural language processing and large multimodal models has enhanced robots’ ability to understand complex instructions, robot manipulation still faces the procedural skill dilemma and the declarative skill dilemma in open environments. Existing methods often compromise cognitive and executive capabilities. To address these challenges, in this paper, we propose RoBridge, a hierarchical intelligent architecture for general robotic manipulation. It consists of a high-level cognitive planner (HCP) based on a large-scale pre-trained vision-language model (VLM), an invariant operable representation (IOR) serving as a symbolic bridge, and a generalist embodied agent (GEA). RoBridge maintains the declarative skill of VLM and unleashes the procedural skill of reinforcement learning, effectively bridging the gap between cognition and execution. RoBridge demonstrates significant performance improvements over existing baselines, achieving a 75% success rate on new tasks and an 83% average success rate in sim-to-real generalization using only five real-world data samples per task. This work represents a significant step towards integrating cognitive reasoning with physical execution in robotic systems, offering a new paradigm for general robotic manipulation.

arxiv情報

著者 Kaidong Zhang,Rongtao Xu,Pengzhen Ren,Junfan Lin,Hefeng Wu,Liang Lin,Xiaodan Liang
発行日 2025-05-07 08:37:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.RO | RoBridge: A Hierarchical Architecture Bridging Cognition and Execution for General Robotic Manipulation はコメントを受け付けていません

Automating Box Folding: Sequence Extraction and Ranking Methodologies

要約

ボックスの折り畳みは、自動化されたパッケージングシステムにとって重要な課題を表しています。
この作業は、折りたたみ式シーケンス抽出のための既存の方法と、特定のボックスタイプへの自動化されたシステムの適応性に焦点を当てたアプローチとの間のギャップを橋渡しします。
折りたたみ式シーケンスを特定してランク付けするための革新的な方法が提案され、初期状態から目的の最終構成へのボックスの変換が可能になります。
このシステムは、これらのシーケンスを評価およびランク付けし、利用可能なハードウェアとの実現可能性と互換性に基づいて、実際の実装に関する推奨事項を提供します。
最後に、ロボットがボックスの折りたたみを実行する例のユースケースが表示されます。

要約(オリジナル)

Box folding represents a crucial challenge for automated packaging systems. This work bridges the gap between existing methods for folding sequence extraction and approaches focused on the adaptability of automated systems to specific box types. An innovative method is proposed to identify and rank folding sequences, enabling the transformation of a box from an initial state to a desired final configuration. The system evaluates and ranks these sequences based on their feasibility and compatibility with available hardware, providing recommendations for real-world implementations. Finally, an illustrative use case is presented, where a robot performs the folding of a box.

arxiv情報

著者 Giuseppe Fabio Preziosa,Davide Ferloni,Andrea Maria Zanchettin,Marco Faroni,Paolo Rocco
発行日 2025-05-07 09:02:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Automating Box Folding: Sequence Extraction and Ranking Methodologies はコメントを受け付けていません