Advancement and Field Evaluation of a Dual-arm Apple Harvesting Robot

要約

リンゴは、世界で最も広く消費されている果物の1つです。
現在、リンゴの収穫は肉体労働に完全に依存しています。これは、費用がかかり、dr屈で、労働者にとって危険です。
したがって、ロボットの収穫は近年、注目を集めています。
ただし、既存のシステムは、複雑な果樹園環境のパフォーマンス、有効性、信頼性の点でまだ不十分です。
この作業では、デュアルアーム収穫ロボットの開発と評価を提示します。
このシステムは、TOFカメラ、2つの4DOFロボットアーム、集中型真空システム、および収穫後の取り扱いモジュールを統合します。
収穫中、吸引力は真空システムを介してどちらの腕にも動的に割り当てられ、電力消費と騒音を減らしながら効率的なリンゴ剥離を可能にします。
以前のデザインと比較して、私たちは、内外調整とアップダウンの両方の調整を可能にするプラットフォーム運動メカニズムを組み込み、ロボットの器用さとさまざまなキャノピー構造への適応性を高めました。
アルゴリズム側では、基礎モデルベースの検出器、セグメンテーション、およびクラスタリングベースの深さ推定を組み合わせた堅牢なAppleローカリゼーションパイプラインを開発し、果樹園のパフォーマンスを向上させました。
さらに、圧力センサーがシステムに統合され、センサーフィードバックに基づいて収穫障害に応答するために、新しいデュアルアーム調整戦略が導入され、ピッキング効率がさらに向上しました。
フィールドデモは、米国ミシガン州の2つの商業果樹園で行われ、異なる天蓋構造がありました。
このシステムは0.807と0.797の成功率を達成し、平均ピッキングサイクル時間は5.97秒でした。
提案された戦略は、単腕のベースラインと比較して、収穫時間を28%短縮しました。
デュアルアーム収穫ロボットは、アップルピッキングの信頼性と効率を向上させます。
さらなる進歩により、このシステムは、Apple業界の自律的な運用と商業化の強力な可能性を秘めています。

要約(オリジナル)

Apples are among the most widely consumed fruits worldwide. Currently, apple harvesting fully relies on manual labor, which is costly, drudging, and hazardous to workers. Hence, robotic harvesting has attracted increasing attention in recent years. However, existing systems still fall short in terms of performance, effectiveness, and reliability for complex orchard environments. In this work, we present the development and evaluation of a dual-arm harvesting robot. The system integrates a ToF camera, two 4DOF robotic arms, a centralized vacuum system, and a post-harvest handling module. During harvesting, suction force is dynamically assigned to either arm via the vacuum system, enabling efficient apple detachment while reducing power consumption and noise. Compared to our previous design, we incorporated a platform movement mechanism that enables both in-out and up-down adjustments, enhancing the robot’s dexterity and adaptability to varying canopy structures. On the algorithmic side, we developed a robust apple localization pipeline that combines a foundation-model-based detector, segmentation, and clustering-based depth estimation, which improves performance in orchards. Additionally, pressure sensors were integrated into the system, and a novel dual-arm coordination strategy was introduced to respond to harvest failures based on sensor feedback, further improving picking efficiency. Field demos were conducted in two commercial orchards in MI, USA, with different canopy structures. The system achieved success rates of 0.807 and 0.797, with an average picking cycle time of 5.97s. The proposed strategy reduced harvest time by 28% compared to a single-arm baseline. The dual-arm harvesting robot enhances the reliability and efficiency of apple picking. With further advancements, the system holds strong potential for autonomous operation and commercialization for the apple industry.

arxiv情報

著者 Keyi Zhu,Kyle Lammers,Kaixiang Zhang,Chaaran Arunachalam,Siddhartha Bhattacharya,Jiajia Li,Renfu Lu,Zhaojian Li
発行日 2025-06-06 03:33:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | コメントする

You Only Estimate Once: Unified, One-stage, Real-Time Category-level Articulated Object 6D Pose Estimation for Robotic Grasping

要約

このペーパーでは、ロボット操作タスクにおける明確なオブジェクトのカテゴリレベルのポーズ推定の問題に対処します。
最近の作品は、カテゴリレベルでの部分ポーズとサイズを推定することで有望な結果を示しています。
ただし、これらのアプローチは、主にポイントクラウドに最初のセグメントパーツインスタンスをセグメント化し、6Dポーズの正規化された部分座標空間(NPCS)表現を推定する複雑なマルチステージパイプラインに従います。
これらのアプローチは、リアルタイムのロボットタスクでの高い計算コストとパフォーマンスの低さに悩まされています。
これらの制限に対処するために、インスタンスセグメンテーションとNPCS表現をエンドツーエンドの方法で同時に出力する単一ステージの方法であるYoeoを提案します。
統一されたネットワークを使用して、ポイントごとのセマンティックラベルとCentroidオフセットを生成し、同じパーツインスタンスのポイントが同じ重心に投票できるようにします。
さらに、クラスタリングアルゴリズムを利用して、推定重心距離に基づいてポイントを区別します。
最後に、最初に各インスタンスのNPCS領域を分離します。
次に、分離した領域を実際のポイントクラウドと並べて、最終的なポーズとサイズを回復します。
GAPARTデータセットの実験結果は、提案されたシングルショット方法のポーズ推定機能を示しています。
また、合成訓練を受けたモデルを実際の設定で展開し、200Hzでリアルタイムの視覚フィードバックを提供し、物理的なキノバロボットが目に見えない明確なオブジェクトと対話できるようにします。
これは、提案された方法の有効性と有効性を示しています。

要約(オリジナル)

This paper addresses the problem of category-level pose estimation for articulated objects in robotic manipulation tasks. Recent works have shown promising results in estimating part pose and size at the category level. However, these approaches primarily follow a complex multi-stage pipeline that first segments part instances in the point cloud and then estimates the Normalized Part Coordinate Space (NPCS) representation for 6D poses. These approaches suffer from high computational costs and low performance in real-time robotic tasks. To address these limitations, we propose YOEO, a single-stage method that simultaneously outputs instance segmentation and NPCS representations in an end-to-end manner. We use a unified network to generate point-wise semantic labels and centroid offsets, allowing points from the same part instance to vote for the same centroid. We further utilize a clustering algorithm to distinguish points based on their estimated centroid distances. Finally, we first separate the NPCS region of each instance. Then, we align the separated regions with the real point cloud to recover the final pose and size. Experimental results on the GAPart dataset demonstrate the pose estimation capabilities of our proposed single-shot method. We also deploy our synthetically-trained model in a real-world setting, providing real-time visual feedback at 200Hz, enabling a physical Kinova robot to interact with unseen articulated objects. This showcases the utility and effectiveness of our proposed method.

arxiv情報

著者 Jingshun Huang,Haitao Lin,Tianyu Wang,Yanwei Fu,Yu-Gang Jiang,Xiangyang Xue
発行日 2025-06-06 03:49:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | コメントする

TASTE-Rob: Advancing Video Generation of Task-Oriented Hand-Object Interaction for Generalizable Robotic Manipulation

要約

タスク指向のハンドオブジェクトインタラクションビデオ生成の既存のデータセットとモデルの重要な制限に対処します。これは、ロボット模倣学習のためのビデオデモンストレーションを生成する重要なアプローチです。
EGO4Dなどの現在のデータセットは、しばしば一貫性のない視点の視点と相互作用の不一致に悩まされ、ビデオの品質の低下につながり、正確な模倣学習タスクの適用性を制限します。
この目的に向けて、100,856の自我中心のハンドオブジェクトインタラクションビデオの先駆的な大規模なデータセットであるTaste-Robを紹介します。
各ビデオは、言語の指示に細心の注意を払って整合し、一貫したカメラの視点から記録され、相互作用の明確さを確保します。
テイストロブに関するビデオ拡散モデル(VDM)を微調整することにより、現実的なオブジェクトの相互作用を実現しますが、手の把握姿勢で時折矛盾が観察されました。
リアリズムを強化するために、生成されたビデオの手姿勢の精度を向上させる3段階のポーズ補給パイプラインを導入します。
特殊なポーズ修正フレームワークと組み合わせたキュレーションされたデータセットは、高品質でタスク指向のハンドオブジェクトインタラクションビデオを生成する際の顕著なパフォーマンスの向上を提供し、優れた一般化可能なロボット操作を実現します。
Taste-Robデータセットは、フィールドでのさらなる進歩を促進するために公開されています。Taste-Robデータセットとソースコードは、当社のWebサイトhttps://taste-rob.github.ioで公開されます。

要約(オリジナル)

We address key limitations in existing datasets and models for task-oriented hand-object interaction video generation, a critical approach of generating video demonstrations for robotic imitation learning. Current datasets, such as Ego4D, often suffer from inconsistent view perspectives and misaligned interactions, leading to reduced video quality and limiting their applicability for precise imitation learning tasks. Towards this end, we introduce TASTE-Rob — a pioneering large-scale dataset of 100,856 ego-centric hand-object interaction videos. Each video is meticulously aligned with language instructions and recorded from a consistent camera viewpoint to ensure interaction clarity. By fine-tuning a Video Diffusion Model (VDM) on TASTE-Rob, we achieve realistic object interactions, though we observed occasional inconsistencies in hand grasping postures. To enhance realism, we introduce a three-stage pose-refinement pipeline that improves hand posture accuracy in generated videos. Our curated dataset, coupled with the specialized pose-refinement framework, provides notable performance gains in generating high-quality, task-oriented hand-object interaction videos, resulting in achieving superior generalizable robotic manipulation. The TASTE-Rob dataset is publicly available to foster further advancements in the field, TASTE-Rob dataset and source code will be made publicly available on our website https://taste-rob.github.io.

arxiv情報

著者 Hongxiang Zhao,Xingchen Liu,Mutian Xu,Yiming Hao,Weikai Chen,Xiaoguang Han
発行日 2025-06-06 03:50:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | コメントする

A Soft Robotic Module with Pneumatic Actuation and Enhanced Controllability Using a Shape Memory Alloy Wire

要約

このホワイトペーパーでは、圧縮された空気作動式ソフトロボットモジュールが開発され、形状メモリ合金(SMA)ワイヤがその構造に組み込まれ、より高い精度で目的の曲げ角を実現しました。
第一に、ポリプロピレンで作られたひずみ制限層を備えた繊維強化曲げモジュールを製造しました。
次に、SMAワイヤをシリコンマトリックスに配置しました。これは、新しいひずみ制限層として使用されました。
単純な閉ループ制御アルゴリズムを使用して、ワークスペース内のソフトロボットの曲げ角を調整しました。
垂直面の角度変化を測定するためにカメラを使用しました。
0〜65度の範囲のさまざまな角度がカバーされ、モジュールと曲げ角制御アルゴリズムの性能を評価しました。
実験テストは、SMAワイヤを使用すると、垂直面での曲げのより正確な制御が得られることを示しています。
さらに、作業圧力が少ないほど曲がることができます。
エラー範囲は平均5度から2度に減少し、立ち上がり時間は平均19秒から3秒に短縮されました。

要約(オリジナル)

In this paper, a compressed air-actuated soft robotic module was developed by incorporating a shape memory alloy (SMA) wire into its structure to achieve the desired bending angle with greater precision. First, a fiber-reinforced bending module with a strain-limiting layer made of polypropylene was fabricated. The SMA wire was then placed in a silicon matrix, which was used as a new strain-limiting layer. A simple closed-loop control algorithm was used to regulate the bending angle of the soft robot within its workspace. A camera was utilized to measure the angular changes in the vertical plane. Different angles, ranging from 0 to 65 degrees, were covered to evaluate the performance of the module and the bending angle control algorithm. The experimental tests demonstrate that using the SMA wire results in more precise control of bending in the vertical plane. In addition, it is possible to bend more with less working pressure. The error range was reduced from an average of 5 degrees to 2 degrees, and the rise time was reduced from an average of 19 seconds to 3 seconds.

arxiv情報

著者 Mohammadnavid Golchin
発行日 2025-06-06 04:55:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | コメントする

Robust sensor fusion against on-vehicle sensor staleness

要約

センサーの融合は、自動運転車のパフォーマンスと堅牢な認識システムにとって重要ですが、さまざまなセンサーからのデータがさまざまな遅延で到着するセンサーの頑固さは、大きな課題をもたらします。
センサーのモダリティ間の時間的不整合は、一貫性のないオブジェクト状態の推定につながり、安全に重要な軌跡予測の品質を著しく分解します。
(1)センサー融合における細かい時間的意識を可能にするポイントあたりのタイムスタンプオフセット機能(カメラと比較してLIDARとレーダーの場合)を介してこの問題に対処するための新しいモデルと存在のアプローチを提示し、(2)展開車両で観察される現実的なセンサーの統合パターンをシミュレートするデータ増強戦略を可能にします。
私たちの方法は、複数のLIDAR、レーダー、カメラのセンサーデータを消費する視点検出モデルに統合されています。
従来のモデルは、1つのセンサーモダリティが古くなったときに重要な回帰を示しますが、私たちのアプローチは、同期された条件と古い条件の両方で一貫して良好なパフォーマンスに達することを実証します。

要約(オリジナル)

Sensor fusion is crucial for a performant and robust Perception system in autonomous vehicles, but sensor staleness, where data from different sensors arrives with varying delays, poses significant challenges. Temporal misalignment between sensor modalities leads to inconsistent object state estimates, severely degrading the quality of trajectory predictions that are critical for safety. We present a novel and model-agnostic approach to address this problem via (1) a per-point timestamp offset feature (for LiDAR and radar both relative to camera) that enables fine-grained temporal awareness in sensor fusion, and (2) a data augmentation strategy that simulates realistic sensor staleness patterns observed in deployed vehicles. Our method is integrated into a perspective-view detection model that consumes sensor data from multiple LiDARs, radars and cameras. We demonstrate that while a conventional model shows significant regressions when one sensor modality is stale, our approach reaches consistently good performance across both synchronized and stale conditions.

arxiv情報

著者 Meng Fan,Yifan Zuo,Patrick Blaes,Harley Montgomery,Subhasis Das
発行日 2025-06-06 06:18:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, cs.RO | コメントする

EqCollide: Equivariant and Collision-Aware Deformable Objects Neural Simulator

要約

変形可能なオブジェクトの衝突をシミュレートすることは、ソリッドメカニズムと多体相互作用のモデリングの複雑さのために、基本的でありながら挑戦的な作業です。
既存のデータ駆動型の方法は、物理的対称性への等分散の欠如、衝突の不十分な取り扱い、および限られたスケーラビリティに悩まされることがよくあります。
ここでは、変形可能なオブジェクトとそれらの衝突のための最初のエンドツーエンド等量ニューラルフィールドシミュレーターであるeqcollideを紹介します。
オブジェクトのジオメトリと速度を潜在的な制御ポイントにマッピングするための等変量エンコーダーを提案します。
その後の等虫なグラフニューラルネットワークベースのニューラル通常の微分方程式モデル衝突認識メッセージの合格を介した制御点間の相互作用をモデル化します。
速度フィールドを再構築するために、コントロールポイントの特徴を条件としたニューラルフィールドを照会し、連続および解像度に依存しないモーション予測を可能にします。
実験結果は、eqcollideが多様なオブジェクト構成全体で正確で安定したスケーラブルなシミュレーションを達成し、当社のモデルは、ベストパフォーマンスのベースラインモデルと比較しても24.34%から35.82%低いロールアウトMSEを達成することを示しています。
さらに、私たちのモデルは、より衝突するオブジェクトと拡張された時間視野に一般化し、グループアクションで変換された入力を強く維持することができます。

要約(オリジナル)

Simulating collisions of deformable objects is a fundamental yet challenging task due to the complexity of modeling solid mechanics and multi-body interactions. Existing data-driven methods often suffer from lack of equivariance to physical symmetries, inadequate handling of collisions, and limited scalability. Here we introduce EqCollide, the first end-to-end equivariant neural fields simulator for deformable objects and their collisions. We propose an equivariant encoder to map object geometry and velocity into latent control points. A subsequent equivariant Graph Neural Network-based Neural Ordinary Differential Equation models the interactions among control points via collision-aware message passing. To reconstruct velocity fields, we query a neural field conditioned on control point features, enabling continuous and resolution-independent motion predictions. Experimental results show that EqCollide achieves accurate, stable, and scalable simulations across diverse object configurations, and our model achieves 24.34% to 35.82% lower rollout MSE even compared with the best-performing baseline model. Furthermore, our model could generalize to more colliding objects and extended temporal horizons, and stay robust to input transformed with group action.

arxiv情報

著者 Qianyi Chen,Tianrun Gao,Chenbo Jiang,Tailin Wu
発行日 2025-06-06 06:49:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CE, cs.LG, cs.RO | コメントする

Where Do We Look When We Teach? Analyzing Human Gaze Behavior Across Demonstration Devices in Robot Imitation Learning

要約

一般化可能なポリシーを取得するための模倣学習には、多くの場合、大量のデモデータが必要であり、プロセスを大幅にコストにします。
この課題に対処するための有望な戦略の1つは、特に彼らの視線行動からタスクに関連する手がかりを抽出することにより、強力な一般化能力を持つ人間のデモンストレーターの認知的および意思決定スキルを活用することです。
ただし、模倣学習には、通常、ロボットの具体化と視覚条件をエミュレートするデモンストレーションデバイスを使用して、人間がデータを収集することが含まれます。
これは、そのようなデバイスが視線の動作にどのように影響するかという問題を提起します。
デモ隊の視線を体系的に分析する実験的なフレームワークを提案します。
私たちの実験結果は、(1)ロボットの具体化または(2)視覚条件をエミュレートするデバイスが、エミュレーションの程度に応じて障害の程度で、視線に関連するキューを視聴する能力を抽出するデモ隊の能力を損なうことを示しています。
さらに、自然な人間の行動をキャプチャするデバイスを使用して収集された視線データは、環境シフトでポリシーのタスクの成功率を18.8%から68.8%に改善します。

要約(オリジナル)

Imitation learning for acquiring generalizable policies often requires a large volume of demonstration data, making the process significantly costly. One promising strategy to address this challenge is to leverage the cognitive and decision-making skills of human demonstrators with strong generalization capability, particularly by extracting task-relevant cues from their gaze behavior. However, imitation learning typically involves humans collecting data using demonstration devices that emulate a robot’s embodiment and visual condition. This raises the question of how such devices influence gaze behavior. We propose an experimental framework that systematically analyzes demonstrators’ gaze behavior across a spectrum of demonstration devices. Our experimental results indicate that devices emulating (1) a robot’s embodiment or (2) visual condition impair demonstrators’ capability to extract task-relevant cues via gaze behavior, with the extent of impairment depending on the degree of emulation. Additionally, gaze data collected using devices that capture natural human behavior improves the policy’s task success rate from 18.8% to 68.8% under environmental shifts.

arxiv情報

著者 Yutaro Ishida,Takamitsu Matsubara,Takayuki Kanai,Kazuhiro Shintani,Hiroshi Bito
発行日 2025-06-06 07:09:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | コメントする

Trajectory Entropy: Modeling Game State Stability from Multimodality Trajectory Prediction

要約

エージェント間の複雑な相互作用は、実際のシナリオでの自律運転に大きな課題を提示します。
最近、有望なアプローチが登場し、レベルKゲームフレームワークとしてのエージェントとの相互作用を策定します。
階層的なゲームレベルでエージェントポリシーを効果的に切り離します。
ただし、このフレームワークは、エージェント間のさまざまな駆動複雑さと、ゲームレベル全体でエージェント状態の動的な変化の両方を無視し、代わりにそれらを均一に扱います。
その結果、このフレームワークに冗長でエラーが発生しやすい計算が導入されます。
この問題に取り組むために、このペーパーでは、軌跡エントロピーと呼ばれるメトリックを提案し、Level-Kゲームフレームワーク内のエージェントのゲームステータスを明らかにします。
重要な洞察は、エージェントポリシーの不確実性と関連する運転の複雑さの間の継承関係を認識することに起因しています。
具体的には、軌道エントロピーは、ゲーム内のエージェントのマルチモダリティ軌道予測結果からの不確実性を表す統計的信号を抽出します。
次に、この信号の信号対雑音比を使用して、エージェントのゲームステータスを定量化します。
提案されている軌跡エントロピーに基づいて、単純なゲーティングメカニズムを介して現在のLevel-Kゲームフレームワークを改良し、計算コストを削減しながら全体的な精度を大幅に改善します。
私たちの方法は、軌道予測、オープンループ、閉ループ計画タスクの観点から、WAYMOおよびNuplanデータセットで評価されます。
結果は、当社の方法の最先端のパフォーマンスを示しており、予測では精度が最大19.89%、計画では最大16.48%改善されました。

要約(オリジナル)

Complex interactions among agents present a significant challenge for autonomous driving in real-world scenarios. Recently, a promising approach has emerged, which formulates the interactions of agents as a level-k game framework. It effectively decouples agent policies by hierarchical game levels. However, this framework ignores both the varying driving complexities among agents and the dynamic changes in agent states across game levels, instead treating them uniformly. Consequently, redundant and error-prone computations are introduced into this framework. To tackle the issue, this paper proposes a metric, termed as Trajectory Entropy, to reveal the game status of agents within the level-k game framework. The key insight stems from recognizing the inherit relationship between agent policy uncertainty and the associated driving complexity. Specifically, Trajectory Entropy extracts statistical signals representing uncertainty from the multimodality trajectory prediction results of agents in the game. Then, the signal-to-noise ratio of this signal is utilized to quantify the game status of agents. Based on the proposed Trajectory Entropy, we refine the current level-k game framework through a simple gating mechanism, significantly improving overall accuracy while reducing computational costs. Our method is evaluated on the Waymo and nuPlan datasets, in terms of trajectory prediction, open-loop and closed-loop planning tasks. The results demonstrate the state-of-the-art performance of our method, with precision improved by up to 19.89% for prediction and up to 16.48% for planning.

arxiv情報

著者 Yesheng Zhang,Wenjian Sun,Yuheng Chen,Qingwei Liu,Qi Lin,Rui Zhang,Xu Zhao
発行日 2025-06-06 07:17:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | コメントする

Optimal Robotic Velcro Peeling with Force Feedback

要約

ロボットマニピュレーターを使用して、表面からベルクロストラップを剥がす問題を研究します。
表面のジオメトリは任意で不明です。
ロボットは、フォースフィードバックとそのエンドエフェクターの位置のみにアクセスできます。
この問題は、環境の部分的な観察性とセンサーフィードバックの不完全性のために困難です。
それを解決するために、まず、準静的ダイナミクスの仮定に基づいて、単純な分析状態およびアクションモデルでシステムをモデル化します。
次に、ベルクロとロボットの両方の状態が与えられた完全に吸収可能なケースを研究します。
この場合、総エネルギーコストを最小限に抑える最適なソリューションを閉じた形式で取得します。
次に、部分的に観察可能な場合に、力と位置のフィードバックのみを使用して基礎となる状態を推定する状態推定器を設計します。
次に、ベルクロを効率的に剥がすために、探索的および搾取的な行動のバランスをとるヒューリスティックベースのコントローラーを提示します。
最後に、複雑な幾何学的不確実性とセンサーノイズを備えた環境で提案された方法を評価し、環境が完全に観察可能である場合に最適なソリューションと比較して、エネルギーコストが80%未満で100%の成功率を達成し、ベースラインを大きなマージンでアウトパフォームします。

要約(オリジナル)

We study the problem of peeling a Velcro strap from a surface using a robotic manipulator. The surface geometry is arbitrary and unknown. The robot has access to only the force feedback and its end-effector position. This problem is challenging due to the partial observability of the environment and the incompleteness of the sensor feedback. To solve it, we first model the system with simple analytic state and action models based on quasi-static dynamics assumptions. We then study the fully-observable case where the state of both the Velcro and the robot are given. For this case, we obtain the optimal solution in closed-form which minimizes the total energy cost. Next, for the partially-observable case, we design a state estimator which estimates the underlying state using only force and position feedback. Then, we present a heuristics-based controller that balances exploratory and exploitative behaviors in order to peel the velcro efficiently. Finally, we evaluate our proposed method in environments with complex geometric uncertainties and sensor noises, achieving 100% success rate with less than 80% increase in energy cost compared to the optimal solution when the environment is fully-observable, outperforming the baselines by a large margin.

arxiv情報

著者 Jiacheng Yuan,Changhyun Choi,Volkan Isler
発行日 2025-06-06 07:21:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | コメントする

Haptic bilateral teleoperation system for free-hand dental procedures

要約

フリーハンドの歯科処置は通常、繰り返し、時間がかかり、高精度と手動の器用さが必要です。
ロボットは、手順の精度と安全性を向上させ、患者の快適性を高め、オペレーターのワークロードを削減する上で重要な役割を果たすことができます。
ただし、フリーハンドの手順のためのロボットソリューションは限られたままであるか、完全に欠けており、その受け入れはまだ低くなっています。
このギャップに対処するために、フリーハンドの歯科処置(FH-HBT)のために、触覚の両側視聴システム(HBTS)を開発します。
このシステムには、標準的な臨床ツールと互換性のある専用の機械的エンドエフェクターが含まれており、介入部位の可視性を改善するために内視鏡カメラを装備しています。
視覚的なフィードバックを通じて監視されるオペレーターのアクションとロボットの動きとの間の動きと力の対応を確保することにより、オペレーターの感覚認識と運動精度を高めます。
さらに、手続き上の安全性を確保する必要性を認識して、測定された接触力のみに基づいて入場コントローラーに提供されるモーション参照をスケーリングすることにより、相互作用力を制限します。
これにより、環境の事前知識を必要とせずに、すべての接触状態で効果的な力制限が保証されます。
提案されたFH-HBTSは、歯科ファントムを使用した歯科スケーリング手順で検証されています。
結果は、システムがテレオ操作の自然性、安全性、および精度を改善し、自由な手型の歯科手順を強化する可能性を強調していることを示しています。

要約(オリジナル)

Free-hand dental procedures are typically repetitive, time-consuming and require high precision and manual dexterity. Robots can play a key role in improving procedural accuracy and safety, enhancing patient comfort, and reducing operator workload. However, robotic solutions for free-hand procedures remain limited or completely lacking, and their acceptance is still low. To address this gap, we develop a haptic bilateral teleoperation system (HBTS) for free-hand dental procedures (FH-HBTS). The system includes a dedicated mechanical end-effector, compatible with standard clinical tools, and equipped with an endoscopic camera for improved visibility of the intervention site. By ensuring motion and force correspondence between the operator’s actions and the robot’s movements, monitored through visual feedback, we enhance the operator’s sensory awareness and motor accuracy. Furthermore, recognizing the need to ensure procedural safety, we limit interaction forces by scaling the motion references provided to the admittance controller based solely on measured contact forces. This ensures effective force limitation in all contact states without requiring prior knowledge of the environment. The proposed FH-HBTS is validated in a dental scaling procedure using a dental phantom. The results show that the system improves the naturalness, safety, and accuracy of teleoperation, highlighting its potential to enhance free-hand dental procedures.

arxiv情報

著者 Lorenzo Pagliara,Enrico Ferrentino,Andrea Chiacchio,Giovanni Russo
発行日 2025-06-06 07:39:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | コメントする