Vision-Based Intelligent Robot Grasping Using Sparse Neural Network

要約

現代の深層学習の時代では、ネットワーク パラメータはモデルの効率において重要な役割を果たしていますが、大規模な計算やメモリ要件などの独自の制限があり、リアルタイムのインテリジェント ロボットの把握タスクには適していない可能性があります。
現在の研究は、スパース性を導入することで、ロボット把握領域におけるモデルの精度を損なうことなく、モデルの効率をどのように維持できるかに焦点を当てています。
より具体的には、この研究では、Sparse-GRConvNet と Sparse-GINNet という 2 つの軽量ニューラル ネットワークが導入されました。これらは、Edge-PopUp アルゴリズムを統合することにより、ロボットの把握ドメインのスパース性を利用して把握ポーズを生成します。
このアルゴリズムは、それぞれのスコア値を考慮することで、エッジの上位 K% の識別を容易にします。
Sparse-GRConvNet モデルと Sparse-GINNet モデルはどちらも、ピクセル位置ごとに高品質の把握ポーズをリアルタイムで生成するように設計されており、ロボットが見慣れないオブジェクトを効果的に操作できるようになります。
Cornell Grasping Dataset (CGD) と Jacquard Grasping Dataset (JGD) という 2 つのベンチマーク データセットを使用してモデルを広範囲にトレーニングしました。
Sparse-GRConvNet モデルと Sparse-GINNet モデルはどちらも、パフォーマンスの点で現在の最先端の手法を上回っており、GR-ConvNet の重量のわずか 10%、重量のわずか 50% で 97.75% という驚異的な精度を達成しています。
それぞれ CGD 上の GI-NNet。
さらに、Sparse-GRConvNet は GR-ConvNet の重みの 30% で 85.77% の精度を達成し、Sparse-GINNet は JGD 上の GI-NNet の重みの 10% で 81.11% の精度を達成します。
提案したモデルのパフォーマンスを検証するために、Anukul (Baxter) ハードウェア協働ロボットを使用して広範な実験を実施しました。

要約(オリジナル)

In the modern era of Deep Learning, network parameters play a vital role in models efficiency but it has its own limitations like extensive computations and memory requirements, which may not be suitable for real time intelligent robot grasping tasks. Current research focuses on how the model efficiency can be maintained by introducing sparsity but without compromising accuracy of the model in the robot grasping domain. More specifically, in this research two light-weighted neural networks have been introduced, namely Sparse-GRConvNet and Sparse-GINNet, which leverage sparsity in the robotic grasping domain for grasp pose generation by integrating the Edge-PopUp algorithm. This algorithm facilitates the identification of the top K% of edges by considering their respective score values. Both the Sparse-GRConvNet and Sparse-GINNet models are designed to generate high-quality grasp poses in real-time at every pixel location, enabling robots to effectively manipulate unfamiliar objects. We extensively trained our models using two benchmark datasets: Cornell Grasping Dataset (CGD) and Jacquard Grasping Dataset (JGD). Both Sparse-GRConvNet and Sparse-GINNet models outperform the current state-of-the-art methods in terms of performance, achieving an impressive accuracy of 97.75% with only 10% of the weight of GR-ConvNet and 50% of the weight of GI-NNet, respectively, on CGD. Additionally, Sparse-GRConvNet achieve an accuracy of 85.77% with 30% of the weight of GR-ConvNet and Sparse-GINNet achieve an accuracy of 81.11% with 10% of the weight of GI-NNet on JGD. To validate the performance of our proposed models, we conducted extensive experiments using the Anukul (Baxter) hardware cobot.

arxiv情報

著者 Priya Shukla,Vandana Kushwaha,G C Nandi
発行日 2023-08-22 17:36:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク