Improving the Successful Robotic Grasp Detection Using Convolutional Neural Networks

要約

ロボットによる把握は、適切な精度でリアルタイムに実行される必要があります。
認識は、この手順の最初の重要なステップです。
この論文では、さまざまな見えているオブジェクトまたは見えないオブジェクトの四角形表現として把握を検出しようとする改良されたパイプライン モデルを提案します。
これは、ロボットがオブジェクトの適切な部分に近いところから制御手順を開始するのに役立ちます。
主なアイデアは、システムの速度を低下させることなく精度を 4.3% 向上させるための前処理、出力の正規化、およびデータの拡張で構成されています。
また、物体検出における画像処理用の最も有名な特徴抽出器である AlexNet、ResNet、Vgg19 などのさまざまな事前トレーニング済みモデルに対して比較が行われました。
AlexNet は他のものより複雑ではありませんが、パフォーマンスは他のものよりも優れており、リアルタイム性の向上に役立ちます。

要約(オリジナル)

Robotic grasp should be carried out in a real-time manner by proper accuracy. Perception is the first and significant step in this procedure. This paper proposes an improved pipeline model trying to detect grasp as a rectangle representation for different seen or unseen objects. It helps the robot to start control procedures from nearer to the proper part of the object. The main idea consists in pre-processing, output normalization, and data augmentation to improve accuracy by 4.3 percent without making the system slow. Also, a comparison has been conducted over different pre-trained models like AlexNet, ResNet, Vgg19, which are the most famous feature extractors for image processing in object detection. Although AlexNet has less complexity than other ones, it outperformed them, which helps the real-time property.

arxiv情報

著者 Hamed Hosseini,Mehdi Tale Masouleh,Ahmad Kalhor
発行日 2024-03-08 10:55:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク