Robust Loss Functions for Object Grasping under Limited Ground Truth

要約

物体把握は、ロボットが環境を認識し、環境と十分に対話できるようにする重要な技術です。
しかし、実際のアプリケーションでは、研究者は畳み込みニューラル ネットワークのトレーニング中にグラウンド トゥルースの欠落またはノイズに直面し、モデルの精度が低下します。
したがって、これらの問題に対処してニューラル ネットワークの精度を向上させるために、さまざまな損失関数が提案されています。
グラウンド トゥルースが欠落している場合、ラベルのないサンプルに対して新しい予測カテゴリ確率手法が定義され、擬似ラベル手法と組み合わせて効果的に機能します。
さらに、ノイズの多いグランド トゥルースの場合、ラベル ノイズの破損を防ぐために対称損失関数が導入されます。
提案された損失関数は強力で堅牢で、使いやすいです。
典型的な把握ニューラル ネットワークに基づく実験結果は、私たちの方法がパフォーマンスを 2 ~ 13 パーセント向上できることを示しています。

要約(オリジナル)

Object grasping is a crucial technology enabling robots to perceive and interact with the environment sufficiently. However, in practical applications, researchers are faced with missing or noisy ground truth while training the convolutional neural network, which decreases the accuracy of the model. Therefore, different loss functions are proposed to deal with these problems to improve the accuracy of the neural network. For missing ground truth, a new predicted category probability method is defined for unlabeled samples, which works effectively in conjunction with the pseudo-labeling method. Furthermore, for noisy ground truth, a symmetric loss function is introduced to resist the corruption of label noises. The proposed loss functions are powerful, robust, and easy to use. Experimental results based on the typical grasping neural network show that our method can improve performance by 2 to 13 percent.

arxiv情報

著者 Yangfan Deng,Mengyao Zhang,Yong Zhao
発行日 2024-09-09 15:56:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク