Sim2real Transfer Learning for Point Cloud Segmentation: An Industrial Application Case on Autonomous Disassembly

要約

ロボット工学のコンピューター ビジョン タスクでは、ディープ ラーニング ベースのアプローチを使用するために現実世界から大量のデータを生成して注釈を付けることが困難であるか、不可能でさえあることがよくあります。
この問題を解決するための一般的な戦略は、シミュレートされたシーンを利用して、シミュレーションから現実へ (sim2real) アプローチを適用することです。
現在のロボティクス ビジョン sim2real の作業の大部分は画像データに焦点を当てていますが、点群データに sim2real 転移学習を使用する産業用アプリケーション ケースを紹介します。
学習したモデルが実世界のデータに転送されたときにパフォーマンスを向上させるために、合成点群データを生成および処理する方法についての洞察を提供します。
不均衡な学習の問題は、複数の戦略を使用して調査されます。
この問題に取り組むために、新しいパッチベースの注意ネットワークがさらに提案されています。

要約(オリジナル)

On robotics computer vision tasks, generating and annotating large amounts of data from real-world for the use of deep learning-based approaches is often difficult or even impossible. A common strategy for solving this problem is to apply simulation-to-reality (sim2real) approaches with the help of simulated scenes. While the majority of current robotics vision sim2real work focuses on image data, we present an industrial application case that uses sim2real transfer learning for point cloud data. We provide insights on how to generate and process synthetic point cloud data in order to achieve better performance when the learned model is transferred to real-world data. The issue of imbalanced learning is investigated using multiple strategies. A novel patch-based attention network is proposed additionally to tackle this problem.

arxiv情報

著者 Chengzhi Wu,Xuelei Bi,Julius Pfrommer,Alexander Cebulla,Simon Mangold,Jürgen Beyerer
発行日 2023-01-12 14:00:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク