要約
この論文では、キャプチャされた画像からペンデュボットの角度位置を推定するための機械学習ベースのアプローチを紹介します。
最初に、ベースライン アルゴリズムが導入され、従来の画像処理技術を使用して角度が推定されます。
ベースライン アルゴリズムは、ペンデュボットが高速に移動していない場合に適切に機能します。
ただし、自由落下により素早く移動すると、ベースライン アルゴリズムが角度を推定できず、ペンデュボットがキャプチャされた画像内でぼやけたオブジェクトとして表示されます。
その結果、この課題に対処するために、ディープ ニューラル ネットワーク (DNN) ベースのアルゴリズムが導入されました。
このアプローチは転移学習の概念に依存しており、非常に小さな微調整データセットでの DNN のトレーニングを可能にします。
基本アルゴリズムは、微調整データセットのグラウンド トゥルース ラベルを作成するために使用されます。
保持された評価セットに関する実験結果は、提案されたアプローチが、鮮明な画像とぼやけた画像に対してそれぞれ 0.02 度および 0.06 度の絶対誤差の中央値を達成することを示しています。
要約(オリジナル)
In this paper, a machine learning based approach is introduced to estimate pendubot angular position from its captured images. Initially, a baseline algorithm is introduced to estimate the angle using conventional image processing techniques. The baseline algorithm performs well for the cases that the pendubot is not moving fast. However, when moving quickly due to a free fall, the pendubot appears as a blurred object in the captured image in a way that the baseline algorithm fails to estimate the angle. Consequently, a Deep Neural Network (DNN) based algorithm is introduced to cope with this challenge. The approach relies on the concept of transfer learning to allow the training of the DNN on a very small fine-tuning dataset. The base algorithm is used to create the ground truth labels of the fine-tuning dataset. Experimental results on the held-out evaluation set show that the proposed approach achieves a median absolute error of 0.02 and 0.06 degrees for the sharp and blurry images respectively.
arxiv情報
著者 | Sina Khanagha |
発行日 | 2023-05-19 11:09:13+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google