要約
近年、自律型ロボットシステムが大きな注目を集めています。
しかし、視界が限られた屋内環境でロボットの動きを正確に予測することは困難です。
視覚ベースの光検出測距 (LiDAR) センサーは、ロボット アームの動作検出と位置特定に一般的に使用されますが、プライバシーを侵害し、正確な測定には見通しの良い見通し (LOS) に依存します。
追加のセンサーが利用できない場合、または LOS が不可能な場合、これらのテクノロジーは最良の選択肢ではない可能性があります。
この論文では、ロボット アームの動きの影響を受ける WiFi 信号からのチャネル状態情報 (CSI) を利用する新しい方法を提案します。
私たちは、Franka Emika ロボット アームの 4 つの異なるアクティビティを分類する畳み込みニューラル ネットワーク (CNN) モデルを開発しました。
実装された方法は、ロボットが障害物によって遮られるシナリオでも、取り付けられたセンサーや内部センサーに依存することなく、ロボットの動きを正確に予測することを目指しています。
要約(オリジナル)
Autonomous robotic systems have gained a lot of attention, in recent years. However, accurate prediction of robot motion in indoor environments with limited visibility is challenging. While vision-based and light detection and ranging (LiDAR) sensors are commonly used for motion detection and localization of robotic arms, they are privacy-invasive and depend on a clear line-of-sight (LOS) for precise measurements. In cases where additional sensors are not available or LOS is not possible, these technologies may not be the best option. This paper proposes a novel method that employs channel state information (CSI) from WiFi signals affected by robotic arm motion. We developed a convolutional neural network (CNN) model to classify four different activities of a Franka Emika robotic arm. The implemented method seeks to accurately predict robot motion even in scenarios in which the robot is obscured by obstacles, without relying on any attached or internal sensors.
arxiv情報
著者 | Rojin Zandi,Hojjat Salehinejad,Kian Behzad,Elaheh Motamedi,Milad Siami |
発行日 | 2023-07-07 20:52:09+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google