要約
リアルタイムのロボットの作動は、人間とロボットのインタラクションにおいて克服すべき主な課題の 1 つです。
ほとんどの視覚センサーは、ロボット システムに意味のある情報や低遅延入力を提供するには遅すぎるか、データが複雑すぎます。
イベント カメラのデータ出力は高周波で非常に軽量で、イベントあたりわずか 8 バイトです。
リアルタイム ロボット システムのデータ ソースとしてイベント カメラを使用するという仮説を評価するために、手を振っている位置がイベント データから取得され、動作コマンドとして協働ロボットに送信されます。
元の動きとロボットの動きの間で合計 110 ミリ秒の時間遅延が測定されました。遅延の多くはロボットのダイナミクスによって引き起こされます。
要約(オリジナル)
Real-time robot actuation is one of the main challenges to overcome in human-robot interaction. Most visual sensors are either too slow or their data are too complex to provide meaningful information and low latency input to a robotic system. Data output of an event camera is high-frequency and extremely lightweight, with only 8 bytes per event. To evaluate the hypothesis of using event cameras as data source for a real-time robotic system, the position of a waving hand is acquired from the event data and transmitted to a collaborative robot as a movement command. A total time delay of 110 ms was measured between the original movement and the robot movement, where much of the delay is caused by the robot dynamics.
arxiv情報
著者 | Laura Duarte,Michele Polito,Laura Gastaldi,Pedro Neto,Stefano Pastorelli |
発行日 | 2024-07-16 10:08:27+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google