要約
この研究は、水中潜水中に人間の意図を認識するためのマルチモーダルなメカニズムを提示し、潜水支援のための水中スーパーリムを通じて自然な人間とロボットの相互作用を実現することを目的としています。
水中環境はダイバーの意思表現能力を大きく制限しており、さまざまなダイビングスーツやギアを使用して体の姿勢を 3D で制御しながらツールを操作する場合、その能力はさらに困難になります。
現在の文献は水中での意図認識に限界があり、水中での人間とロボットの相互作用のためのインテリジェントウェアラブルシステムの開発を妨げています。
ここでは、コンパクトなウェアラブル設計で水中での頭の動きと喉の振動を同時に検出する新しいソリューションを紹介します。
実験結果は、機械学習アルゴリズムを使用して、これら 2 つのモダリティを統合して人間の意図を水中超肢システムのロボット制御コマンドに変換する際に高いパフォーマンスを達成したことを示しています。
この研究の結果は、過剰なサポートを伴う水中意図認識および水中での人間とロボットの相互作用における将来の開発への道を切り開きました。
要約(オリジナル)
This study presents a multi-modal mechanism for recognizing human intentions while diving underwater, aiming to achieve natural human-robot interactions through an underwater superlimb for diving assistance. The underwater environment severely limits the divers’ capabilities in intention expression, which becomes more challenging when they intend to operate tools while keeping control of body postures in 3D with the various diving suits and gears. The current literature is limited in underwater intention recognition, impeding the development of intelligent wearable systems for human-robot interactions underwater. Here, we present a novel solution to simultaneously detect head motion and throat vibrations under the water in a compact, wearable design. Experiment results show that using machine learning algorithms, we achieved high performance in integrating these two modalities to translate human intentions to robot control commands for an underwater superlimb system. This study’s results paved the way for future development in underwater intention recognition and underwater human-robot interactions with supernumerary support.
arxiv情報
著者 | Yuqin Guo,Rongzheng Zhang,Wanghongjie Qiu,Harry Asada,Fang Wan,Chaoyang Song |
発行日 | 2023-06-08 04:19:23+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google