要約
この研究は主に、人間とコンピュータの対話におけるコンピュータ ビジョンに基づく自然なジェスチャ認識の応用を調査し、ジェスチャ認識技術を通じて人間とコンピュータの対話の流暢性と自然性を向上させることを目的としています。
仮想現実、拡張現実、スマート ホームの分野では、従来の入力方法ではインタラクティブな体験に対するユーザーのニーズを徐々に満たせなくなってきました。
直感的で便利なインタラクション方法として、ジェスチャーはますます注目を集めています。
本稿では、三次元手の骨格モデルに基づくジェスチャ認識手法を提案する。
手の関節の三次元空間分布をシミュレーションすることにより、単純化された手の骨格構造を構築します。
手のひらと指の各関節を接続することにより、手の動的および静的なジェスチャ モデルが形成され、ジェスチャ認識の精度と効率がさらに向上します。
実験結果は、この方法がさまざまなジェスチャを効果的に認識し、さまざまな環境において高い認識精度とリアルタイム応答能力を維持できることを示しています。
さらに、アイトラッキングなどのマルチモーダルテクノロジーと組み合わせることで、ジェスチャ認識システムのインテリジェンスレベルがさらに向上し、より豊かで直感的なユーザーエクスペリエンスを実現できます。
将来的には、コンピュータービジョン、ディープラーニング、マルチモーダルインタラクションテクノロジーの継続的な開発により、ジェスチャーに基づく自然なインタラクションがより幅広いアプリケーションシナリオで重要な役割を果たし、人間とコンピューターのインタラクションの革命的な進歩を促進するでしょう。
要約(オリジナル)
This study mainly explores the application of natural gesture recognition based on computer vision in human-computer interaction, aiming to improve the fluency and naturalness of human-computer interaction through gesture recognition technology. In the fields of virtual reality, augmented reality and smart home, traditional input methods have gradually failed to meet the needs of users for interactive experience. As an intuitive and convenient interaction method, gestures have received more and more attention. This paper proposes a gesture recognition method based on a three-dimensional hand skeleton model. By simulating the three-dimensional spatial distribution of hand joints, a simplified hand skeleton structure is constructed. By connecting the palm and each finger joint, a dynamic and static gesture model of the hand is formed, which further improves the accuracy and efficiency of gesture recognition. Experimental results show that this method can effectively recognize various gestures and maintain high recognition accuracy and real-time response capabilities in different environments. In addition, combined with multimodal technologies such as eye tracking, the intelligence level of the gesture recognition system can be further improved, bringing a richer and more intuitive user experience. In the future, with the continuous development of computer vision, deep learning and multimodal interaction technology, natural interaction based on gestures will play an important role in a wider range of application scenarios and promote revolutionary progress in human-computer interaction.
arxiv情報
著者 | Fenghua Shao,Tong Zhang,Shang Gao,Qi Sun,Liuqingqing Yang |
発行日 | 2024-12-24 10:13:20+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google