Enhanced Robot Arm at the Edge with NLP and Vision Systems

要約

この論文では、エッジ コンピューティングと自然言語処理 (NLP) およびコンピューター ビジョンを統合して人間とロボット システムの間のインタラクションを強化する、支援ロボット工学への新しいアプローチの「概念実証」を紹介します。
私たちの「概念実証」は、自然言語を通じて伝えられる複雑なコマンドを解釈して実行するために、大規模言語モデル (LLM) とビジョン システムを連携して使用する実現可能性を示しています。
この統合は、支援ロボット システムの直観性とアクセシビリティを向上させ、障害のあるユーザーの微妙なニーズにより適応できるようにすることを目的としています。
エッジ コンピューティングの機能を活用することで、当社のシステムは遅延を最小限に抑え、オフライン機能をサポートし、支援ロボットの自律性と応答性を強化する可能性があります。
ロボットアームへの実装による実験結果は、正確な意図解釈と口頭コマンドに基づくオブジェクト操作という点で有望な結果を示しています。
この研究は、障害のある人の生活の質を大幅に向上させることができる、応答性の高いユーザー中心のシステムの作成に焦点を当てた、支援ロボット工学の将来の開発の基礎を築きます。

要約(オリジナル)

This paper introduces a ‘proof of concept’ for a new approach to assistive robotics, integrating edge computing with Natural Language Processing (NLP) and computer vision to enhance the interaction between humans and robotic systems. Our ‘proof of concept’ demonstrates the feasibility of using large language models (LLMs) and vision systems in tandem for interpreting and executing complex commands conveyed through natural language. This integration aims to improve the intuitiveness and accessibility of assistive robotic systems, making them more adaptable to the nuanced needs of users with disabilities. By leveraging the capabilities of edge computing, our system has the potential to minimize latency and support offline capability, enhancing the autonomy and responsiveness of assistive robots. Experimental results from our implementation on a robotic arm show promising outcomes in terms of accurate intent interpretation and object manipulation based on verbal commands. This research lays the groundwork for future developments in assistive robotics, focusing on creating highly responsive, user-centric systems that can significantly improve the quality of life for individuals with disabilities.

arxiv情報

著者 Pascal Sikorski,Kaleb Yu,Lucy Billadeau,Flavio Esposito,Hadi AliAkbarpour,Madi Babaiasl
発行日 2024-05-27 21:33:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク