要約
身体支援ロボットは、運動機能障害やその他の障害を持ち、日常生活動作 (ADL) を完了できない個人の幸福と自立を大幅に向上させる機会を提供します。
音声インターフェイス、特に大規模言語モデル (LLM) を利用したインターフェイスを使用すると、個人が高レベルのコマンドや微妙な好みをロボットに効果的かつ自然に伝えることができます。
この研究では、市販の給餌補助ロボット用の LLM ベースの音声インターフェイスを実証します。
私たちのシステムは、論文「VoicePilot: Harnessing LLMs as Speech Interfaces for Physically Assistive Robots」に基づいて反復設計されたフレームワークに基づいており、LLM をロボットのインターフェイスとして統合するための人間中心の要素が組み込まれています。
自立生活施設の高齢者 11 名を対象としたユーザー調査を通じて評価されました。
ビデオはプロジェクトの Web サイト (https://sites.google.com/andrew.cmu.edu/voicepilot/) にあります。
要約(オリジナル)
Physically assistive robots present an opportunity to significantly increase the well-being and independence of individuals with motor impairments or other forms of disability who are unable to complete activities of daily living (ADLs). Speech interfaces, especially ones that utilize Large Language Models (LLMs), can enable individuals to effectively and naturally communicate high-level commands and nuanced preferences to robots. In this work, we demonstrate an LLM-based speech interface for a commercially available assistive feeding robot. Our system is based on an iteratively designed framework, from the paper ‘VoicePilot: Harnessing LLMs as Speech Interfaces for Physically Assistive Robots,’ that incorporates human-centric elements for integrating LLMs as interfaces for robots. It has been evaluated through a user study with 11 older adults at an independent living facility. Videos are located on our project website: https://sites.google.com/andrew.cmu.edu/voicepilot/.
arxiv情報
著者 | Jessie Yuan,Janavi Gupta,Akhil Padmanabha,Zulekha Karachiwalla,Carmel Majidi,Henny Admoni,Zackory Erickson |
発行日 | 2024-10-27 22:56:51+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google