要約
ロボットがオフィスなどの日常空間に進出すると、ロボットが発する音はロボットの認識に影響を与えます。
私たちは、ロボットの関節動作と音の間の新しいマッピングである「音楽モード」を紹介します。これは、ロボットが動きながら音楽を生成するようにアーティストやエンジニアによってプログラムされています。
人間のユーザーに対するこの音楽拡張の効果を特徴付けるために、2 つの実験が計画されました。
最初の実験では、ロボットが 3 つの異なるサウンド マッピングを再生しながら 3 つのタスクを実行しました。
その結果、ロボットを観察した参加者は、ミュージック モード オーケストラ ソフトウェアを再生すると、ロボットがより安全で、生き生きとしており、知的で、擬人化されており、好感が持てるものであると認識したことがわかりました。
最初の実験の結果が音楽だけではなく、音楽モード アルゴリズムによるものかどうかをテストするために、2 番目の実験を実施しました。
ここではロボットが同じ 3 つのタスクを実行し、参加者はビデオで観察しましたが、オーケストラ音楽はロボットの動きにリンクされているか、ランダムでした。
参加者は、音楽が動きにリンクされている場合にロボットがより賢くなると評価しました。
音楽モードを使用するロボットは、移動、テーブルの拭き掃除、ゴミの分別などを行う約 200 時間の動作を記録し、この動作時間中に行われた傍観者のコメントが埋め込みケーススタディとして役立ちました。
貢献内容は次のとおりです:(1) 現実世界のロボットサウンド機能を開発するための学際的な振り付け、音楽、およびコーディングの設計プロセス、(2) 動作ベースのサウンド生成の技術的実装、および (3) 2 つの実験と埋め込みケース
日常の作業活動中にこの機能を実行するロボットの研究により、ロボットの好感度が向上し、知性が認識されるようになりました。
要約(オリジナル)
As robots enter everyday spaces like offices, the sounds they create affect how they are perceived. We present ‘Music Mode’, a novel mapping between a robot’s joint motions and sounds, programmed by artists and engineers to make the robot generate music as it moves. Two experiments were designed to characterize the effect of this musical augmentation on human users. In the first experiment, a robot performed three tasks while playing three different sound mappings. Results showed that participants observing the robot perceived it as more safe, animate, intelligent, anthropomorphic, and likable when playing the Music Mode Orchestral software. To test whether the results of the first experiment were due to the Music Mode algorithm, rather than music alone, we conducted a second experiment. Here the robot performed the same three tasks, while a participant observed via video, but the Orchestral music was either linked to its movement or random. Participants rated the robots as more intelligent when the music was linked to the movement. Robots using Music Mode logged approximately two hundred hours of operation while navigating, wiping tables, and sorting trash, and bystander comments made during this operating time served as an embedded case study. The contributions are: (1) an interdisciplinary choreographic, musical, and coding design process to develop a real-world robot sound feature, (2) a technical implementation for movement-based sound generation, and (3) two experiments and an embedded case study of robots running this feature during daily work activities that resulted in increased likeability and perceived intelligence of the robot.
arxiv情報
| 著者 | Catie Cuan,Emre Fisher,Allison Okamura,Tom Engbersen |
| 発行日 | 2023-06-05 07:04:45+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google