Conveying Emotions to Robots through Touch and Sound

要約

人間の感情は、微妙なタッチのジェスチャーを通じて伝えられます。
しかし、接触を通じてどのように一貫して感情をロボットに伝えることができるのかについては理解が不足しています。
この研究では、感情的な触覚表現の触覚および聴覚による読み取りを統合することにより、ロボットに対する接触ベースの感情表現の一貫性を調査します。
私たちはピエゾ抵抗圧力センサーを開発し、マイクを使用してタッチチャンネルとサウンドチャンネルをそれぞれ模倣しました。
28人の参加者を対象とした研究では、各参加者が自発的なタッチジェスチャーを使用してロボットに10の感情を伝えました。
私たちの調査結果は、参加者間の感情表現が統計的に有意に一致していることを明らかにしました。
ただし、一部の感情では低いクラス内相関値が得られました。
さらに、同様のレベルの覚醒または価度を有する特定の感情は、その伝達方法に大きな違いを示さなかった。
その後、10 の感情をデコードするために、タッチ機能とオーディオ機能を統合したマルチモーダルを構築しました。
サポート ベクター マシン (SVM) モデルは最高の精度を示し、10 クラスで 40% を達成し、バランスのとれた精度 87.65% で最も正確に伝えられた感情は「注意」でした。

要約(オリジナル)

Human emotions can be conveyed through nuanced touch gestures. However, there is a lack of understanding of how consistently emotions can be conveyed to robots through touch. This study explores the consistency of touch-based emotional expression toward a robot by integrating tactile and auditory sensory reading of affective haptic expressions. We developed a piezoresistive pressure sensor and used a microphone to mimic touch and sound channels, respectively. In a study with 28 participants, each conveyed 10 emotions to a robot using spontaneous touch gestures. Our findings reveal a statistically significant consistency in emotion expression among participants. However, some emotions obtained low intraclass correlation values. Additionally, certain emotions with similar levels of arousal or valence did not exhibit significant differences in the way they were conveyed. We subsequently constructed a multi-modal integrating touch and audio features to decode the 10 emotions. A support vector machine (SVM) model demonstrated the highest accuracy, achieving 40% for 10 classes, with ‘Attention’ being the most accurately conveyed emotion at a balanced accuracy of 87.65%.

arxiv情報

著者 Qiaoqiao Ren,Remko Proesmans,Frederick Bossuyt,Jan Vanfleteren,Francis Wyffels,Tony Belpaeme
発行日 2024-12-04 13:17:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO パーマリンク