要約
豊かな表情を表示する能力は、人間のようなロボットの頭部にとって非常に重要です。
このような式を手動で定義するのは複雑ですが、それらを自動的に学習するアプローチがすでに存在します。
この研究では、そのようなアプローチの 1 つが、元の研究とは異なるロボット ヘッドの評価と制御に適用されます。
人間の俳優からロボットの頭部への顔の表情のマッピングを改善するために、以前に使用されていた顔のアクション単位の代わりに、3D ランドマークとそのペアごとの距離を学習アルゴリズムへの入力として使用することが提案されています。
オンライン調査の参加者は、ほとんどの場合、私たちが提案したアプローチによるマッピングを好みましたが、さらに改善が必要です。
要約(オリジナル)
The ability to display rich facial expressions is crucial for human-like robotic heads. While manually defining such expressions is intricate, there already exist approaches to automatically learn them. In this work one such approach is applied to evaluate and control a robot head different from the one in the original study. To improve the mapping of facial expressions from human actors onto a robot head, it is proposed to use 3D landmarks and their pairwise distances as input to the learning algorithm instead of the previously used facial action units. Participants of an online survey preferred mappings from our proposed approach in most cases, though there are still further improvements required.
arxiv情報
著者 | Marcel Heisler,Christian Becker-Asano |
発行日 | 2024-12-18 09:20:20+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google