要約
モバイル デバイスへの対話インターフェイスの統合は広く普及しており、幅広いサービスが提供されています。
テクノロジーの進歩に伴い、人間と効果的に対話できるように人間に似た機能を備えたヒューマノイド ロボットが注目を集めており、高度なヒューマン ロボット対話インターフェイスの使用が拡大し続けています。
この文脈において、感情認識は、ロボットが人間の意図を理解できるようにすることで、人間とロボットの相互作用を強化する上で重要な役割を果たします。
この研究では、移動型ヒューマノイドロボットに統合され、複数の個人のリアルタイムの感情をユーザーインターフェイス上に表示できる顔の感情検出インターフェイスを提案します。
この目的を達成するために、顔の表情認識のためのさまざまなディープ ニューラル ネットワーク モデルが開発され、コンピューターベースの一貫した条件下で評価され、有望な結果が得られました。
その後、このアプリケーションをモバイル ヒューマノイド ロボットに効果的に実装するために、精度とメモリ フットプリントの間のトレードオフが慎重に検討されました。
要約(オリジナル)
The integration of dialogue interfaces in mobile devices has become ubiquitous, providing a wide array of services. As technology progresses, humanoid robots designed with human-like features to interact effectively with people are gaining prominence, and the use of advanced human-robot dialogue interfaces is continually expanding. In this context, emotion recognition plays a crucial role in enhancing human-robot interaction by enabling robots to understand human intentions. This research proposes a facial emotion detection interface integrated into a mobile humanoid robot, capable of displaying real-time emotions from multiple individuals on a user interface. To this end, various deep neural network models for facial expression recognition were developed and evaluated under consistent computer-based conditions, yielding promising results. Afterwards, a trade-off between accuracy and memory footprint was carefully considered to effectively implement this application on a mobile humanoid robot.
arxiv情報
著者 | Mohamed Ala Yahyaoui,Mouaad Oujabour,Leila Ben Letaifa,Amine Bohi |
発行日 | 2025-01-13 11:12:47+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google