An Approach for Improving Automatic Mouth Emotion Recognition

要約

この研究では、畳み込みニューラル ネットワーク (CNN) を介した口検出による自動感情認識の手法を提案し、テストしています。これは、コミュニケーション スキルの問題 (筋肉の消耗、脳卒中、自閉症など) を伴う健康障害を持つ人々のサポートに適用することを目的としています。
痛み) 感情を認識し、リアルタイムのフィードバックを生成するため、またはデータ フィード サポート システム。
ソフトウェア システムは、取得した画像に顔が存在するかどうかを識別する計算を開始し、口の位置を探して、対応する特徴を抽出します。
両方のタスクは、Haar 機能ベースの分類子を使用して実行され、高速な実行と有望なパフォーマンスが保証されます。
私たちの以前の研究が、1 人のユーザーに対するパーソナライズされたトレーニングのための視覚的なマイクロ表現に焦点を当てていた場合、この戦略は、一般化された顔データ セットでもシステムをトレーニングすることを目的としています。

要約(オリジナル)

The study proposes and tests a technique for automated emotion recognition through mouth detection via Convolutional Neural Networks (CNN), meant to be applied for supporting people with health disorders with communication skills issues (e.g. muscle wasting, stroke, autism, or, more simply, pain) in order to recognize emotions and generate real-time feedback, or data feeding supporting systems. The software system starts the computation identifying if a face is present on the acquired image, then it looks for the mouth location and extracts the corresponding features. Both tasks are carried out using Haar Feature-based Classifiers, which guarantee fast execution and promising performance. If our previous works focused on visual micro-expressions for personalized training on a single user, this strategy aims to train the system also on generalized faces data sets.

arxiv情報

著者 Giulio Biondi,Valentina Franzoni,Osvaldo Gervasi,Damiano Perri
発行日 2022-12-12 16:17:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク