要約
一般的な感情の推定は、長い間研究されてきた分野であり、機械学習を使用していくつかのアプローチが存在します。
このホワイトペーパーでは、カメラのライブストリームで検出された顔のために、ライブラリメディアピペによって生成されたブレンド形状を処理するLSTMモデルを提示し、表情から主な感情を推定するために、このモデルは
FER2013データセットと、FER2013データセットの精度ベンチマークを満たす71%の精度と62%のF1スコアの結果を提供し、計算コストを大幅に削減します。
https://github.com/ samir-atra/emotion_estimation_from_video_footage_with_lstm_ml_algorithm
要約(オリジナル)
Emotion estimation in general is a field that has been studied for a long time, and several approaches exist using machine learning. in this paper, we present an LSTM model, that processes the blend-shapes produced by the library MediaPipe, for a face detected in a live stream of a camera, to estimate the main emotion from the facial expressions, this model is trained on the FER2013 dataset and delivers a result of 71% accuracy and 62% f1-score which meets the accuracy benchmark of the FER2013 dataset, with significantly reduced computation costs. https://github.com/ Samir-atra/Emotion_estimation_from_video_footage_with_LSTM_ML_algorithm
arxiv情報
著者 | Samer Attrah |
発行日 | 2025-01-23 07:35:47+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google