要約
顔の表情に基づく人間の感情認識は、心理学と医学における重要な研究分野です。
最先端の分類パフォーマンスは、エンドツーエンドでトレーニングされたニューラル ネットワークによってのみ実現されます。
それにもかかわらず、このようなブラックボックスモデルは意思決定プロセスに透明性を欠いており、分類子の決定の基礎となるルールを確認する取り組みが求められています。
単一の入力を分析するだけでは、体系的に学習されたバイアスを明らかにすることはできません。
これらのバイアスは、年齢や病状などの抽象的な情報を要約した顔の特徴として特徴付けることができます。
したがって、モデルの予測動作を理解するには、そのような選択されたプロパティに沿った因果関係に根ざした分析が必要です。
分類子の出力動作の最大 91.25% の変化が、基本プロパティに関して統計的に有意であることを示します。
その中には、年齢、性別、顔の対称性などが含まれます。
さらに、表面筋電図の医学的利用は感情予測に大きな影響を与えます。
明示的なプロパティとその影響を評価するワークフローを紹介します。
これらの洞察は、医療専門家が専門的なデータと特性に関して分類子を選択して適用するのに役立つ可能性があります。
要約(オリジナル)
Facial expression-based human emotion recognition is a critical research area in psychology and medicine. State-of-the-art classification performance is only reached by end-to-end trained neural networks. Nevertheless, such black-box models lack transparency in their decision-making processes, prompting efforts to ascertain the rules that underlie classifiers’ decisions. Analyzing single inputs alone fails to expose systematic learned biases. These biases can be characterized as facial properties summarizing abstract information like age or medical conditions. Therefore, understanding a model’s prediction behavior requires an analysis rooted in causality along such selected properties. We demonstrate that up to 91.25% of classifier output behavior changes are statistically significant concerning basic properties. Among those are age, gender, and facial symmetry. Furthermore, the medical usage of surface electromyography significantly influences emotion prediction. We introduce a workflow to evaluate explicit properties and their impact. These insights might help medical professionals select and apply classifiers regarding their specialized data and properties.
arxiv情報
著者 | Tim Büchner,Niklas Penzel,Orlando Guntinas-Lichius,Joachim Denzler |
発行日 | 2024-04-11 16:01:00+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google