要約
自動化された方法での人間の影響と精神状態の推定は、時間分解能が低いかまったくないラベルからの学習、データがほとんどない(多くの場合機密性の制約による)少数のデータセットからの学習、(非常に)長い間など、多くの困難に直面しています。
-ワイルドな動画。
これらの理由により、深層学習の方法論は過剰適合する傾向があります。つまり、最終的な回帰タスクで一般化のパフォーマンスが低い潜在的な表現に到達する傾向があります。
これを克服するために、この作業では、2つの補完的な貢献を紹介します。
最初に、学習を規則化し、より良い一般化につながるマルチラベル回帰と順序問題の新しい関係損失を紹介します。
提案された損失は、ラベルベクトルの相互関係情報を使用して、バッチラベルの距離を潜在的な特徴空間の距離に合わせることにより、より良い潜在的な表現を学習します。
次に、隣接するクリップの特徴を時間的コンテキストとして使用して、各クリップのターゲットを推定する2段階の注意アーキテクチャを利用します。
提案された方法論は、継続的な感情と統合失調症の重症度推定の問題の両方について評価します。これは、2つの間に方法論的および文脈上の類似点があるためです。
実験結果は、提案された方法論がすべてのベースラインを上回っていることを示しています。
統合失調症の領域では、提案された方法論は以前の最先端技術を大幅に上回り、人間の専門家(85%)に近い最大78%のパフォーマンスのPCCを達成し、以前の研究(隆起)よりもはるかに高い
最大40%)。
感情認識の場合、OMGデータセットとAMIGOSデータセットの両方で、CCCの点で以前の視覚ベースの方法よりも優れています。
特にAMIGOSの場合、覚醒と感情価の両方で以前のSoTA CCCをそれぞれ9%と13%アウトパフォームし、OMGデータセットでは、覚醒と感情価の両方で以前のビジョンワークを最大5%アウトパフォームします。
要約(オリジナル)
Human affect and mental state estimation in an automated manner, face a number of difficulties, including learning from labels with poor or no temporal resolution, learning from few datasets with little data (often due to confidentiality constraints) and, (very) long, in-the-wild videos. For these reasons, deep learning methodologies tend to overfit, that is, arrive at latent representations with poor generalisation performance on the final regression task. To overcome this, in this work, we introduce two complementary contributions. First, we introduce a novel relational loss for multilabel regression and ordinal problems that regularises learning and leads to better generalisation. The proposed loss uses label vector inter-relational information to learn better latent representations by aligning batch label distances to the distances in the latent feature space. Second, we utilise a two-stage attention architecture that estimates a target for each clip by using features from the neighbouring clips as temporal context. We evaluate the proposed methodology on both continuous affect and schizophrenia severity estimation problems, as there are methodological and contextual parallels between the two. Experimental results demonstrate that the proposed methodology outperforms all baselines. In the domain of schizophrenia, the proposed methodology outperforms previous state-of-the-art by a large margin, achieving a PCC of up to 78% performance close to that of human experts (85%) and much higher than previous works (uplift of up to 40%). In the case of affect recognition, we outperform previous vision-based methods in terms of CCC on both the OMG and the AMIGOS datasets. Specifically for AMIGOS, we outperform previous SoTA CCC for both arousal and valence by 9% and 13% respectively, and in the OMG dataset we outperform previous vision works by up to 5% for both arousal and valence.
arxiv情報
著者 | Niki Maria Foteinopoulou,Ioannis Patras |
発行日 | 2022-07-12 15:00:54+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google