要約
自動化された方法での人間の影響と精神状態の推定は、多くの困難に直面します。たとえば、時間分解能が低いかまったくないラベルからの学習、データがほとんどない少数のデータセットからの学習 (多くの場合、機密性の制約による)、および (非常に) 長い、
-野生のビデオ。
これらの理由から、深層学習の方法論はオーバーフィットする傾向があります。つまり、最終的な回帰タスクで一般化パフォーマンスが低い潜在的な表現に到達する傾向があります。
これを克服するために、この作業では、2 つの補完的な貢献を紹介します。
最初に、学習を正則化し、より良い一般化につながる、マルチラベル回帰と順序問題の新しい関係損失を導入します。
提案された損失は、ラベル ベクトルの相互関係情報を使用して、バッチ ラベル距離を潜在特徴空間の距離に合わせることで、より優れた潜在表現を学習します。
次に、隣接するクリップの特徴を時間的コンテキストとして使用して、各クリップのターゲットを推定する 2 段階のアテンション アーキテクチャを利用します。
提案された方法論は、継続的な影響と統合失調症の重症度推定の問題の両方で評価されます。これは、両者の間に方法論的および文脈上の類似点があるためです。
実験結果は、提案された方法論がすべてのベースラインより優れていることを示しています。
統合失調症の領域では、提案された方法論は以前の最先端技術を大幅に上回り、人間の専門家のパフォーマンス (85%) に近い最大 78% の PCC を達成し、以前の研究 (隆起
最大 40%)。
感情認識の場合、OMG データセットと AMIGOS データセットの両方で、CCC に関して以前の視覚ベースの方法よりも優れています。
特に AMIGOS の場合、覚醒と価数の両方で以前の SoTA CCC をそれぞれ 9% と 13% 上回っており、OMG データセットでは、覚醒と価数の両方で以前のビジョン作品を最大 5% 上回っています。
要約(オリジナル)
Human affect and mental state estimation in an automated manner, face a number of difficulties, including learning from labels with poor or no temporal resolution, learning from few datasets with little data (often due to confidentiality constraints) and, (very) long, in-the-wild videos. For these reasons, deep learning methodologies tend to overfit, that is, arrive at latent representations with poor generalisation performance on the final regression task. To overcome this, in this work, we introduce two complementary contributions. First, we introduce a novel relational loss for multilabel regression and ordinal problems that regularises learning and leads to better generalisation. The proposed loss uses label vector inter-relational information to learn better latent representations by aligning batch label distances to the distances in the latent feature space. Second, we utilise a two-stage attention architecture that estimates a target for each clip by using features from the neighbouring clips as temporal context. We evaluate the proposed methodology on both continuous affect and schizophrenia severity estimation problems, as there are methodological and contextual parallels between the two. Experimental results demonstrate that the proposed methodology outperforms all baselines. In the domain of schizophrenia, the proposed methodology outperforms previous state-of-the-art by a large margin, achieving a PCC of up to 78% performance close to that of human experts (85%) and much higher than previous works (uplift of up to 40%). In the case of affect recognition, we outperform previous vision-based methods in terms of CCC on both the OMG and the AMIGOS datasets. Specifically for AMIGOS, we outperform previous SoTA CCC for both arousal and valence by 9% and 13% respectively, and in the OMG dataset we outperform previous vision works by up to 5% for both arousal and valence.
arxiv情報
著者 | Niki Maria Foteinopoulou,Ioannis Patras |
発行日 | 2022-08-15 12:45:57+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google