A Benchmark for Incremental Micro-expression Recognition

要約

微表情認識は、隠れた感情を理解する上で極めて重要な役割を果たし、様々な分野に応用されている。従来の認識手法は、一度にすべての学習データにアクセスできることを前提としているが、実世界のシナリオには、継続的に進化するデータストリームが含まれている。我々は、以前に学習した知識を保持しながら新しいデータに適応するという要求に応えるため、インクリメンタルな微表情認識のために特別に設計された最初のベンチマークを紹介する。我々の貢献は以下の通りである:第一に、微表情認識に適したインクリメンタル学習設定を定式化する。第二に、実世界のシナリオを反映するように、注意深く学習順序を調整した逐次データセットを編成する。第3に、2つの相互評価ベースのテスト・プロトコルを定義し、それぞれ異なる評価目的をターゲットとする。最後に、6つのベースライン手法とそれに対応する評価結果を提供する。このベンチマークは、インクリメンタルな微表情認識研究を進めるための基礎となる。本研究で使用したすべてのソースコードは、https://github.com/ZhengQinLai/IMER-benchmark で公開される。

要約(オリジナル)

Micro-expression recognition plays a pivotal role in understanding hidden emotions and has applications across various fields. Traditional recognition methods assume access to all training data at once, but real-world scenarios involve continuously evolving data streams. To respond to the requirement of adapting to new data while retaining previously learned knowledge, we introduce the first benchmark specifically designed for incremental micro-expression recognition. Our contributions include: Firstly, we formulate the incremental learning setting tailored for micro-expression recognition. Secondly, we organize sequential datasets with carefully curated learning orders to reflect real-world scenarios. Thirdly, we define two cross-evaluation-based testing protocols, each targeting distinct evaluation objectives. Finally, we provide six baseline methods and their corresponding evaluation results. This benchmark lays the groundwork for advancing incremental micro-expression recognition research. All source code used in this study will be publicly available at https://github.com/ZhengQinLai/IMER-benchmark.

arxiv情報

著者 Zhengqin Lai,Xiaopeng Hong,Yabin Wang,Xiaobai Li
発行日 2025-02-03 08:14:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV パーマリンク