AutoGCN – Towards Generic Human Activity Recognition with Neural Architecture Search

要約

本稿では、グラフ畳み込みネットワーク(GCN)を用いた人間行動認識(HAR)のための汎用的なニューラルアーキテクチャ探索(NAS)アルゴリズムであるAutoGCNを紹介する。HARは、ディープラーニングの進歩、データの利用可能性の増加、計算能力の向上により注目を集めている。同時に、GCNは骨格グラフにおける身体のキーポイント間の関係をモデル化することで有望な結果を示している。領域の専門家は、しばしばデータセット固有のGCNベースの手法を作成しますが、この特定のコンテキストを超えた適用可能性は著しく制限されています。AutoGCNは、強化コントローラを用いて、最適な探索と探索の動作のバランスをとりながら、探索プロセス中の知識リザーバを利用して、理想的なハイパーパラメータとアーキテクチャの組み合わせを汎用的な探索空間内で同時に探索することで、この制限に対処しようとしている。提案アルゴリズムの性能を評価するために、骨格に基づく行動認識に焦点を当てた2つの大規模データセットを用いて広範な実験を行う。我々の実験結果は、HARに最適なGCNアーキテクチャを構築するAutoGCNの有効性を強調し、従来のNASとGCN手法、およびランダム探索を凌駕する。これらの結果は、ネットワークの性能と汎化性を向上させるための多様な探索空間と表現力豊かな入力表現の重要性を強調するものである。

要約(オリジナル)

This paper introduces AutoGCN, a generic Neural Architecture Search (NAS) algorithm for Human Activity Recognition (HAR) using Graph Convolution Networks (GCNs). HAR has gained attention due to advances in deep learning, increased data availability, and enhanced computational capabilities. At the same time, GCNs have shown promising results in modeling relationships between body key points in a skeletal graph. While domain experts often craft dataset-specific GCN-based methods, their applicability beyond this specific context is severely limited. AutoGCN seeks to address this limitation by simultaneously searching for the ideal hyperparameters and architecture combination within a versatile search space using a reinforcement controller while balancing optimal exploration and exploitation behavior with a knowledge reservoir during the search process. We conduct extensive experiments on two large-scale datasets focused on skeleton-based action recognition to assess the proposed algorithm’s performance. Our experimental results underscore the effectiveness of AutoGCN in constructing optimal GCN architectures for HAR, outperforming conventional NAS and GCN methods, as well as random search. These findings highlight the significance of a diverse search space and an expressive input representation to enhance the network performance and generalizability.

arxiv情報

著者 Felix Tempel,Inga Strümke,Espen Alexander F. Ihlen
発行日 2024-02-05 09:27:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク