要約
この作業では、孤立した単語の読唇術のための Densely Connected Temporal Convolutional Network (DC-TCN) を提示します。
時間畳み込みネットワーク (TCN) は最近、多くの視覚タスクで大きな可能性を示しましたが、その受容野は、読唇術のシナリオで複雑な時間的ダイナミクスをモデル化するのに十分な密度ではありません。
この問題に対処するために、ネットワークに密な接続を導入して、より堅牢な時間的特徴をキャプチャします。
さらに、私たちのアプローチは、モデルの分類力をさらに強化するために、軽量のアテンション メカニズムである Squeeze-and-Excitation ブロックを利用します。
追加機能なしで、当社の DC-TCN メソッドは、Lip Reading in the Wild (LRW) データセットで 88.36% の精度を達成し、LRW-1000 データセットで 43.65% の精度を達成しました。これは、すべてのベースライン メソッドを上回り、新しい状態です。
-両方のデータセットのアート。
要約(オリジナル)
In this work, we present the Densely Connected Temporal Convolutional Network (DC-TCN) for lip-reading of isolated words. Although Temporal Convolutional Networks (TCN) have recently demonstrated great potential in many vision tasks, its receptive fields are not dense enough to model the complex temporal dynamics in lip-reading scenarios. To address this problem, we introduce dense connections into the network to capture more robust temporal features. Moreover, our approach utilises the Squeeze-and-Excitation block, a light-weight attention mechanism, to further enhance the model’s classification power. Without bells and whistles, our DC-TCN method has achieved 88.36% accuracy on the Lip Reading in the Wild (LRW) dataset and 43.65% on the LRW-1000 dataset, which has surpassed all the baseline methods and is the new state-of-the-art on both datasets.
arxiv情報
著者 | Pingchuan Ma,Yujiang Wang,Jie Shen,Stavros Petridis,Maja Pantic |
発行日 | 2022-09-29 14:50:00+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google