Learning to Anticipate Future with Dynamic Context Removal

要約

将来のイベントを予測することは、インテリジェントシステムと具体化されたAIにとって不可欠な機能です。
ただし、従来の認識タスクと比較すると、将来の不確実性と推論能力の要件により、予測タスクは非常に困難であり、解決をはるかに超えています。
このファイルでは、以前の方法は通常、モデルアーキテクチャの設計に重点を置いていますが、適切な学習ポリシーを使用して予測モデルをトレーニングする方法にはほとんど注意が払われていません。
この目的のために、この作業では、動的コンテキスト除去(DCR)と呼ばれる新しいトレーニングスキームを提案します。これは、学習手順で観察された将来の可視性を動的にスケジュールします。
これは、人間のようなカリキュラム学習プロセスに従います。つまり、イベントコンテキストを徐々に削除して、最終的な予測目標を達成するまで予測の難易度を上げます。
私たちの学習スキームはプラグアンドプレイであり、変圧器やLSTMを含むあらゆる推論モデルを簡単に統合でき、有効性と効率の両方に利点があります。
大規模な実験で、提案された方法は、4つの広く使用されているベンチマークで最先端を達成します。
私たちのコードとモデルはhttps://github.com/AllenXuuu/DCRで公開されています。

要約(オリジナル)

Anticipating future events is an essential feature for intelligent systems and embodied AI. However, compared to the traditional recognition task, the uncertainty of future and reasoning ability requirement make the anticipation task very challenging and far beyond solved. In this filed, previous methods usually care more about the model architecture design or but few attention has been put on how to train an anticipation model with a proper learning policy. To this end, in this work, we propose a novel training scheme called Dynamic Context Removal (DCR), which dynamically schedules the visibility of observed future in the learning procedure. It follows the human-like curriculum learning process, i.e., gradually removing the event context to increase the anticipation difficulty till satisfying the final anticipation target. Our learning scheme is plug-and-play and easy to integrate any reasoning model including transformer and LSTM, with advantages in both effectiveness and efficiency. In extensive experiments, the proposed method achieves state-of-the-art on four widely-used benchmarks. Our code and models are publicly released at https://github.com/AllenXuuu/DCR.

arxiv情報

著者 Xinyu Xu,Yong-Lu Li,Cewu Lu
発行日 2022-06-27 15:28:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク