TempoFormer: A Transformer for Temporally-aware Representations in Change Detection

要約

動的表現学習は、時間の経過に伴う言語コンテンツの進化を理解する上で極めて重要な役割を果たします。
この面では、コンテキストと時間のダイナミクス、およびそれらの相互作用の両方が最も重要です。
現在のアプローチは、事前にトレーニングされた表現を介してコンテキストをモデル化しますが、これは通常、時間的に認識されません。
コンテキストと時間ダイナミクスのモデリングに関するこれまでの研究では、時間がかかり、過剰適合しやすい再帰的手法が使用されていました。
ここでは、動的表現学習のための最初のタスクに依存しないトランスフォーマーベースの時間認識モデルである TempoFormer を紹介します。
私たちのアプローチはコンテキスト内およびコンテキスト内ダイナミクスで共同トレーニングされ、回転位置埋め込みの新しい時間的変化を導入します。
このアーキテクチャは柔軟で、他のモデルの時間表現の基盤として使用したり、さまざまなトランスフォーマーベースのアーキテクチャに適用したりできます。
3 つの異なるリアルタイム変更検出タスクにおける新しい SOTA パフォーマンスを示します。

要約(オリジナル)

Dynamic representation learning plays a pivotal role in understanding the evolution of linguistic content over time. On this front both context and time dynamics as well as their interplay are of prime importance. Current approaches model context via pre-trained representations, which are typically temporally agnostic. Previous work on modeling context and temporal dynamics has used recurrent methods, which are slow and prone to overfitting. Here we introduce TempoFormer, the fist task-agnostic transformer-based and temporally-aware model for dynamic representation learning. Our approach is jointly trained on inter and intra context dynamics and introduces a novel temporal variation of rotary positional embeddings. The architecture is flexible and can be used as the temporal representation foundation of other models or applied to different transformer-based architectures. We show new SOTA performance on three different real-time change detection tasks.

arxiv情報

著者 Talia Tseriotou,Adam Tsakalidis,Maria Liakata
発行日 2024-08-28 10:25:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク