要約
一度に 1 トークンずつ文を処理する増分モデルでは、複数の解釈が可能な箇所に遭遇することがあります。
因果モデルは 1 つの解釈を出力して続行することを強制されますが、修正可能なモデルは曖昧さが解決されるにつれて以前の出力を編集できます。
この研究では、自己回帰モデルでは実行できないリビジョンを引き起こすプロセスを明らかにするために、再起動増分トランスフォーマーがどのように内部状態を構築および更新するかを調べます。
我々は、増分状態を分析する解釈可能な方法を提案し、それらの逐次構造が庭の小道の効果とその解決に関する情報をエンコードしていることを示します。
私たちの手法は、文脈化された意味表現と依存関係解析のためのさまざまな双方向エンコーダに関する洞察をもたらし、改訂に関して因果モデルよりも利点を示すことに貢献します。
要約(オリジナル)
Incremental models that process sentences one token at a time will sometimes encounter points where more than one interpretation is possible. Causal models are forced to output one interpretation and continue, whereas models that can revise may edit their previous output as the ambiguity is resolved. In this work, we look at how restart-incremental Transformers build and update internal states, in an effort to shed light on what processes cause revisions not viable in autoregressive models. We propose an interpretable way to analyse the incremental states, showing that their sequential structure encodes information on the garden path effect and its resolution. Our method brings insights on various bidirectional encoders for contextualised meaning representation and dependency parsing, contributing to show their advantage over causal models when it comes to revisions.
arxiv情報
著者 | Brielen Madureira,Patrick Kahardipraja,David Schlangen |
発行日 | 2024-02-20 16:09:49+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google