Attention-aware semantic relevance predicting Chinese sentence reading

要約

近年、人間が文章をどのように理解し、処理するかを予測するために、いくつかの影響力のある計算モデルと指標が提案されています。
特に有望なアプローチの 1 つは、文脈上の意味の類似性です。
Transformer の注意アルゴリズムと人間の記憶メカニズムに触発されたこの研究は、文脈上の意味的関連性を計算するための「注意を認識する」アプローチを提案しています。
この新しいアプローチでは、コンテキスト部分のさまざまな寄与と期待効果が考慮され、コンテキスト情報を完全に組み込むことができます。
注意を意識したアプローチにより、既存の読書モデルのシミュレーションと評価も容易になります。
結果として得られる意味的関連性の「注意を意識した」指標は、視線追跡コーパスに記録された中国語の読解タスクの注視時間を、既存のアプローチで計算したものよりも正確に予測できます。
この研究結果はさらに、中国語の自然主義的な読書に意味論的プレビューの利点が存在することを強力に裏付けています。
さらに、意味的関連性の注意を意識したメトリクスは、記憶に基づいているため、言語的および認知的観点の両方から高い解釈可能性を備えており、読書時の目の動きをモデル化し、言語理解のプロセスについてさらに洞察を得る上で貴重な計算ツールとなっています。
私たちのアプローチは、人間がどのように言語を理解し、処理するかについての理解を前進させ、最終的には言語の理解と処理のより深い理解につながる、これらの指標の可能性を強調しています。

要約(オリジナル)

In recent years, several influential computational models and metrics have been proposed to predict how humans comprehend and process sentence. One particularly promising approach is contextual semantic similarity. Inspired by the attention algorithm in Transformer and human memory mechanisms, this study proposes an “attention-aware” approach for computing contextual semantic relevance. This new approach takes into account the different contributions of contextual parts and the expectation effect, allowing it to incorporate contextual information fully. The attention-aware approach also facilitates the simulation of existing reading models and evaluate them. The resulting “attention-aware” metrics of semantic relevance can more accurately predict fixation durations in Chinese reading tasks recorded in an eye-tracking corpus than those calculated by existing approaches. The study’s findings further provide strong support for the presence of semantic preview benefits in Chinese naturalistic reading. Furthermore, the attention-aware metrics of semantic relevance, being memory-based, possess high interpretability from both linguistic and cognitive standpoints, making them a valuable computational tool for modeling eye-movements in reading and further gaining insight into the process of language comprehension. Our approach underscores the potential of these metrics to advance our comprehension of how humans understand and process language, ultimately leading to a better understanding of language comprehension and processing.

arxiv情報

著者 Kun Sun
発行日 2024-03-27 13:22:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG パーマリンク