Says Who? Effective Zero-Shot Annotation of Focalization

要約

フォーカライゼーション、つまり物語が提示される視点は、幅広い語彙文法上の特徴を介してコード化されており、読者の解釈の対象となります。
さらに、訓練を受けた読者の間では解釈について意見が異なることがよくあり、この問題が計算的に解決できない可能性があることが示唆されています。
この論文では、焦点化モードで文学テキストに注釈を付ける際に、現代の大規模言語モデル (LLM) がどの程度うまく機能するかをテストする実験を提供します。
タスクの困難な性質にもかかわらず、LLM は、私たちの実験で訓練を受けたヒューマン アノテーターと同等のパフォーマンスを示しました。
私たちは、スティーヴン・キングの小説を使ったケーススタディを提供し、計算文学研究におけるこのアプローチの有用性を実証し、フォーカライゼーションを大規模に研究できる方法を示します。

要約(オリジナル)

Focalization, the perspective through which narrative is presented, is encoded via a wide range of lexico-grammatical features and is subject to reader interpretation. Moreover, trained readers regularly disagree on interpretations, suggesting that this problem may be computationally intractable. In this paper, we provide experiments to test how well contemporary Large Language Models (LLMs) perform when annotating literary texts for focalization mode. Despite the challenging nature of the task, LLMs show comparable performance to trained human annotators in our experiments. We provide a case study working with the novels of Stephen King to demonstrate the usefulness of this approach for computational literary studies, illustrating how focalization can be studied at scale.

arxiv情報

著者 Rebecca M. M. Hicke,Yuri Bizzoni,Pascale Feldkamp,Ross Deans Kristensen-McLachlan
発行日 2024-09-17 17:50:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG パーマリンク