Reanalyzing L2 Preposition Learning with Bayesian Mixed Effects and a Large Language Model

要約

ベイジアン モデルとニューラル モデルの両方を使用して、英語の前置詞の理解度を測定する 2 つのテストに対する中国人学習者の介入前後の反応のデータ セットを分析しました。
その結果は、頻度論的分析から得られた以前の調査結果をほぼ再現しており、生徒の能力、タスクの種類、および刺激文の間の重要な相互作用が新たに明らかになりました。
データがまばらで、学習者間の多様性が高いことを考えると、ベイズ法が最も有用であることがわかります。
しかし、言語モデルの確率を文法性と学習可能性の予測因子として使用することにも可能性があると考えています。

要約(オリジナル)

We use both Bayesian and neural models to dissect a data set of Chinese learners’ pre- and post-interventional responses to two tests measuring their understanding of English prepositions. The results mostly replicate previous findings from frequentist analyses and newly reveal crucial interactions between student ability, task type, and stimulus sentence. Given the sparsity of the data as well as high diversity among learners, the Bayesian method proves most useful; but we also see potential in using language model probabilities as predictors of grammaticality and learnability.

arxiv情報

著者 Jakob Prange,Man Ho Ivy Wong
発行日 2023-02-16 08:54:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク