Large Language Models as Proxies for Theories of Human Linguistic Cognition

要約

人間の言語認知の研究における現在の大手言語モデル(LLM)の可能な役割を考慮します。
私たちは、表現と学習が比較的言語的に中立であるが、現在のLLMSとは重要な方法で異なる認知の理論のためのプロキシなどのモデルの使用に焦点を当てています。
LLMのこの潜在的な使用は、2種類の質問の文脈における認知の理論のプロキシとしてのプロキシとして説明します。(a)ターゲット理論が特定のコーパスからの特定のパターンの獲得を説明するかどうか。
(b)ターゲット理論が、特定の類型的に見られたパターンを、類型的には不よく考えられたパターンよりも獲得しやすくするかどうか。
私たちが示す2つの質問のそれぞれについて、最近の文献に基づいて、現在のLLMがどのように役立つかをどのように助けられるかということですが、現在、この助けは非常に限られていることに注意してください。

要約(オリジナル)

We consider the possible role of current large language models (LLMs) in the study of human linguistic cognition. We focus on the use of such models as proxies for theories of cognition that are relatively linguistically-neutral in their representations and learning but differ from current LLMs in key ways. We illustrate this potential use of LLMs as proxies for theories of cognition in the context of two kinds of questions: (a) whether the target theory accounts for the acquisition of a given pattern from a given corpus; and (b) whether the target theory makes a given typologically-attested pattern easier to acquire than another, typologically-unattested pattern. For each of the two questions we show, building on recent literature, how current LLMs can potentially be of help, but we note that at present this help is quite limited.

arxiv情報

著者 Imry Ziv,Nur Lan,Emmanuel Chemla,Roni Katzir
発行日 2025-02-11 16:38:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク