Large language models and linguistic intentionality

要約

Chat-GPT や LLaMa のような大規模な言語モデルは、生成される単語を有意義に使用していますか?
それとも、統計的にもっともらしいテキストを生成することで言語の使用をシミュレートする、単なる賢い予測マシンなのでしょうか?
これらのモデルが精神内容のメタ意味理論に従って意味のある状態に入る基準を満たしていることを示すことによって、この質問に答えるための最初の試みがすでにいくつか行われています。
この論文では、私は別のアプローチを主張します。代わりに、言語モデルが言語内容の最良のメタセマンティック理論によって与えられる基準を満たしているかどうかを検討する必要があるということです。
その流れで、私は言語モデルの場合にそのような 2 つの理論を適用することによって、これがどのように行われるかを説明します。Gareth Evans (1982) の命名慣行に関する説明と、Ruth Millikan (1984、2004、2005) のテレオーマンティクスです。
そうすることで、私は、LLMが精神的意図性にとってもっともらしい条件を満たさないことが、それによってその出力を意味のないものにしてしまうと考えるのは間違いであり、言語的意図性の際立った特徴である既存の言語システムへの依存であると主張するつもりである。
LLM の出力が意味のある、もっともらしい結果が得られます。

要約(オリジナル)

Do large language models like Chat-GPT or LLaMa meaningfully use the words they produce? Or are they merely clever prediction machines, simulating language use by producing statistically plausible text? There have already been some initial attempts to answer this question by showing that these models meet the criteria for entering meaningful states according to metasemantic theories of mental content. In this paper, I will argue for a different approach – that we should instead consider whether language models meet the criteria given by our best metasemantic theories of linguistic content. In that vein, I will illustrate how this can be done by applying two such theories to the case of language models: Gareth Evans’ (1982) account of naming practices and Ruth Millikan’s (1984, 2004, 2005) teleosemantics. In doing so, I will argue that it is a mistake to think that the failure of LLMs to meet plausible conditions for mental intentionality thereby renders their outputs meaningless, and that a distinguishing feature of linguistic intentionality – dependency on a pre-existing linguistic system – allows for the plausible result LLM outputs are meaningful.

arxiv情報

著者 Jumbly Grindrod
発行日 2024-09-16 08:35:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク