Thinking beyond the anthropomorphic paradigm benefits LLM research

要約

擬人化、または人間の特性のテクノロジーへの帰属は、高度な技術的専門知識を持っている人でも発生する自動で無意識の反応です。
このポジションペーパーでは、数十万の研究記事を分析して、大規模な言語モデル(LLM)に関する研究における擬人化用語の有病率と成長の実証的証拠を提示します。
私たちは、この用語に反映されたより深い仮定に挑戦すると主張します – それはしばしば有用ですが、LLMの開発を不注意に制約し、それらを超えてLLMSを理解し改善するための新しい経路を開きます。
具体的には、LLM開発ライフサイクル全体で研究を形成する5つの擬人化された仮定を特定して検討します。
各仮定(例えば、LLMが推論に自然言語を使用する必要がある、またはそれらがもともと人間を目的としたベンチマークで評価する必要があるということ)について、私たちはLLMの研究開発に有望な方向性を提供しているが、実証されていない状態でありながら、経験的で非孤立的な代替案を示します。

要約(オリジナル)

Anthropomorphism, or the attribution of human traits to technology, is an automatic and unconscious response that occurs even in those with advanced technical expertise. In this position paper, we analyze hundreds of thousands of research articles to present empirical evidence of the prevalence and growth of anthropomorphic terminology in research on large language models (LLMs). We argue for challenging the deeper assumptions reflected in this terminology — which, though often useful, may inadvertently constrain LLM development — and broadening beyond them to open new pathways for understanding and improving LLMs. Specifically, we identify and examine five anthropomorphic assumptions that shape research across the LLM development lifecycle. For each assumption (e.g., that LLMs must use natural language for reasoning, or that they should be evaluated on benchmarks originally meant for humans), we demonstrate empirical, non-anthropomorphic alternatives that remain under-explored yet offer promising directions for LLM research and development.

arxiv情報

著者 Lujain Ibrahim,Myra Cheng
発行日 2025-05-27 17:24:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク