Animate, or Inanimate, That is the Question for Large Language Models

要約

人間の認知的本質は、アニマシーの概念と深く絡み合っており、アニマシーは人間の記憶、視覚、多層的な言語理解を形成する上で重要な役割を果たしています。
アニマシーは、動詞や形容詞の微妙な制約によって言語に現れますが、言語外の情報を通じて学習され、洗練されることもあります。
同様に、アニメーションを処理する際の LLM の自然言語を理解する能力が限られているのは、これらのモデルがテキストのみでトレーニングされているという事実によって引き起こされていると考えられます。
したがって、この論文が答えようとしている疑問が生じます。LLM はデジタルの知恵で、人間が行うのと同様の方法でアニマシーを処理できるでしょうか?
次に、刺激的なアプローチによる体系的な分析を提案します。
特に、生物、無生物、通常、および未知のコンテキストを使用してプロンプトを表示することで、さまざまな LLM を調査します。
その結果、LLM は主にテキスト データでトレーニングされているにもかかわらず、初期の研究と一致して、典型的な生物および無生物に直面した場合には人間のような行動を示すことが明らかになりました。
したがって、LLM は、人間がアニメーションを分解するために依存する暗黙の認知トリガーとインターフェイスする必要がなく、奇妙なものをアニメーションとして認識することで、型破りな状況を理解するように適応できます。

要約(オリジナル)

The cognitive essence of humans is deeply intertwined with the concept of animacy, which plays an essential role in shaping their memory, vision, and multi-layered language understanding. Although animacy appears in language via nuanced constraints on verbs and adjectives, it is also learned and refined through extralinguistic information. Similarly, we assume that the LLMs’ limited abilities to understand natural language when processing animacy are motivated by the fact that these models are trained exclusively on text. Hence, the question this paper aims to answer arises: can LLMs, in their digital wisdom, process animacy in a similar way to what humans would do? We then propose a systematic analysis via prompting approaches. In particular, we probe different LLMs by prompting them using animate, inanimate, usual, and stranger contexts. Results reveal that, although LLMs have been trained predominantly on textual data, they exhibit human-like behavior when faced with typical animate and inanimate entities in alignment with earlier studies. Hence, LLMs can adapt to understand unconventional situations by recognizing oddities as animated without needing to interface with unspoken cognitive triggers humans rely on to break down animations.

arxiv情報

著者 Leonardo Ranaldi,Giulia Pucci,Fabio Massimo Zanzotto
発行日 2024-08-12 17:48:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク