When Language Models Fall in Love: Animacy Processing in Transformer Language Models

要約

アニマシー(実体が生きていて知覚力があるかどうか)は認知処理の基礎であり、記憶、視覚、言語などの領域に影響を与えます。
ただし、アニマシーは常に言語で直接表現されるわけではありません。英語では、動詞や形容詞の選択的制約の形で間接的に現れることがよくあります。
これは、トランスフォーマー言語モデル (LM) に潜在的な問題を引き起こします。トランスフォーマー言語モデル (LM) は、多くの場合、テキストのみでトレーニングされるため、人間がアニマシーについて学習するための言語外情報にアクセスできません。
私たちは、これが LM のアニマシー処理にどのような影響を与えるのか、LM は依然として人間と同じように行動するのか、と考えます。
私たちはオープンソースの LM を使用してこの質問に答えます。
以前の研究と同様に、LMは典型的なアニマシーを持つ実体を提示された場合、人間と非常によく似た行動をすることがわかりました。
しかし、私たちはまた、恋するピーナツのような、非典型的な生命体についての物語を提示された場合でも、LMは適応することも示しています。LMは、人間ほど適応はしないものの、これらの存在を生命体として扱います。
非典型的な動物性を示す文脈が非常に短い場合でも、LM は微妙な手がかりを見つけて行動を変えます。
私たちは、LMがアニマシーについて学ぶことができる信号が限られているにもかかわらず、LMは英語で利用可能な関連する語彙の意味上のニュアンスに実際に敏感であると結論付けています。

要約(オリジナル)

Animacy – whether an entity is alive and sentient – is fundamental to cognitive processing, impacting areas such as memory, vision, and language. However, animacy is not always expressed directly in language: in English it often manifests indirectly, in the form of selectional constraints on verbs and adjectives. This poses a potential issue for transformer language models (LMs): they often train only on text, and thus lack access to extralinguistic information from which humans learn about animacy. We ask: how does this impact LMs’ animacy processing – do they still behave as humans do? We answer this question using open-source LMs. Like previous studies, we find that LMs behave much like humans when presented with entities whose animacy is typical. However, we also show that even when presented with stories about atypically animate entities, such as a peanut in love, LMs adapt: they treat these entities as animate, though they do not adapt as well as humans. Even when the context indicating atypical animacy is very short, LMs pick up on subtle clues and change their behavior. We conclude that despite the limited signal through which LMs can learn about animacy, they are indeed sensitive to the relevant lexical semantic nuances available in English.

arxiv情報

著者 Michael Hanna,Yonatan Belinkov,Sandro Pezzelle
発行日 2023-10-23 14:57:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク