Grounding or Guesswork? Large Language Models are Presumptive Grounders

要約

効果的な会話には共通基盤、つまり参加者間の共通の理解が必要です。
しかし、共通点は会話の中で自然に現れるものではありません。
話し手と聞き手は、誤解を避けながら共通の基盤を特定し、構築するために協力します。
グラウンディングを達成するために、人間は説明 (どういう意味ですか?) や承認 (わかりました) などのさまざまな対話行為に依存します。
教育や精神的サポートなどの分野では、基礎を注意深く構築することで誤解を防ぎます。
ただし、大規模言語モデル (LLM) が共通基盤の構築にこれらの対話行為を活用しているかどうかは不明です。
この目的を達成するために、私たちは一連の接地行為を厳選し、接地の試行を定量化する対応する指標を提案します。
私たちは、LLM がこれらのグラウンディング行為を使用するかどうかを研究し、いくつかの対話データセットから順番にそれらをシミュレートし、その結果を人間と比較します。
現在の LLM は推定接地者であり、接地行為を使用せずに共通接地を想定する方向に偏っていることがわかります。
この動作の根本を理解するために、ヒューマン フィードバックによる命令チューニングと強化学習 (RLHF) の役割を調べ、RLHF がグラウンディングの低下につながることを発見しました。
まとめると、私たちの研究は、人間と AI の相互作用の基礎を調査するさらなる研究の必要性を浮き彫りにしています。

要約(オリジナル)

Effective conversation requires common ground: a shared understanding between the participants. Common ground, however, does not emerge spontaneously in conversation. Speakers and listeners work together to both identify and construct a shared basis while avoiding misunderstanding. To accomplish grounding, humans rely on a range of dialogue acts, like clarification (What do you mean?) and acknowledgment (I understand.). In domains like teaching and emotional support, carefully constructing grounding prevents misunderstanding. However, it is unclear whether large language models (LLMs) leverage these dialogue acts in constructing common ground. To this end, we curate a set of grounding acts and propose corresponding metrics that quantify attempted grounding. We study whether LLMs use these grounding acts, simulating them taking turns from several dialogue datasets, and comparing the results to humans. We find that current LLMs are presumptive grounders, biased towards assuming common ground without using grounding acts. To understand the roots of this behavior, we examine the role of instruction tuning and reinforcement learning with human feedback (RLHF), finding that RLHF leads to less grounding. Altogether, our work highlights the need for more research investigating grounding in human-AI interaction.

arxiv情報

著者 Omar Shaikh,Kristina Gligorić,Ashna Khetan,Matthias Gerstgrasser,Diyi Yang,Dan Jurafsky
発行日 2023-11-15 17:40:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.HC パーマリンク