MindDial: Belief Dynamics Tracking with Theory-of-Mind Modeling for Situated Neural Dialogue Generation

要約

人間は、表現された意味や共通基盤を交渉しながら、自由形式で会話する。大規模な生成言語モデルの素晴らしい会話能力にもかかわらず、共有された状況環境における文脈理解の個人差は考慮されていない。本研究では、MindDialを提案する。MindDialは、共通基盤をネゴシエートするための自由形式の応答を生成することができる新しい会話フレームワークである。我々は、話し手の信念、聞き手の信念に対する話し手の予測、最初の2つの間のギャップに基づく共通の信念という3つのレベルの信念を追跡することができる明示的なマインドモジュールを設計する。そして、発話行為分類ヘッドは、発話を継続するか、このターンを終了するか、タスクに関連した行動を取るかを決定する。我々は、2つのエージェント間の自由なチャットに基づく単一の相互の友人を見つけることを目的とする、信念力学アノテーションで共通基盤整列データセットMutualFriendを補強する。実験により、心理状態モデリングを用いた我々のモデルが、共通基盤を整列させる際の人間の反応に類似し、人間の自然な会話の流れを模倣できることを示す。さらに、アブレーション研究により、第3レベルの共通信念が、1次および2次の信念の情報を集約し、より効率的に共通基盤を揃えることができることが検証された。

要約(オリジナル)

Humans talk in free-form while negotiating the expressed meanings or common ground. Despite the impressive conversational abilities of the large generative language models, they do not consider the individual differences in contextual understanding in a shared situated environment. In this work, we propose MindDial, a novel conversational framework that can generate situated free-form responses to negotiate common ground. We design an explicit mind module that can track three-level beliefs — the speaker’s belief, the speaker’s prediction of the listener’s belief, and the common belief based on the gap between the first two. Then the speaking act classification head will decide to continue to talk, end this turn, or take task-related action. We augment a common ground alignment dataset MutualFriend with belief dynamics annotation, of which the goal is to find a single mutual friend based on the free chat between two agents. Experiments show that our model with mental state modeling can resemble human responses when aligning common ground meanwhile mimic the natural human conversation flow. The ablation study further validates the third-level common belief can aggregate information of the first and second-order beliefs and align common ground more efficiently.

arxiv情報

著者 Shuwen Qiu,Song-Chun Zhu,Zilong Zheng
発行日 2023-07-03 06:29:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL パーマリンク