Think Before You Speak: Cultivating Communication Skills of Large Language Models via Inner Monologue

要約

大規模言語モデル (LLM) の出現により、オープンドメイン対話システムの機能がさらに向上し、流暢で一貫性のある多様な応答を生成できるようになりました。
しかし、LLM には依然として、コミュニケーション スキルという重要な能力が欠けています。
この制限により、チャットボットは擬人化されたチャットボットではなく、情報検索ツールに近くなります。
会話中に LLM をより擬人化して積極的にするために、話題の移行、積極的な質問、コンセプトの指導、共感、頻繁な要約などのコミュニケーション スキルを考慮する必要があります。これにより、ユーザーの関心が高まり、より長くチャットに参加できるようになります。

ただし、ブラックボックス LLM でこれらのコミュニケーション スキルを有効にすることは、依然として重要な課題です。なぜなら、LLM には現実の人々と同じ発話形成モード (話す前に考える) がないためです。
言語学と認知科学に触発され、私たちは LLM に内なる独白を通じてコミュニケーション スキルを与えます。
さまざまなコミュニケーションスキルを評価するために、モデルの対話生成能力をより包括的に評価できる Cskills というベンチマークを構築します。
実験結果は、提案された CSIM 戦略がバックボーン モデルを改善し、ベースラインを上回るパフォーマンスを示すことを示しています。

要約(オリジナル)

The emergence of large language models (LLMs) further improves the capabilities of open-domain dialogue systems and can generate fluent, coherent, and diverse responses. However, LLMs still lack a crucial ability: communication skills. This limitation renders them more like information seeking tools rather than anthropomorphic chatbots. Communication skills, such as topic transition, proactively asking questions, concept guidance, empathy, and summarising often should be taken into consideration, to make LLMs more anthropomorphic and proactive during the conversation, thereby increasing the interest of users and attracting them to chat for longer. However, enabling these communication skills in black-box LLMs remains a key challenge because they do not have the same utterance formation mode as real people: think before speaking. Inspired by linguistics and cognitive science, we empower LLMs with communication skills through inner monologues. To evaluate various communication skills, we construct a benchmark named Cskills, which can also more comprehensively evaluate the dialogue generation ability of the model. Experimental results show that the proposed CSIM strategy improves the backbone models and outperforms the baselines.

arxiv情報

著者 Junkai Zhou,Liang Pang,Huawei Shen,Xueqi Cheng
発行日 2024-03-15 08:30:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク