LLM Discussion: Enhancing the Creativity of Large Language Models via Discussion Framework and Role-Play

要約

大規模言語モデル (LLM) は、自然言語処理において優れた能力を示していますが、多くの場合、自由形式の質問に対して創造的で独創的な応答を生成するには至っていません。
LLM の創造性を高めるために、私たちの重要な洞察は、多様な背景や視点からの参加者との活発な議論を通じて集団的な創造性を誘発する人間のプロセスを模倣することです。
この目的を達成するために、私たちは、活発で多様なアイデアの交換を促進し、創造的な答えへの収束を保証する 3 段階のディスカッション フレームワークである LLM ディスカッションを提案します。
さらに、LLM の均一性に対抗するために、LLM に異なる役割を割り当てることでロールプレイング手法を採用しています。
私たちは、LLM 評価と人体研究の両方を通じて、代替使用テスト、類似性テスト、インスタンス テスト、科学的創造性テストを使用して、提案されたフレームワークの有効性を評価します。
私たちが提案するフレームワークは、さまざまな創造性指標において、単一 LLM アプローチや既存のマルチ LLM フレームワークよりも優れています。

要約(オリジナル)

Large language models (LLMs) have shown exceptional proficiency in natural language processing but often fall short of generating creative and original responses to open-ended questions. To enhance LLM creativity, our key insight is to emulate the human process of inducing collective creativity through engaging discussions with participants from diverse backgrounds and perspectives. To this end, we propose LLM Discussion, a three-phase discussion framework that facilitates vigorous and diverging idea exchanges and ensures convergence to creative answers. Moreover, we adopt a role-playing technique by assigning distinct roles to LLMs to combat the homogeneity of LLMs. We evaluate the efficacy of the proposed framework with the Alternative Uses Test, Similarities Test, Instances Test, and Scientific Creativity Test through both LLM evaluation and human study. Our proposed framework outperforms single-LLM approaches and existing multi-LLM frameworks across various creativity metrics.

arxiv情報

著者 Li-Chun Lu,Shou-Jen Chen,Tsung-Min Pai,Chan-Hung Yu,Hung-yi Lee,Shao-Hua Sun
発行日 2024-05-10 10:19:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク