Tree-of-Debate: Multi-Persona Debate Trees Elicit Critical Thinking for Scientific Comparative Analysis

要約

現代の技術とアクセシビリティの改善によって促進される研究の指数関数的な成長により、科学的発見は分野内および分野全体でますます断片化されてきました。
これにより、関連する研究、特にさまざまな研究コミュニティの重要性、斬新、漸進的な調査結果、および同等のアイデアを評価することが困難になります。
大規模な言語モデル(LLMS)は最近、強力な定量的および定性的推論能力を実証しており、多エージェントLLMの議論は、多様な視点と推論パスを調査することにより、複雑な推論タスクを処理することに有望を示しています。
これに触発されて、科学論文をそれぞれの小説を議論するLLMペルソナに変換するフレームワークであるTree-of-Debate(TOD)を紹介します。
結果のみに焦点を当てるのではなく、構造化された重要な推論を強調するために、TODは議論のツリーを動的に構築し、学術記事内の独立した斬新な議論のきめの細かい分析を可能にします。
専門家の研究者によって評価されたさまざまなドメインの科学文献に関する実験を通じて、TODは有益な議論を生成し、論文を効果的に対比し、研究者の文献レビューで研究者をサポートすることを実証します。

要約(オリジナル)

With the exponential growth of research facilitated by modern technology and improved accessibility, scientific discoveries have become increasingly fragmented within and across fields. This makes it challenging to assess the significance, novelty, incremental findings, and equivalent ideas between related works, particularly those from different research communities. Large language models (LLMs) have recently demonstrated strong quantitative and qualitative reasoning abilities, and multi-agent LLM debates have shown promise in handling complex reasoning tasks by exploring diverse perspectives and reasoning paths. Inspired by this, we introduce Tree-of-Debate (ToD), a framework which converts scientific papers into LLM personas that debate their respective novelties. To emphasize structured, critical reasoning rather than focusing solely on outcomes, ToD dynamically constructs a debate tree, enabling fine-grained analysis of independent novelty arguments within scholarly articles. Through experiments on scientific literature across various domains, evaluated by expert researchers, we demonstrate that ToD generates informative arguments, effectively contrasts papers, and supports researchers in their literature review.

arxiv情報

著者 Priyanka Kargupta,Ishika Agarwal,Tal August,Jiawei Han
発行日 2025-02-20 17:43:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク