Self-reflecting Large Language Models: A Hegelian Dialectical Approach

要約

哲学的なレンズを介してNLPを調査することは、最近、計算方法を古典的な哲学学校と結びつけるため、研究者の目を捕らえました。
このペーパーでは、LLMS ‘\ Textit {自己反省}の\ Textit {Hegelian Dialectic}に触発された哲学的アプローチを紹介します。
さらに、このペーパーでは、初期段階での創造性を促進し、ニュアンスに焦点を当てることによって徐々にそれを改良する動的なアニーリングアプローチを確立することにより、LLMSの生成温度の影響を調査します。
提案された方法の有効性を評価し、新しいアイデアを生成し、問題解決中にLLMの推論能力を改善します。
さらに、ドメインの専門家がいない場合に有用であることが証明された、生成されたアイデアの妥当性と斬新さを評価するために、マルチエージェント多数票(MAMV)戦略を実装しています。
私たちの実験は、アイデアを生成し、問題解決パフォーマンスを向上させることで有望な結果を示しています。

要約(オリジナル)

Investigating NLP through a philosophical lens has recently caught researcher’s eyes as it connects computational methods with classical schools of philosophy. This paper introduces a philosophical approach inspired by the \textit{Hegelian Dialectic} for LLMs’ \textit{self-reflection}, utilizing a self-dialectical approach to emulate internal critiques and then synthesize new ideas by resolving the opposing points of view. Moreover, this paper investigates the effect of LLMs’ temperature for generation by establishing a dynamic annealing approach, which promotes the creativity in the early stages and gradually refines it by focusing on the nuances, as well as a fixed-temperature strategy for generation. We assess the effectiveness of our proposed method in generating novel ideas and in improving the reasoning abilities of LLMs during problem-solving. Moreover, we implement a Multi-Agent Majority Voting (MAMV) strategy to assess the validity and novelty of the generated ideas, which proves useful in the absence of domain experts. Our experiments demonstrate promising results in generating ideas and enhancing problem-solving performance.

arxiv情報

著者 Sara Abdali,Can Goksen,Saeed Amizadeh,Julie E. Maybee,Kazuhito Koishida
発行日 2025-05-13 17:06:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.HC, cs.LG パーマリンク