要約
大規模言語モデル (LLM) の優れたパフォーマンスにもかかわらず、論理的に適切な議論を生成するのに依然として苦労しており、その結果、誤った情報が拡散するなどの潜在的なリスクが生じます。
一貫した議論を生成する際の LLM のパフォーマンスが最適ではない原因となる重要な要因は、論理的誤りの見落としです。
この問題に対処するために、私たちは、選好の最適化手法を活用して LLM を論理的に健全な議論に導く誤謬に基づいたフレームワークである FIPO を導入します。
FIPO には、誤ったカテゴリに関する詳細な情報を取得するための分類損失が含まれています。
議論データセットに関する私たちの結果は、私たちの方法が誤謬エラーを最大 17.5% 削減することを示しています。
さらに、人間による評価結果は、私たちの方法によって生成された引数の品質が、微調整されたベースラインや、DPO などの以前の優先度最適化方法よりも大幅に優れていることを示しています。
これらの発見は、効果的な引数を生成するためにモデルが論理的誤りを確実に認識できるようにすることの重要性を強調しています。
要約(オリジナル)
Despite the remarkable performance of Large Language Models (LLMs), they still struggle with generating logically sound arguments, resulting in potential risks such as spreading misinformation. An important factor contributing to LLMs’ suboptimal performance in generating coherent arguments is their oversight of logical fallacies. To address this issue, we introduce FIPO, a fallacy-informed framework that leverages preference optimization methods to steer LLMs toward logically sound arguments. FIPO includes a classification loss, to capture the fine-grained information on fallacy categories. Our results on argumentation datasets show that our method reduces the fallacy errors by up to 17.5%. Furthermore, our human evaluation results indicate that the quality of the generated arguments by our method significantly outperforms the fine-tuned baselines, as well as prior preference optimization methods, such as DPO. These findings highlight the importance of ensuring models are aware of logical fallacies for effective argument generation.
arxiv情報
| 著者 | Luca Mouchel,Debjit Paul,Shaobo Cui,Robert West,Antoine Bosselut,Boi Faltings |
| 発行日 | 2024-08-07 08:19:44+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google