要約
大規模言語モデル (LLM) は、さまざまな推論タスクで優れたパフォーマンスを達成しました。
パフォーマンスをさらに向上させるために、推論プロセス中に電卓や知識検索ツールなどの複数の外部ツールを組み込むよう促す思考連鎖 (CoT) を活用する新しいフレームワークである MultiTool-CoT を提案します。
MultiTool-CoT を NumGLUE のタスク 2 データセットに適用します。これには、数値推論とドメイン固有の知識の両方が必要です。
実験は、私たちの方法が強力なベースラインを大幅に上回り、最先端のパフォーマンスを達成することを示しています。
要約(オリジナル)
Large language models (LLMs) have achieved impressive performance on various reasoning tasks. To further improve the performance, we propose MultiTool-CoT, a novel framework that leverages chain-of-thought (CoT) prompting to incorporate multiple external tools, such as a calculator and a knowledge retriever, during the reasoning process. We apply MultiTool-CoT to the Task 2 dataset of NumGLUE, which requires both numerical reasoning and domain-specific knowledge. The experiments show that our method significantly outperforms strong baselines and achieves state-of-the-art performance.
arxiv情報
著者 | Tatsuro Inaba,Hirokazu Kiyomaru,Fei Cheng,Sadao Kurohashi |
発行日 | 2023-05-26 13:00:58+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google