要約
タイトル:協働推論誘発型言語モデルによる数学の文章問題の解決
要約:
– 大規模な事前学習言語モデル(PLM)は、高度な知能が必要な数学の文章問題(MWPs)のような困難な問題に新しい機会をもたらします。
– ただし、既存のPLMをMWPsに直接適用することは失敗する可能性があります。というのは、生成プロセスに十分な監視がなく、人間のように速い適応性が欠けるためです。
– 私たちは、人間の推論には2つの推論システムがあり、全体の推論はその相互作用によって決定されることに気付きました。即応的反応システム(システム1)と緻密な推論システム(システム2)で構成された二重の推論枠組みが人間の思考において重要であることがわかります。
– これに着想を得て、MWPsを解決するための協働推論誘発型PLM、Cooperative Reasoning (CoRe)を開発しました。これにより、システム1をジェネレーター、システム2を検証者とする人間のような推論アーキテクチャが実現されました。
– ジェネレーターは推論パスを生成し、検証者は評価を監視してジェネレーターに信頼できるフィードバックを提供します。
– 私たちはCoReフレームワークをいくつかの数学的推論データセットで評価し、最先端の手法に比べて優れた改善を達成しました。最良の基線の増加率は9.6%でした。
要約(オリジナル)
Large-scale pre-trained language models (PLMs) bring new opportunities to challenging problems, especially those that need high-level intelligence, such as the math word problem (MWPs). However, directly applying existing PLMs to MWPs can fail as the generation process lacks sufficient supervision and thus lacks fast adaptivity as humans. We notice that human reasoning has a dual reasoning framework that consists of an immediate reaction system (system 1) and a delicate reasoning system (system 2), where the entire reasoning is determined by their interaction. This inspires us to develop a cooperative reasoning-induced PLM for solving MWPs, called Cooperative Reasoning (CoRe), resulting in a human-like reasoning architecture with system 1 as the generator and system 2 as the verifier. In our approach, the generator is responsible for generating reasoning paths, and the verifiers are used to supervise the evaluation in order to obtain reliable feedback for the generator. We evaluate our CoRe framework on several mathematical reasoning datasets and achieve decent improvement over state-of-the-art methods, up to 9.6% increase over best baselines.
arxiv情報
| 著者 | Xinyu Zhu,Junjie Wang,Lin Zhang,Yuxiang Zhang,Ruyi Gan,Jiaxing Zhang,Yujiu Yang |
| 発行日 | 2023-05-04 13:20:17+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI