要約
自然言語テキスト生成機能などの大規模言語モデル (LLM) の独自の機能により、LLM は推奨事項の説明を提供する有力な候補として位置付けられます。
ただし、LLM のサイズにもかかわらず、ほとんどの既存のモデルはゼロショット説明を確実に生成するのに苦労しています。
この問題に対処するために、私たちは、アスペクトベースの説明と、中間の推論ステップを通じて説明を生成するよう促す思考連鎖のアイデアを組み合わせた、Logic-Scaffolding と呼ばれるフレームワークを提案します。
このペーパーでは、フレームワークの構築における経験を共有し、結果を探索するためのインタラクティブなデモンストレーションを示します。
要約(オリジナル)
The unique capabilities of Large Language Models (LLMs), such as the natural language text generation ability, position them as strong candidates for providing explanation for recommendations. However, despite the size of the LLM, most existing models struggle to produce zero-shot explanations reliably. To address this issue, we propose a framework called Logic-Scaffolding, that combines the ideas of aspect-based explanation and chain-of-thought prompting to generate explanations through intermediate reasoning steps. In this paper, we share our experience in building the framework and present an interactive demonstration for exploring our results.
arxiv情報
著者 | Behnam Rahdari,Hao Ding,Ziwei Fan,Yifei Ma,Zhuotong Chen,Anoop Deoras,Branislav Kveton |
発行日 | 2023-12-22 00:30:10+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google