要約
ChatGPT などの生成大規模言語モデル (LLM) は、一般的な質問に人間の専門家レベルで回答できる対話型 API を提供します。
ただし、これらのモデルは、トレーニング コーパスでカバーされていない分野固有または専門家固有の知識を必要とする質問に直面した場合、不正確または不正確な応答を返すことがよくあります。
さらに、最先端の LLM の多くはオープンソースではないため、モデル API のみで知識を注入することが困難になります。
この作業では、質問応答における LLM のためのブラックボックス知識注入フレームワークである KnowGPT を紹介します。
KnowGPT は、深層強化学習 (RL) を活用してナレッジ グラフ (KG) から関連する知識を抽出し、マルチアーム バンディット (MAB) を使用して各質問に最適なプロンプトを構築します。
3 つのベンチマーク データセットに対する広範な実験により、KnowGPT が既存の手法を大幅に強化することが示されました。
特に、KnowGPT は ChatGPT と比較して平均 23.7% の改善を達成し、GPT-4 と比較して平均 2.9% の改善を達成しています。
さらに、KnowGPT は OpenbookQA 公式リーダーボードで 91.6% の精度を達成しており、これは人間レベルのパフォーマンスに匹敵します。
要約(オリジナル)
Generative Large Language Models (LLMs), such as ChatGPT, offer interactive APIs that can answer common questions at a human-expert level. However, these models often give inaccurate or incorrect responses when faced with questions requiring domain-specific or professional-specific knowledge not covered in their training corpus. Furthermore, many state-of-the-art LLMs are not open-source, making it challenging to inject knowledge with model APIs only. In this work, we introduce KnowGPT, a black-box knowledge injection framework for LLMs in question answering. KnowGPT leverages deep reinforcement learning (RL) to extract relevant knowledge from Knowledge Graphs (KGs) and use Multi-Armed Bandit (MAB) to construct the most suitable prompt for each question. Our extensive experiments on three benchmark datasets showcase that KnowGPT significantly enhances the existing methods. Notably, KnowGPT achieves an average improvement of 23.7% over ChatGPT and an average improvement of 2.9% over GPT-4. Additionally, KnowGPT attains a 91.6% accuracy on the OpenbookQA official leaderboard, which is comparable to human-level performance.
arxiv情報
| 著者 | Qinggang Zhang,Junnan Dong,Hao Chen,Xiao Huang,Daochen Zha,Zailiang Yu |
| 発行日 | 2023-12-11 07:56:25+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google