要約
ChatGPT は、最近発表された大規模言語モデル (LLM) として、さまざまな自然言語処理 (NLP) タスクで優れたパフォーマンスを示しています。
しかし、2 つの大きな制限がその潜在的な応用を妨げています。(1) 下流タスクの微調整の柔軟性のなさ、および (2) 意思決定プロセスにおける解釈可能性の欠如です。
これらの制限に対処するために、テキスト分類などの特定のタスクに ChatGPT の機能を活用し、解釈可能性を向上させる新しいフレームワークを提案します。
提案されたフレームワークは、ChatGPT を使用して生データから洗練された構造的な知識を抽出するナレッジ グラフ抽出タスクを実行します。
次に、豊富な知識がグラフに変換され、それがさらに、予測を行うための解釈可能な線形分類器のトレーニングに使用されます。
提案した手法の有効性を評価するために、4 つのデータセットに対して実験を実行します。
結果は、テキスト分類タスクに ChatGPT を直接利用する場合と比較して、私たちの方法がパフォーマンスを大幅に向上できることを示しています。
また、私たちの方法は、以前のテキスト分類方法と比較して、より透明性の高い意思決定プロセスを提供します。
要約(オリジナル)
ChatGPT, as a recently launched large language model (LLM), has shown superior performance in various natural language processing (NLP) tasks. However, two major limitations hinder its potential applications: (1) the inflexibility of finetuning on downstream tasks and (2) the lack of interpretability in the decision-making process. To tackle these limitations, we propose a novel framework that leverages the power of ChatGPT for specific tasks, such as text classification, while improving its interpretability. The proposed framework conducts a knowledge graph extraction task to extract refined and structural knowledge from the raw data using ChatGPT. The rich knowledge is then converted into a graph, which is further used to train an interpretable linear classifier to make predictions. To evaluate the effectiveness of our proposed method, we conduct experiments on four datasets. The result shows that our method can significantly improve the performance compared to directly utilizing ChatGPT for text classification tasks. And our method provides a more transparent decision-making process compared with previous text classification methods.
arxiv情報
著者 | Yucheng Shi,Hehuan Ma,Wenliang Zhong,Qiaoyu Tan,Gengchen Mai,Xiang Li,Tianming Liu,Junzhou Huang |
発行日 | 2023-09-19 14:26:17+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google