AbsInstruct: Eliciting Abstraction Ability from LLMs through Explanation Tuning with Plausibility Estimation

要約

抽象化能力は人間の知能において極めて重要であり、NLP学習におけるさまざまなタスクにも役立ちます。
既存の研究では、LLM には抽象化能力が欠けていることが示されており、それを改善する方法はまだ解明されていません。
この研究では、命令チューニングを通じて LLM の抽象化能力を強化するフレームワーク AbsInstruct を設計します。
このフレームワークは、LLM が抽象化の根本的な理論的根拠を理解できるように、詳細な説明を含む命令を構築します。
一方、整合する LLM の抽象化知識とより一貫性のある命令を選択するために、妥当性推定器を導入します。
次に、私たちのフレームワークは抽象化命令と汎用命令を組み合わせて、ハイブリッド データセットを構築します。
広範な実験と分析により、私たちのフレームワークが一般的な命令に従う能力を維持しながら、強力な一般化パフォーマンスで LLM の抽象化能力を大幅に強化できることが実証されました。

要約(オリジナル)

Abstraction ability is crucial in human intelligence, which can also benefit various tasks in NLP study. Existing work shows that LLMs are deficient in abstract ability, and how to improve it remains unexplored. In this work, we design the framework AbsInstruct to enhance LLMs’ abstraction ability through instruction tuning. The framework builds instructions with in-depth explanations to assist LLMs in capturing the underlying rationale of abstraction. Meanwhile, we introduce a plausibility estimator to select instructions that are more consistent with the abstraction knowledge of LLMs to be aligned. Then, our framework combines abstraction instructions with general-purpose ones to build a hybrid dataset. Extensive experiments and analyses demonstrate that our framework can considerably enhance LLMs’ abstraction ability with strong generalization performance while maintaining their general instruction-following abilities.

arxiv情報

著者 Zhaowei Wang,Wei Fan,Qing Zong,Hongming Zhang,Sehyun Choi,Tianqing Fang,Xin Liu,Yangqiu Song,Ginny Y. Wong,Simon See
発行日 2024-06-17 16:39:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク