Evaluating Fine-Tuning Efficiency of Human-Inspired Learning Strategies in Medical Question Answering

要約

大規模言語モデル (LLM) の微調整にはかなりのトレーニング コストがかかり、最適化されたデータ順序によるデータ効率の高いトレーニングの必要性が高まっています。
人間からインスピレーションを得た戦略は、人間の学習実践に基づいてデータを整理することで解決策を提供します。
この研究では、医療質問応答のコンテキストにおいて、4 つの言語モデル、3 つのデータセット、および人間と LLM の両方でラベル付けされたデータにわたって、人間からインスピレーションを得た 5 つの戦略の微調整効率を評価しています。
これらの戦略は、データセット全体で 1.81% の最高の精度向上と 1.02% の平均向上を達成し、インターリーブ戦略では最高の平均結果が得られます。
ただし、最適な戦略はモデルとデータセットの組み合わせによって異なり、単一の戦略の効果の一般化可能性は制限されます。
さらに、LLM で定義された問題の難易度は、カリキュラムベースの学習において人間が定義したラベルよりも優れており、微調整を最適化するための費用対効果の高い代替手段としてモデル生成データの可能性を示しています。

要約(オリジナル)

Fine-tuning Large Language Models (LLMs) incurs considerable training costs, driving the need for data-efficient training with optimised data ordering. Human-inspired strategies offer a solution by organising data based on human learning practices. This study evaluates the fine-tuning efficiency of five human-inspired strategies across four language models, three datasets, and both human- and LLM-labelled data in the context of medical question answering. These strategies achieve the best accuracy gain of 1.81% and an average gain of 1.02% across datasets, with interleaved strategies delivering the best average results. However, the best strategy varies across model-dataset combinations, limiting the generalisability of the effects of any single strategy. Additionally, LLM-defined question difficulty outperforms human-defined labels in curriculum-based learning, showing the potential of model-generated data as a cost-effective alternative for optimising fine-tuning.

arxiv情報

著者 Yushi Yang,Andrew M. Bean,Robert McCraith,Adam Mahdi
発行日 2024-11-05 11:07:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク