TOP-Training: Target-Oriented Pretraining for Medical Extractive Question Answering

要約

私たちは医療領域における抽出的質問応答(Medical-EQA)を研究しています。
この問題には 2 つの主な課題があります。(i) ほとんどの AI モデルには必要なドメイン知識が欠けているため、ドメインの特異性、(ii) 潜在的な幻覚によりほとんどの自己回帰 LLM が制限される抽出ベースの応答スタイルです。
これらの課題に対処するために、私たちは TOP-Training を提案します。これは、すべてのドメイン適応技術の中でも傑出した 2 つの望ましい特徴を備えた、ターゲット指向の事前トレーニング パラダイムです。 (i) TOP-Training は、一般的なドメイン指向の微調整よりも一歩進んでいます。
これは、ターゲット ドメインに近づくだけでなく、ターゲット データセットに精通し、(ii) ターゲット ドメインからのラベルのないインスタンスの大規模なセットの存在を想定していないためです。
具体的には、ターゲットの Medical-EQA データセットについて、そのエンティティを抽出し、大規模言語モデル (LLM) を活用して、それらのエンティティを含む合成テキストを生成します。
次に、この合成テキスト データで事前トレーニングすると、ターゲットの Medical-EQA ベンチマークでパフォーマンスが向上することを示します。
全体として、私たちの貢献は 3 つあります: (i) TOP-Training、LLM を効果的に適応させてターゲットの問題をより適切に解決するための新しい事前トレーニング手法、(ii) TOP-Training はターゲット問題を必要としないため、適用範囲が広い
(iii) 私たちの実験は自己回帰 LLM の限界を浮き彫りにし、双方向 LLM の真の可能性を解き放つ手段としての TOP トレーニングを強調しました。

要約(オリジナル)

We study extractive question-answering in the medical domain (Medical-EQA). This problem has two main challenges: (i) domain specificity, as most AI models lack necessary domain knowledge, and (ii) extraction-based answering style, which restricts most autoregressive LLMs due to potential hallucinations. To handle those challenges, we propose TOP-Training, a target-oriented pre-training paradigm that stands out among all domain adaptation techniques with two desirable features: (i) TOP-Training moves one step further than popular domain-oriented fine-tuning since it not only moves closer to the target domain, but also familiarizes itself with the target dataset, and (ii) it does not assume the existence of a large set of unlabeled instances from the target domain. Specifically, for a target Medical-EQA dataset, we extract its entities and leverage large language models (LLMs) to generate synthetic texts containing those entities; we then demonstrate that pretraining on this synthetic text data yields better performance on the target Medical-EQA benchmarks. Overall, our contributions are threefold: (i) TOP-Training, a new pretraining technique to effectively adapt LLMs to better solve a target problem, (ii) TOP-Training has a wide application scope because it does not require the target problem to have a large set of unlabeled data, and (iii) our experiments highlight the limitations of autoregressive LLMs, emphasizing TOP-Training as a means to unlock the true potential of bidirectional LLMs.

arxiv情報

著者 Saptarshi Sengupta,Connor Heaton,Shreya Ghosh,Wenpeng Yin,Preslav Nakov,Suhang Wang
発行日 2024-12-12 13:33:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク