Continual Pre-Training is (not) What You Need in Domain Adaption

要約

法的大規模な言語モデル(LLM)の最近の進歩は、タスクを自動化し、研究の精度を高め、複雑な意思決定プロセスをサポートすることにより、法的研究と実践の状況を変えました。
ただし、法的推論の複雑さ、専門言語の正確な解釈の必要性、および幻覚の可能性により、LLMを法的領域に効果的に適応させることは依然として困難なままです。
このペーパーでは、LLMSの法的推論能力の改善におけるドメイン適応継続的なトレーニング(DACP)の有効性を調べます。
台湾の法的枠組み内の法的推論タスクに関する一連の実験を通じて、DACPはドメイン固有の知識を強化しますが、すべての法的タスクでパフォーマンスを均一に改善しないことを実証します。
DACPに関与するトレードオフ、特に迅速なタスクにおけるモデルの一般化とパフォーマンスへの影響について説明し、法的AIのドメイン適応戦略を最適化するための将来の研究の方向性を提案します。

要約(オリジナル)

The recent advances in Legal Large Language Models (LLMs) have transformed the landscape of legal research and practice by automating tasks, enhancing research precision, and supporting complex decision-making processes. However, effectively adapting LLMs to the legal domain remains challenging due to the complexity of legal reasoning, the need for precise interpretation of specialized language, and the potential for hallucinations. This paper examines the efficacy of Domain-Adaptive Continual Pre-Training (DACP) in improving the legal reasoning capabilities of LLMs. Through a series of experiments on legal reasoning tasks within the Taiwanese legal framework, we demonstrate that while DACP enhances domain-specific knowledge, it does not uniformly improve performance across all legal tasks. We discuss the trade-offs involved in DACP, particularly its impact on model generalization and performance in prompt-based tasks, and propose directions for future research to optimize domain adaptation strategies in legal AI.

arxiv情報

著者 Pin-Er Chen,Da-Chen Lian,Shu-Kai Hsieh,Sieh-Chuen Huang,Hsuan-Lei Shao,Jun-Wei Chiu,Yang-Hsien Lin,Zih-Ching Chen,Cheng-Kuang,Eddie TC Huang,Simon See
発行日 2025-04-18 10:14:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク