要約
このペーパーでは、住宅改修の複雑な分野向けに設計されたドメイン固有言語モデル (DSLM) である ChatHome の開発と評価について説明します。
GPT-4 のような大規模言語モデル (LLM) の実績のある能力と、住宅改修への関心の高まりを考慮して、この研究では、住宅改修分野に関連する高忠実度で正確な出力を生成できる専用モデルを生成することで、これらの側面を調和させるよう努めています。
。
ChatHome の新規性は、広範なデータセットに対するドメイン適応型の事前トレーニングと命令チューニングを融合する方法論にあります。
このデータセットには、住宅改修に関連する専門的な記事、標準文書、Web コンテンツが含まれています。
この二面戦略は、当社のモデルが包括的なドメイン知識を確実に吸収し、ユーザーの問い合わせに効果的に対応できるように設計されています。
新たに導入された「EvalHome」ドメイン データセットを含む、汎用データセットとドメイン固有データセットの両方の多様なデータセットでの徹底した実験により、ChatHome がドメイン固有の機能を拡張するだけでなく、その汎用性も維持することを実証しました。
要約(オリジナル)
This paper presents the development and evaluation of ChatHome, a domain-specific language model (DSLM) designed for the intricate field of home renovation. Considering the proven competencies of large language models (LLMs) like GPT-4 and the escalating fascination with home renovation, this study endeavors to reconcile these aspects by generating a dedicated model that can yield high-fidelity, precise outputs relevant to the home renovation arena. ChatHome’s novelty rests on its methodology, fusing domain-adaptive pretraining and instruction-tuning over an extensive dataset. This dataset includes professional articles, standard documents, and web content pertinent to home renovation. This dual-pronged strategy is designed to ensure that our model can assimilate comprehensive domain knowledge and effectively address user inquiries. Via thorough experimentation on diverse datasets, both universal and domain-specific, including the freshly introduced ‘EvalHome’ domain dataset, we substantiate that ChatHome not only amplifies domain-specific functionalities but also preserves its versatility.
arxiv情報
著者 | Cheng Wen,Xianghui Sun,Shuaijiang Zhao,Xiaoquan Fang,Liangyu Chen,Wei Zou |
発行日 | 2023-07-28 04:04:43+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google