TrafficSafetyGPT: Tuning a Pre-trained Large Language Model to a Domain-Specific Expert in Transportation Safety

要約

大規模言語モデル (LLM) は、さまざまな一般ドメインの自然言語処理 (NLP) タスクにおいて顕著な有効性を示しています。
しかし、輸送安全領域のタスクにおけるパフォーマンスは最適とは言えません。これは主に、正確な応答を生成するために輸送安全に関する専門知識が必要なことが原因です [1]。
この課題に対処するために、新しい LLAMA ベースのモデルである TrafficSafetyGPT を導入します。このモデルは、政府が作成したガイドブックと ChatGPT で生成された命令と出力のペアから人間によるラベルが付けられた TrafficSafety-2K データセットを使用して教師付き微調整を受けています。
私たちが提案する TrafficSafetyGPT モデルと TrafficSafety-2K 列車データセットは、https://github.com/ozheng1993/TrafficSafetyGPT からアクセスできます。

要約(オリジナル)

Large Language Models (LLMs) have shown remarkable effectiveness in various general-domain natural language processing (NLP) tasks. However, their performance in transportation safety domain tasks has been suboptimal, primarily attributed to the requirement for specialized transportation safety expertise in generating accurate responses [1]. To address this challenge, we introduce TrafficSafetyGPT, a novel LLAMA-based model, which has undergone supervised fine-tuning using TrafficSafety-2K dataset which has human labels from government produced guiding books and ChatGPT-generated instruction-output pairs. Our proposed TrafficSafetyGPT model and TrafficSafety-2K train dataset are accessible at https://github.com/ozheng1993/TrafficSafetyGPT.

arxiv情報

著者 Ou Zheng,Mohamed Abdel-Aty,Dongdong Wang,Chenzhu Wang,Shengxuan Ding
発行日 2023-07-28 05:17:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク