要約
大規模言語モデル (LLM) は、さまざまな一般ドメインの自然言語処理 (NLP) タスクにおいて顕著な有効性を示しています。
しかし、輸送安全領域のタスクにおけるパフォーマンスは最適とは言えません。これは主に、正確な応答を生成するために輸送安全に関する専門知識が必要なことが原因です [1]。
この課題に対処するために、新しい LLAMA ベースのモデルである TrafficSafetyGPT を導入します。このモデルは、政府が作成したガイドブックと ChatGPT で生成された命令と出力のペアから人間によるラベルが付けられた TrafficSafety-2K データセットを使用して教師付き微調整を受けています。
私たちが提案する TrafficSafetyGPT モデルと TrafficSafety-2K 列車データセットは、https://github.com/ozheng1993/TrafficSafetyGPT からアクセスできます。
要約(オリジナル)
Large Language Models (LLMs) have shown remarkable effectiveness in various general-domain natural language processing (NLP) tasks. However, their performance in transportation safety domain tasks has been suboptimal, primarily attributed to the requirement for specialized transportation safety expertise in generating accurate responses [1]. To address this challenge, we introduce TrafficSafetyGPT, a novel LLAMA-based model, which has undergone supervised fine-tuning using TrafficSafety-2K dataset which has human labels from government produced guiding books and ChatGPT-generated instruction-output pairs. Our proposed TrafficSafetyGPT model and TrafficSafety-2K train dataset are accessible at https://github.com/ozheng1993/TrafficSafetyGPT.
arxiv情報
著者 | Ou Zheng,Mohamed Abdel-Aty,Dongdong Wang,Chenzhu Wang,Shengxuan Ding |
発行日 | 2023-07-28 05:17:11+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google