要約
大規模言語モデル (LLM) の開発は、近年急速に進歩しています。
最も広く使用されている LLM の 1 つは、Generative Pre-trained Transformer (GPT) シリーズであり、メディア ドメインを含むさまざまな分野で適用されています。
しかし、実際のアプリケーションでは、メディアの使用例と LLM の汎用アプリケーションとの違いが、特に中国語でますます明らかになってきています。
その結果、メディア ドメイン固有の要件に合わせて特別に調整された LLM を開発する必要性が高まっています。
このペーパーでは、さまざまなメディア データをトレーニングし、中国メディアの実際のニーズに対応する大規模な言語モデルである MediaGPT を紹介します。
私たちは、ドメインの特定の要件に応えるために、さまざまなタスク指示タイプのセットを設計しました。
私たちが提案する LLM の有効性をさらに検証するために、メディア ドメインに合わせた独自のデータセットを構築し、生成型タスクに特化して設計された検証方法も開発しました。
そうすることで、汎用 LLM とメディア ドメインの要件との間のギャップを埋め、この分野で LLM をより効果的かつ効率的に使用する道を開くことを目指しています。
このペーパーは、メディア アプリケーション向けの LLM 開発の課題と機会を調査し、これらの課題に対処するための潜在的なソリューションを提案することを目的としています。
要約(オリジナル)
The development of large language models (LLMs) has seen rapid progress in recent years. One of the most widely used LLMs is the Generative Pre-trained Transformer (GPT) series, which has been applied in various fields, including the media domain. However, in practical applications, the differences between the media’s use cases and the general-purpose applications of LLMs have become increasingly apparent, especially Chinese. As a result, there is a growing need to develop LLM that are specifically tailored to the unique requirements of the media domain. In this paper, we present MediaGPT, a large language model training on variety of media data and addressing the practical needs of Chinese media. We have designed a diverse set of task instruction types to cater to the specific requirements of the domain. To further validate the effectiveness of our proposed LLM, we have constructed unique datasets that are tailored to the media domain and have also developed verification methods that are specifically designed for generative-type tasks. By doing so, we aim to bridge the gap between the general-purpose LLM and the requirements of the media domain, and to pave the way for more effective and efficient use of LLM in this field. This paper aims to explore the challenges and opportunities of developing LLM for media applications and to propose potential solutions for addressing these challenges.
arxiv情報
著者 | Zhonghao Wang |
発行日 | 2023-07-20 14:59:02+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google