要約
大規模言語モデル (LLM) の最近の成功により、誤った情報が拡散する可能性についての懸念が生じています。
その結果、そのようなモデルによって生成される「偽の引数」を特定するツールが急務となっています。
これらのツールを作成するには、LLM によって生成されたテキストのサンプルが必要です。
この論文では、OpenAI の LLM である ChatGPT によって作成された議論エッセイから、良い議論、悪い議論、および醜い議論を取得する方法論を紹介します。
次に、さまざまな引数のセットを含む新しいデータセットである ArGPT について説明します。
私たちはデータセットの有効性を評価し、いくつかの議論関連タスクのベースラインを確立します。
最後に、人工的に生成されたデータは人間の議論とよく関連しており、定義されたタスクに合わせてシステムをトレーニングおよびテストするためのツールとして有用であることを示します。
要約(オリジナル)
The recent success of Large Language Models (LLMs) has sparked concerns about their potential to spread misinformation. As a result, there is a pressing need for tools to identify “fake arguments” generated by such models. To create these tools, examples of texts generated by LLMs are needed. This paper introduces a methodology to obtain good, bad and ugly arguments from argumentative essays produced by ChatGPT, OpenAI’s LLM. We then describe a novel dataset containing a set of diverse arguments, ArGPT. We assess the effectiveness of our dataset and establish baselines for several argumentation-related tasks. Finally, we show that the artificially generated data relates well to human argumentation and thus is useful as a tool to train and test systems for the defined tasks.
arxiv情報
著者 | Victor Hugo Nascimento Rocha,Igor Cataneo Silveira,Paulo Pirozelli,Denis Deratani Mauá,Fabio Gagliardi Cozman |
発行日 | 2024-06-21 13:27:10+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google