要約
欺瞞的なテキストの分類は、欺瞞的または不正なコンテンツを識別することを目的とした自然言語処理における重要なタスクです。
この研究では、不正なテキストを分類するための機械学習とトランスフォーマーベースのアプローチの比較分析を示します。
私たちは、欺瞞的なテキストの検出における、従来の機械学習アルゴリズムと BERT、XLNET、DistilBERT、RoBERTa などの最先端の変換モデルの有効性を調査します。
欺瞞的なテキストと非欺瞞的なテキストで構成されるラベル付きデータセットは、トレーニングと評価の目的で使用されます。
広範な実験を通じて、さまざまなアプローチの精度、適合率、再現率、F1 スコアなどのパフォーマンス指標を比較します。
この研究の結果は、機械学習とトランスフォーマーベースの欺瞞的なテキスト分類手法の長所と限界を明らかにし、研究者や実務者が欺瞞的なコンテンツを扱う際に十分な情報に基づいた意思決定を行えるようにするものです。
要約(オリジナル)
Deceptive text classification is a critical task in natural language processing that aims to identify deceptive or fraudulent content. This study presents a comparative analysis of machine learning and transformer-based approaches for deceptive text classification. We investigate the effectiveness of traditional machine learning algorithms and state-of-the-art transformer models, such as BERT, XLNET, DistilBERT, and RoBERTa, in detecting deceptive text. A labeled dataset consisting of deceptive and non-deceptive texts is used for training and evaluation purposes. Through extensive experimentation, we compare the performance metrics, including accuracy, precision, recall, and F1 score, of the different approaches. The results of this study shed light on the strengths and limitations of machine learning and transformer-based methods for deceptive text classification, enabling researchers and practitioners to make informed decisions when dealing with deceptive content
arxiv情報
著者 | Anusuya Krishnan |
発行日 | 2023-08-10 10:07:00+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google