A Syntax-Injected Approach for Faster and More Accurate Sentiment Analysis

要約

感情分析 (SA) は、自然言語処理 (NLP) の重要な側面であり、テキスト コンテンツの主観的な評価に対処します。
構文解析は、明示的な構文情報により説明可能性を提供しながら精度を向上できるため、SA では役立ちますが、解析アルゴリズムが遅いため、実際には計算のボトルネックになる傾向があります。
この論文では、SEquence Labeling Syntactic Parser (SELSP) を使用して SA に構文を挿入することで、このボトルネックに対処します。
依存関係の解析をシーケンスのラベル付けの問題として扱うことで、構文ベースの SA の速度が大幅に向上します。
SELSP は 3 値極性分類タスクでトレーニングおよび評価されており、Stanza などの従来のパーサーや、VADER などの SA の浅い構文ルールを使用するヒューリスティックなアプローチと比較して、極性予測タスクにおけるパフォーマンスが高速で精度が高いことが実証されています。
この速度の向上と精度の向上により、SELSP は研究と産業の両方の SA 実践者にとって特に魅力的なものになっています。
さらに、SELSP でいくつかのセンチメント ディクショナリをテストし、どれが極性予測タスクのパフォーマンスを向上させるかを確認します。
さらに、SELSP を 5 ラベル分類タスクでトレーニングされた Transformer ベースのモデルと比較します。
この結果は、極性判定の変動を捉える辞書の方が、極性判定の変動を無視する辞書よりも良い結果を提供することを示しています。
さらに、極性予測タスクでは SELSP が Transformer ベースのモデルよりもかなり高速であることを示します。

要約(オリジナル)

Sentiment Analysis (SA) is a crucial aspect of Natural Language Processing (NLP), addressing subjective assessments in textual content. Syntactic parsing is useful in SA because explicit syntactic information can improve accuracy while providing explainability, but it tends to be a computational bottleneck in practice due to the slowness of parsing algorithms. This paper addresses said bottleneck by using a SEquence Labeling Syntactic Parser (SELSP) to inject syntax into SA. By treating dependency parsing as a sequence labeling problem, we greatly enhance the speed of syntax-based SA. SELSP is trained and evaluated on a ternary polarity classification task, demonstrating its faster performance and better accuracy in polarity prediction tasks compared to conventional parsers like Stanza and to heuristic approaches that use shallow syntactic rules for SA like VADER. This increased speed and improved accuracy make SELSP particularly appealing to SA practitioners in both research and industry. In addition, we test several sentiment dictionaries on our SELSP to see which one improves the performance in polarity prediction tasks. Moreover, we compare the SELSP with Transformer-based models trained on a 5-label classification task. The results show that dictionaries that capture polarity judgment variation provide better results than dictionaries that ignore polarity judgment variation. Moreover, we show that SELSP is considerably faster than Transformer-based models in polarity prediction tasks.

arxiv情報

著者 Muhammad Imran,Olga Kellert,Carlos Gómez-Rodríguez
発行日 2024-06-21 14:08:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク